JP6878375B2 - Information processing equipment, flight control instruction method, program, and recording medium - Google Patents

Information processing equipment, flight control instruction method, program, and recording medium Download PDF

Info

Publication number
JP6878375B2
JP6878375B2 JP2018183570A JP2018183570A JP6878375B2 JP 6878375 B2 JP6878375 B2 JP 6878375B2 JP 2018183570 A JP2018183570 A JP 2018183570A JP 2018183570 A JP2018183570 A JP 2018183570A JP 6878375 B2 JP6878375 B2 JP 6878375B2
Authority
JP
Japan
Prior art keywords
flight
speed
unmanned aerial
aerial vehicle
flight speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018183570A
Other languages
Japanese (ja)
Other versions
JP2020050261A (en
Inventor
磊 顧
磊 顧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SZ DJI Technology Co Ltd
Original Assignee
SZ DJI Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SZ DJI Technology Co Ltd filed Critical SZ DJI Technology Co Ltd
Priority to JP2018183570A priority Critical patent/JP6878375B2/en
Publication of JP2020050261A publication Critical patent/JP2020050261A/en
Priority to JP2021031963A priority patent/JP2021096865A/en
Application granted granted Critical
Publication of JP6878375B2 publication Critical patent/JP6878375B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Description

本開示は、飛行体による飛行の制御を指示する情報処理装置、飛行制御指示方法、プログラム、及び記録媒体に関する。 The present disclosure relates to an information processing device for instructing flight control by an air vehicle, a flight control instruction method, a program, and a recording medium.

従来、予め設定された固定経路を通りながら撮像を行うプラットフォーム(無人機)が知られている(特許文献1参照)。このプラットフォームは、地上基地から撮像指示を受け、撮像対象を撮像する。このプラットフォームは、撮像対象を撮像する場合、固定経路を飛行しながら、プラットフォームと撮像対象との位置関係により、プラットフォームの撮像機器を傾けて撮像する。 Conventionally, a platform (unmanned aerial vehicle) that performs imaging while passing through a preset fixed path is known (see Patent Document 1). The platform receives imaging instructions from the ground base and images the imaging target. When an image pickup target is imaged, the platform tilts the image pickup device of the platform according to the positional relationship between the platform and the image pickup target while flying on a fixed path.

特開2010−61216号公報JP-A-2010-61216

無人機による撮像時にこの無人機が移動することによりモーションブラーが発生すると、撮像画像の画質が低下する。そのため、例えば複数の撮像画像に基づいて合成画像の生成や地形の形状推定を行う場合、合成画像の画質低下や形状推定の推定精度の低下が生じ得る。したがって、画像を撮像する無人機の移動に起因するモーションブラーにより撮像画像の画質が劣化することを抑制できることが望ましい。 If motion blur occurs due to the movement of the unmanned aerial vehicle during imaging by the unmanned aerial vehicle, the image quality of the captured image deteriorates. Therefore, for example, when a composite image is generated or the shape of the terrain is estimated based on a plurality of captured images, the image quality of the composite image may be deteriorated and the estimation accuracy of the shape estimation may be deteriorated. Therefore, it is desirable to be able to suppress deterioration of the image quality of the captured image due to motion blur caused by the movement of the unmanned aerial vehicle that captures the image.

一態様において、飛行体による飛行の制御を指示する情報処理装置であって、処理部を備え、処理部は、飛行体が撮像するためのシャッタスピードの情報を取得し、飛行体が撮像する撮像画像における1画素あたりの実空間での距離の情報を取得し、シャッタスピードと1画素あたりの実空間での距離に基づいて、飛行体の飛行速度の上限値を決定し、飛行体の飛行速度の上限値以下の飛行速度となるように、飛行速度の制御を指示する。 In one aspect, it is an information processing device that instructs flight control by an air vehicle, and includes a processing unit, and the processing unit acquires information on the shutter speed for image capture by the air vehicle, and the image capturing image taken by the air vehicle. The information of the distance in real space per pixel in the image is acquired, the upper limit of the flight speed of the flying object is determined based on the shutter speed and the distance in real space per pixel, and the flight speed of the flying object is determined. Instruct the control of the flight speed so that the flight speed is equal to or less than the upper limit of.

処理部は、飛行体の飛行高度を取得し、飛行体が撮像するための画角を取得し、撮像画像の画素数を取得し、飛行体の飛行高度、画角、撮像画像の画素数に基づいて、1画素あたりの実空間での距離を算出してよい。 The processing unit acquires the flight altitude of the flying object, acquires the angle of view for the flying object to image, acquires the number of pixels of the captured image, and determines the flight altitude, the angle of view, and the number of pixels of the captured image of the flying object. Based on this, the distance in real space per pixel may be calculated.

処理部は、飛行体による1回の撮像期間に飛行体が移動する距離が、撮像画像における1画素に対応する実空間での距離以内となってよい。 In the processing unit, the distance that the flying object moves during one imaging period by the flying object may be within the distance in the real space corresponding to one pixel in the captured image.

一態様において、飛行体による飛行の制御を指示する情報処理装置であって、処理部を備え、処理部は、飛行体が備える照度センサにより検出された飛行体の周囲の照度を取得し、照度と、飛行体の飛行速度の上限値と、の関係を示す関係情報を取得し、関係情報に基づいて、取得された照度に対応する飛行体の飛行速度の上限値を導出し、飛行体の飛行速度の上限値以下の飛行速度となるように、飛行速度の制御を指示する。 In one aspect, it is an information processing device that instructs flight control by an air vehicle, and includes a processing unit, and the processing unit acquires the illuminance around the air vehicle detected by an illuminance sensor included in the air vehicle, and the illuminance. And, the relationship information indicating the relationship between the flight speed of the aircraft and the upper limit of the flight speed of the aircraft is acquired, and based on the relationship information, the upper limit of the flight speed of the aircraft corresponding to the acquired illuminance is derived, and the upper limit of the flight speed of the aircraft is derived. Instruct the control of the flight speed so that the flight speed is equal to or less than the upper limit of the flight speed.

処理部は、照度が大きい程、飛行体の飛行速度の上限値を大きくし、照度が小さい程、飛行体の飛行速度の上限値を小さくしてよい。 The processing unit may increase the upper limit of the flight speed of the flying object as the illuminance increases, and decrease the upper limit of the flight speed of the flying object as the illuminance decreases.

情報処理装置は、飛行体でよい。処理部は、飛行速度の上限値に基づいて、飛行速度を調整して飛行してよい。 The information processing device may be a flying object. The processing unit may adjust the flight speed and fly based on the upper limit value of the flight speed.

処理部は、飛行体の飛行速度を変更するための操作情報を取得し、操作情報に基づいて、飛行体の飛行速度の上限値以下の飛行速度となるように、飛行速度を調整して飛行を制御してよい。 The processing unit acquires operation information for changing the flight speed of the aircraft, and based on the operation information, adjusts the flight speed so that the flight speed is equal to or less than the upper limit of the flight speed of the aircraft. May be controlled.

一態様において、飛行体による飛行の制御を指示する情報処理装置における飛行制御指示方法であって、飛行体が撮像するためのシャッタスピードの情報を取得するステップと、飛行体が撮像する撮像画像における1画素あたりの実空間での距離の情報を取得するステップと、シャッタスピードと1画素あたりの実空間での距離に基づいて、飛行体の飛行速度の上限値を決定するステップと、飛行体の飛行速度の上限値以下の飛行速度となるように、飛行速度の制御を指示するステップと、を含む飛行制御指示方法。 In one aspect, it is a flight control instruction method in an information processing device for instructing flight control by an air vehicle, in a step of acquiring information on a shutter speed for the air vehicle to image, and in an image captured by the air vehicle. A step of acquiring information on the distance in real space per pixel, a step of determining an upper limit of the flight speed of the flying object based on the shutter speed and the distance in real space per pixel, and a step of determining the flying object. A flight control instruction method including a step of instructing control of a flight speed so that the flight speed is equal to or less than an upper limit of the flight speed.

距離の情報を取得するステップは、飛行体の飛行高度を取得するステップと、飛行体が撮像するための画角を取得するステップと、撮像画像の画素数を取得するステップと、飛行体の飛行高度、画角、撮像画像の画素数に基づいて、1画素あたりの実空間での距離を算出するステップと、を含んでよい。 The steps to acquire the distance information are the step of acquiring the flight altitude of the flying object, the step of acquiring the angle of view for the flying object to image, the step of acquiring the number of pixels of the captured image, and the flight of the flying object. It may include a step of calculating the distance in real space per pixel based on the altitude, the angle of view, and the number of pixels of the captured image.

飛行体による1回の撮像期間に飛行体が移動する距離が、撮像画像における1画素に対応する実空間での距離以内となってよい。 The distance that the flying object moves during one imaging period by the flying object may be within the distance in the real space corresponding to one pixel in the captured image.

一態様において、飛行体による飛行の制御を指示する情報処理装置における飛行制御指示方法であって、飛行体が備える照度センサにより検出された飛行体の周囲の照度を取得するステップと、照度と、飛行体の飛行速度の上限値と、の関係を示す関係情報を取得するステップと、関係情報に基づいて、取得された照度に対応する飛行体の飛行速度の上限値を導出するステップと、飛行体の飛行速度の上限値以下の飛行速度となるように、飛行速度の制御を指示するステップと、を有する。 In one aspect, a flight control instruction method in an information processing device for instructing flight control by an air vehicle, which is a step of acquiring the illuminance around the air vehicle detected by an illuminance sensor provided in the air vehicle, and the illuminance. A step of acquiring relational information indicating the relationship between the upper limit of the flight speed of the air vehicle, a step of deriving the upper limit of the flight speed of the air vehicle corresponding to the acquired illuminance based on the relational information, and flight. It has a step of instructing the control of the flight speed so that the flight speed is equal to or less than the upper limit of the flight speed of the body.

照度が大きい程、飛行体の飛行速度の上限値を大きくし、照度が小さい程、飛行体の飛行速度の上限値を小さくしてよい。 The larger the illuminance, the larger the upper limit of the flight speed of the flying object, and the smaller the illuminance, the smaller the upper limit of the flight speed of the flying object.

情報処理装置は、飛行体でよい。飛行制御指示方法は、飛行速度の上限値に基づいて、飛行速度を調整して飛行するステップ、を更に含んでよい。 The information processing device may be a flying object. The flight control instruction method may further include a step of adjusting the flight speed and flying based on the upper limit value of the flight speed.

飛行速度を調整して飛行を制御するステップは、飛行体の飛行速度を変更するための操作情報を取得するステップと、操作情報に基づいて、飛行体の飛行速度の上限値以下の飛行速度となるように、飛行速度を調整して飛行を制御するステップと、を含んでよい。 The steps to adjust the flight speed and control the flight are the step to acquire the operation information for changing the flight speed of the flying object, and the flight speed below the upper limit of the flight speed of the flying object based on the operation information. A step of adjusting the flight speed to control the flight, and the like, may be included.

一態様において、プログラムは、飛行体による飛行の制御を指示する情報処理装置に、飛行体が撮像するためのシャッタスピードの情報を取得するステップと、飛行体が撮像する撮像画像における1画素あたりの実空間での距離の情報を取得するステップと、シャッタスピードと1画素あたりの実空間での距離に基づいて、飛行体の飛行速度の上限値を決定するステップと、飛行体の飛行速度の上限値以下の飛行速度となるように、飛行速度の制御を指示するステップと、を実行させるためのプログラムである。 In one aspect, the program involves a step of acquiring shutter speed information for the flying object to image in an information processing device that instructs the information processing device to control the flight by the flying object, and a per pixel in the captured image captured by the flying object. The step of acquiring the distance information in real space, the step of determining the upper limit of the flight speed of the flying object based on the shutter speed and the distance in real space per pixel, and the upper limit of the flight speed of the flying object. It is a program for executing a step of instructing the control of the flight speed so that the flight speed becomes less than the value.

一態様において、記録媒体は、飛行体による飛行の制御を指示する情報処理装置に、飛行体が撮像するためのシャッタスピードの情報を取得するステップと、飛行体が撮像する撮像画像における1画素あたりの実空間での距離の情報を取得するステップと、シャッタスピードと1画素あたりの実空間での距離に基づいて、飛行体の飛行速度の上限値を決定するステップと、飛行体の飛行速度の上限値以下の飛行速度となるように、飛行速度の制御を指示するステップと、を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体である。 In one aspect, the recording medium is a step of acquiring information on the shutter speed for the flying object to be imaged by an information processing device instructing the flight control by the flying object, and one pixel per pixel in the captured image captured by the flying object. The step of acquiring the information of the distance in the real space of, the step of determining the upper limit of the flight speed of the flying object based on the shutter speed and the distance in the real space per pixel, and the step of determining the flight speed of the flying object. It is a computer-readable recording medium that records a step for instructing the control of the flight speed so that the flight speed is equal to or less than the upper limit value and a program for executing the flight speed.

なお、上記の発明の概要は、本開示の特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 The outline of the above invention does not list all the features of the present disclosure. Sub-combinations of these feature groups can also be inventions.

第1の実施形態における飛行システムの第1構成例を示す模式図Schematic diagram showing a first configuration example of the flight system according to the first embodiment 第1の実施形態における飛行システムの第2構成例を示す模式図Schematic diagram showing a second configuration example of the flight system according to the first embodiment 無人航空機の具体的な外観の一例を示す図Diagram showing an example of the concrete appearance of an unmanned aerial vehicle 無人航空機のハードウェア構成の一例を示すブロック図Block diagram showing an example of the hardware configuration of an unmanned aerial vehicle 端末のハードウェア構成の一例を示すブロック図Block diagram showing an example of terminal hardware configuration 撮像部のハードウェア構成を示す図The figure which shows the hardware composition of the image pickup part 無人航空機が飛行する際の最大飛行速度の導出例を説明する図The figure explaining the derivation example of the maximum flight speed when an unmanned aerial vehicle flies 第2の実施形態における無人航空機による飛行制御手順の一例を示すシーケンス図Sequence diagram showing an example of the flight control procedure by the unmanned aerial vehicle in the second embodiment 第2の実施形態における、照度と最大飛行速度との対応関係の一例を示すテーブルA table showing an example of the correspondence between the illuminance and the maximum flight speed in the second embodiment. 第2の実施形態における無人航空機による飛行制御手順の一例を示すシーケンス図Sequence diagram showing an example of the flight control procedure by the unmanned aerial vehicle in the second embodiment 第3の実施形態における飛行システムの構成例を示す図The figure which shows the configuration example of the flight system in 3rd Embodiment 送信機のハードウェア構成例を示すブロック図Block diagram showing a hardware configuration example of the transmitter

以下、発明の実施形態を通じて本開示を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須とは限らない。 Hereinafter, the present disclosure will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Not all combinations of features described in the embodiments are essential to the solution of the invention.

特許請求の範囲、明細書、図面、及び要約書には、著作権による保護の対象となる事項が含まれる。著作権者は、これらの書類の何人による複製に対しても、特許庁のファイル又はレコードに表示される通りであれば異議を唱えない。ただし、それ以外の場合、一切の著作権を留保する The claims, description, drawings, and abstracts include matters that are subject to copyright protection. The copyright holder will not object to any person's reproduction of these documents as long as they appear in the Patent Office files or records. However, in other cases, all copyrights are reserved .

以下の実施形態では、飛行体として、無人航空機(UAV:Unmanned Aerial Vehicle)を例示する。無人航空機は、空中を移動する航空機を含む。本明細書に添付する図面では、無人航空機を「UAV」とも表記する。情報処理装置として、例えば端末を例示するが、他の装置(例えば送信機、PC(Personal Computer)、無人航空機、その他の情報処理装置)でもよい。飛行制御指示方法は、情報処理装置の動作が規定されたものである。また、記録媒体は、プログラム(例えば情報処理装置に各種の処理を実行させるプログラム)が記録されたものである。 In the following embodiment, an unmanned aerial vehicle (UAV) will be illustrated as an air vehicle. Unmanned aerial vehicles include aircraft that move in the air. In the drawings attached herein, the unmanned aerial vehicle is also referred to as "UAV". As the information processing device, for example, a terminal is exemplified, but other devices (for example, a transmitter, a PC (Personal Computer), an unmanned aerial vehicle, and other information processing devices) may be used. The flight control instruction method defines the operation of the information processing device. Further, the recording medium is a recording medium in which a program (for example, a program that causes an information processing apparatus to execute various processes) is recorded.

(第1の実施形態)
図1は、第1の実施形態における飛行システム10の第1構成例を示す図である。飛行システム10は、無人航空機100及び端末80を備える。無人航空機100及び端末80は、相互に有線通信又は無線通信(例えば無線LAN(Local Area Network))により通信可能である。図1では、端末80が携帯端末(例えばスマートフォン、タブレット端末)であることを例示している。無人航空機100は、情報処理装置の一例である。
(First Embodiment)
FIG. 1 is a diagram showing a first configuration example of the flight system 10 according to the first embodiment. The flight system 10 includes an unmanned aerial vehicle 100 and a terminal 80. The unmanned aerial vehicle 100 and the terminal 80 can communicate with each other by wired communication or wireless communication (for example, wireless LAN (Local Area Network)). FIG. 1 illustrates that the terminal 80 is a mobile terminal (for example, a smartphone or a tablet terminal). The unmanned aerial vehicle 100 is an example of an information processing device.

図2は、第1の実施形態における飛行システム10の第2構成例を示す模式図である。図2では、端末80がPCであることを例示している。図1及び図2のいずれであっても、端末80が有する機能は同じでよい。 FIG. 2 is a schematic view showing a second configuration example of the flight system 10 according to the first embodiment. FIG. 2 illustrates that the terminal 80 is a PC. In either of FIGS. 1 and 2, the function of the terminal 80 may be the same.

図3は、無人航空機100の具体的な外観の一例を示す図である。図3には、無人航空機100が移動方向STV0に飛行する場合の斜視図が示される。無人航空機100は飛行体の一例である。 FIG. 3 is a diagram showing an example of a specific appearance of the unmanned aerial vehicle 100. FIG. 3 shows a perspective view of the unmanned aerial vehicle 100 flying in the moving direction STV0. The unmanned aerial vehicle 100 is an example of an air vehicle.

図3に示すように、地面と平行であって移動方向STV0に沿う方向にロール軸(x軸参照)が設定されてよい。この場合、地面と平行であってロール軸に垂直な方向にピッチ軸(y軸参照)が設定され、更に、地面に垂直であってロール軸及びピッチ軸に垂直な方向にヨー軸(z軸参照)が設定されてよい。 As shown in FIG. 3, a roll axis (see x-axis) may be set in a direction parallel to the ground and along the moving direction STV0. In this case, the pitch axis (see y-axis) is set in the direction parallel to the ground and perpendicular to the roll axis, and further, the yaw axis (z-axis) is set in the direction perpendicular to the ground and perpendicular to the roll axis and the pitch axis. See) may be set.

無人航空機100は、UAV本体102と、ジンバル200と、撮像部220と、複数の撮像部230とを含む構成である。 The unmanned aerial vehicle 100 includes a UAV main body 102, a gimbal 200, an imaging unit 220, and a plurality of imaging units 230.

UAV本体102は、複数の回転翼(プロペラ)を備える。UAV本体102は、複数の回転翼の回転を制御することにより無人航空機100を飛行させる。UAV本体102は、例えば4つの回転翼を用いて無人航空機100を飛行させる。回転翼の数は、4つに限定されない。また、無人航空機100は、回転翼を有さない固定翼機でよい。 The UAV main body 102 includes a plurality of rotary wings (propellers). The UAV main body 102 flies the unmanned aerial vehicle 100 by controlling the rotation of a plurality of rotor blades. The UAV body 102 flies the unmanned aerial vehicle 100 using, for example, four rotors. The number of rotor blades is not limited to four. Further, the unmanned aerial vehicle 100 may be a fixed-wing aircraft having no rotary wings.

撮像部220は、所望の撮像範囲に含まれる被写体(例えば、空撮対象となる上空の様子、山や川等の景色、地上の建物)を撮像する撮像用のカメラである。 The imaging unit 220 is a camera for imaging that captures a subject (for example, a state of the sky to be aerial photographed, a landscape such as a mountain or a river, a building on the ground) included in a desired imaging range.

複数の撮像部230は、無人航空機100の飛行を制御するために無人航空機100の周囲を撮像するセンシング用のカメラである。2つの撮像部230が、無人航空機100の機首である正面に設けられてよい。さらに、他の2つの撮像部230が、無人航空機100の底面に設けられてよい。正面側の2つの撮像部230はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像部230もペアとなり、ステレオカメラとして機能してよい。複数の撮像部230により撮像された画像に基づいて、無人航空機100の周囲の3次元空間データが生成されてよい。なお、無人航空機100が備える撮像部230の数は4つに限定されない。無人航空機100は、少なくとも1つの撮像部230を備えていればよい。無人航空機100は、無人航空機100の機首、機尾、側面、底面、及び天井面のそれぞれに少なくとも1つの撮像部230を備えてよい。撮像部230で設定できる画角は、撮像部220で設定できる画角より広くてよい。撮像部230は、単焦点レンズ又は魚眼レンズを有してよい。 The plurality of imaging units 230 are sensing cameras that image the surroundings of the unmanned aerial vehicle 100 in order to control the flight of the unmanned aerial vehicle 100. Two imaging units 230 may be provided in front of the nose of the unmanned aerial vehicle 100. Further, two other imaging units 230 may be provided on the bottom surface of the unmanned aerial vehicle 100. The two imaging units 230 on the front side may form a pair and function as a so-called stereo camera. The two imaging units 230 on the bottom side may also be paired and function as a stereo camera. Three-dimensional spatial data around the unmanned aerial vehicle 100 may be generated based on the images captured by the plurality of imaging units 230. The number of image pickup units 230 included in the unmanned aerial vehicle 100 is not limited to four. The unmanned aerial vehicle 100 may include at least one imaging unit 230. The unmanned aerial vehicle 100 may include at least one imaging unit 230 on each of the nose, tail, side surface, bottom surface, and ceiling surface of the unmanned aerial vehicle 100. The angle of view that can be set by the image pickup unit 230 may be wider than the angle of view that can be set by the image pickup unit 220. The imaging unit 230 may have a single focus lens or a fisheye lens.

図4は、無人航空機100のハードウェア構成の一例を示すブロック図である。無人航空機100は、UAV制御部110と、通信インタフェース150と、メモリ160と、ストレージ170と、照度センサ190と、ジンバル200と、回転翼機構210と、撮像部220と、撮像部230と、GPS受信機240と、慣性計測装置(IMU:Inertial Measurement Unit)250と、磁気コンパス260と、気圧高度計270と、超音波センサ280と、レーザー測定器290と、を含む構成である。 FIG. 4 is a block diagram showing an example of the hardware configuration of the unmanned aerial vehicle 100. The unmanned aerial vehicle 100 includes a UAV control unit 110, a communication interface 150, a memory 160, a storage 170, an illuminance sensor 190, a gimbal 200, a rotary wing mechanism 210, an imaging unit 220, an imaging unit 230, and GPS. The configuration includes a receiver 240, an inertial measurement unit (IMU) 250, a magnetic compass 260, a barometric altimeter 270, an ultrasonic sensor 280, and a laser measuring device 290.

UAV制御部110は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)又はDSP(Digital Signal Processor)を用いて構成される。UAV制御部110は、無人航空機100の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。 The UAV control unit 110 is configured by using, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or a DSP (Digital Signal Processor). The UAV control unit 110 performs signal processing for controlling the operation of each part of the unmanned aerial vehicle 100, data input / output processing with and from other parts, data calculation processing, and data storage processing.

UAV制御部110は、メモリ160に格納されたプログラムに従って無人航空機100の飛行を制御する。UAV制御部110は、飛行を制御してよい。UAV制御部110は、画像を撮像(例えば空撮)してよい。 The UAV control unit 110 controls the flight of the unmanned aerial vehicle 100 according to the program stored in the memory 160. The UAV control unit 110 may control the flight. The UAV control unit 110 may capture an image (for example, aerial photography).

UAV制御部110は、無人航空機100の位置を示す位置情報を取得する。UAV制御部110は、GPS受信機240から、無人航空機100が存在する緯度、経度及び高度を示す位置情報を取得してよい。UAV制御部110は、GPS受信機240から無人航空機100が存在する緯度及び経度を示す緯度経度情報、並びに気圧高度計270から無人航空機100が存在する高度を示す高度情報をそれぞれ位置情報として取得してよい。UAV制御部110は、超音波センサ280による超音波の放射点と超音波の反射点との距離を高度情報として取得してよい。 The UAV control unit 110 acquires position information indicating the position of the unmanned aerial vehicle 100. The UAV control unit 110 may acquire position information indicating the latitude, longitude, and altitude of the unmanned aerial vehicle 100 from the GPS receiver 240. The UAV control unit 110 acquires latitude / longitude information indicating the latitude and longitude of the unmanned aerial vehicle 100 from the GPS receiver 240 and altitude information indicating the altitude at which the unmanned aerial vehicle 100 exists from the barometric altimeter 270 as position information. Good. The UAV control unit 110 may acquire the distance between the ultrasonic wave emission point and the ultrasonic wave reflection point by the ultrasonic sensor 280 as altitude information.

UAV制御部110は、磁気コンパス260から無人航空機100の向きを示す向き情報を取得してよい。向き情報は、例えば無人航空機100の機首の向きに対応する方位で示されてよい。 The UAV control unit 110 may acquire orientation information indicating the orientation of the unmanned aerial vehicle 100 from the magnetic compass 260. The orientation information may be indicated, for example, in the orientation corresponding to the orientation of the nose of the unmanned aerial vehicle 100.

UAV制御部110は、撮像部220が撮像すべき撮像範囲を撮像する時に無人航空機100が存在すべき位置を示す位置情報を取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報をメモリ160から取得してよい。UAV制御部110は、無人航空機100が存在すべき位置を示す位置情報を、通信インタフェース150を介して他の装置から取得してよい。UAV制御部110は、3次元地図データベースを参照して、無人航空機100が存在可能な位置を特定して、その位置を無人航空機100が存在すべき位置を示す位置情報として取得してよい。 The UAV control unit 110 may acquire position information indicating the position where the unmanned aerial vehicle 100 should exist when the imaging unit 220 images the imaging range to be imaged. The UAV control unit 110 may acquire position information indicating the position where the unmanned aerial vehicle 100 should exist from the memory 160. The UAV control unit 110 may acquire position information indicating the position where the unmanned aerial vehicle 100 should exist from another device via the communication interface 150. The UAV control unit 110 may refer to the three-dimensional map database to specify the position where the unmanned aerial vehicle 100 can exist, and acquire the position as position information indicating the position where the unmanned aerial vehicle 100 should exist.

UAV制御部110は、撮像部220及び撮像部230のそれぞれの撮像範囲を示す撮像範囲情報を取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部220及び撮像部230の画角を示す画角情報を撮像部220及び撮像部230から取得してよい。UAV制御部110は、撮像範囲を特定するためのパラメータとして、撮像部220及び撮像部230の撮像方向を示す情報を取得してよい。UAV制御部110は、例えば撮像部220の撮像方向を示す情報として、ジンバル200から撮像部220の姿勢の状態を示す姿勢情報を取得してよい。撮像部220の姿勢情報は、ジンバル200のピッチ軸及びヨー軸の基準回転角度からの回転角度を示してよい。 The UAV control unit 110 may acquire image pickup range information indicating the respective image pickup ranges of the image pickup unit 220 and the image pickup unit 230. The UAV control unit 110 may acquire the angle of view information indicating the angles of view of the imaging unit 220 and the imaging unit 230 from the imaging unit 220 and the imaging unit 230 as a parameter for specifying the imaging range. The UAV control unit 110 may acquire information indicating the imaging direction of the imaging unit 220 and the imaging unit 230 as a parameter for specifying the imaging range. The UAV control unit 110 may acquire posture information indicating the posture state of the imaging unit 220 from the gimbal 200, for example, as information indicating the imaging direction of the imaging unit 220. The posture information of the imaging unit 220 may indicate the rotation angle of the gimbal 200 from the reference rotation angle of the pitch axis and the yaw axis.

UAV制御部110は、撮像範囲を特定するためのパラメータとして、無人航空機100が存在する位置を示す位置情報を取得してよい。UAV制御部110は、撮像部220及び撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて、撮像部220が撮像する地理的な範囲を示す撮像範囲を画定し、撮像範囲情報を生成することで、撮像範囲情報を取得してよい。 The UAV control unit 110 may acquire position information indicating the position where the unmanned aerial vehicle 100 exists as a parameter for specifying the imaging range. The UAV control unit 110 defines an imaging range indicating a geographical range to be imaged by the imaging unit 220 based on the angle of view and the imaging direction of the imaging unit 220 and the imaging unit 230, and the position where the unmanned aerial vehicle 100 exists. The imaging range information may be acquired by generating the imaging range information.

UAV制御部110は、メモリ160から撮像範囲情報を取得してよい。UAV制御部110は、通信インタフェース150を介して撮像範囲情報を取得してよい。 The UAV control unit 110 may acquire imaging range information from the memory 160. The UAV control unit 110 may acquire imaging range information via the communication interface 150.

UAV制御部110は、ジンバル200、回転翼機構210、撮像部220及び撮像部230を制御する。UAV制御部110は、撮像部220の撮像方向又は画角を変更することによって、撮像部220の撮像範囲を制御してよい。UAV制御部110は、ジンバル200の回転機構を制御することで、ジンバル200に支持されている撮像部220の撮像範囲を制御してよい。 The UAV control unit 110 controls the gimbal 200, the rotor blade mechanism 210, the image pickup unit 220, and the image pickup section 230. The UAV control unit 110 may control the imaging range of the imaging unit 220 by changing the imaging direction or angle of view of the imaging unit 220. The UAV control unit 110 may control the imaging range of the imaging unit 220 supported by the gimbal 200 by controlling the rotation mechanism of the gimbal 200.

撮像範囲とは、撮像部220又は撮像部230により撮像される地理的な範囲をいう。撮像範囲は、緯度、経度、及び高度で定義される。撮像範囲は、緯度、経度、及び高度で定義される3次元空間データにおける範囲でよい。撮像範囲は、緯度及び経度で定義される2次元空間データにおける範囲でよい。撮像範囲は、撮像部220又は撮像部230の画角及び撮像方向、並びに無人航空機100が存在する位置に基づいて特定されてよい。撮像部220及び撮像部230の撮像方向は、撮像部220及び撮像部230の撮像レンズが設けられた正面が向く方位と俯角とから定義されてよい。撮像部220の撮像方向は、無人航空機100の機首の方位と、ジンバル200に対する撮像部220の姿勢の状態とから特定される方向でよい。撮像部230の撮像方向は、無人航空機100の機首の方位と、撮像部230が設けられた位置とから特定される方向でよい。 The imaging range refers to a geographical range imaged by the imaging unit 220 or the imaging unit 230. The imaging range is defined by latitude, longitude, and altitude. The imaging range may be a range in three-dimensional spatial data defined by latitude, longitude, and altitude. The imaging range may be a range in two-dimensional spatial data defined by latitude and longitude. The imaging range may be specified based on the angle of view and imaging direction of the imaging unit 220 or the imaging unit 230, and the position where the unmanned aerial vehicle 100 exists. The imaging direction of the imaging unit 220 and the imaging unit 230 may be defined from the direction in which the front surface of the imaging unit 220 and the imaging unit 230 provided with the imaging lens faces and the depression angle. The imaging direction of the imaging unit 220 may be a direction specified from the orientation of the nose of the unmanned aerial vehicle 100 and the attitude of the imaging unit 220 with respect to the gimbal 200. The imaging direction of the imaging unit 230 may be a direction specified from the orientation of the nose of the unmanned aerial vehicle 100 and the position where the imaging unit 230 is provided.

UAV制御部110は、複数の撮像部230により撮像された複数の画像を解析することで、無人航空機100の周囲の環境を特定してよい。UAV制御部110は、無人航空機100の周囲の環境に基づいて、例えば障害物を回避して飛行を制御してよい。 The UAV control unit 110 may identify the environment around the unmanned aerial vehicle 100 by analyzing a plurality of images captured by the plurality of imaging units 230. The UAV control unit 110 may control the flight, for example, avoiding obstacles, based on the environment around the unmanned aerial vehicle 100.

UAV制御部110は、無人航空機100の周囲に存在するオブジェクトの立体形状(3次元形状)を示す立体情報(3次元情報)を取得してよい。オブジェクトは、例えば、建物、道路、車、木等の風景の一部でよい。立体情報は、例えば、3次元空間データである。UAV制御部110は、複数の撮像部230から得られたそれぞれの画像から、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を生成することで、立体情報を取得してよい。UAV制御部110は、メモリ160又はストレージ170に格納された3次元地図データベースを参照することにより、無人航空機100の周囲に存在するオブジェクトの立体形状を示す立体情報を取得してよい。UAV制御部110は、ネットワーク上に存在するサーバが管理する3次元地図データベースを参照することで、無人航空機100の周囲に存在するオブジェクトの立体形状に関する立体情報を取得してよい。 The UAV control unit 110 may acquire three-dimensional information (three-dimensional information) indicating the three-dimensional shape (three-dimensional shape) of an object existing around the unmanned aerial vehicle 100. The object may be, for example, a part of a landscape such as a building, a road, a car, or a tree. The three-dimensional information is, for example, three-dimensional spatial data. The UAV control unit 110 may acquire the three-dimensional information by generating the three-dimensional information indicating the three-dimensional shape of the object existing around the unmanned aerial vehicle 100 from each image obtained from the plurality of imaging units 230. The UAV control unit 110 may acquire three-dimensional information indicating the three-dimensional shape of an object existing around the unmanned aerial vehicle 100 by referring to the three-dimensional map database stored in the memory 160 or the storage 170. The UAV control unit 110 may acquire three-dimensional information regarding the three-dimensional shape of an object existing around the unmanned aerial vehicle 100 by referring to a three-dimensional map database managed by a server existing on the network.

UAV制御部110は、回転翼機構210を制御することで、無人航空機100の飛行を制御する。つまり、UAV制御部110は、回転翼機構210を制御することにより、無人航空機100の緯度、経度、及び高度を含む位置を制御する。UAV制御部110は、無人航空機100の飛行を制御することにより、撮像部220の撮像範囲を制御してよい。UAV制御部110は、撮像部220が備えるズームレンズを制御することで、撮像部220の画角を制御してよい。UAV制御部110は、撮像部220のデジタルズーム機能を利用して、デジタルズームにより、撮像部220の画角を制御してよい。 The UAV control unit 110 controls the flight of the unmanned aerial vehicle 100 by controlling the rotary wing mechanism 210. That is, the UAV control unit 110 controls the position including the latitude, longitude, and altitude of the unmanned aerial vehicle 100 by controlling the rotary wing mechanism 210. The UAV control unit 110 may control the imaging range of the imaging unit 220 by controlling the flight of the unmanned aerial vehicle 100. The UAV control unit 110 may control the angle of view of the image pickup unit 220 by controlling the zoom lens included in the image pickup unit 220. The UAV control unit 110 may control the angle of view of the image pickup unit 220 by the digital zoom by utilizing the digital zoom function of the image pickup unit 220.

撮像部220が無人航空機100に固定され、撮像部220を動かせない場合、UAV制御部110は、特定の日時に特定の位置に無人航空機100を移動させることにより、所望の環境下で所望の撮像範囲を撮像部220に撮像させてよい。あるいは撮像部220がズーム機能を有さず、撮像部220の画角を変更できない場合でも、UAV制御部110は、特定された日時に、特定の位置に無人航空機100を移動させることで、所望の環境下で所望の撮像範囲を撮像部220に撮像させてよい。 When the imaging unit 220 is fixed to the unmanned aerial vehicle 100 and the imaging unit 220 cannot be moved, the UAV control unit 110 moves the unmanned aerial vehicle 100 to a specific position at a specific date and time to obtain a desired image in a desired environment. The range may be imaged by the imaging unit 220. Alternatively, even if the imaging unit 220 does not have a zoom function and the angle of view of the imaging unit 220 cannot be changed, the UAV control unit 110 desired by moving the unmanned aerial vehicle 100 to a specific position at a specified date and time. The imaging unit 220 may image a desired imaging range in the above environment.

通信インタフェース150は、端末80と通信する。通信インタフェース150は、任意の無線通信方式により無線通信してよい。通信インタフェース150は、任意の有線通信方式により有線通信してよい。通信インタフェース150は、撮像画像や撮像画像に関する付加情報(メタデータ)を、端末80に送信してよい。 The communication interface 150 communicates with the terminal 80. The communication interface 150 may perform wireless communication by any wireless communication method. The communication interface 150 may perform wired communication by any wired communication method. The communication interface 150 may transmit the captured image and additional information (metadata) related to the captured image to the terminal 80.

メモリ160は、UAV制御部110がジンバル200、回転翼機構210、撮像部220、撮像部230、GPS受信機240、慣性計測装置250、磁気コンパス260、気圧高度計270、超音波センサ280、及びレーザー測定器290を制御するのに必要なプログラム等を格納する。メモリ160は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、及びUSB(Universal Serial Bus)メモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ160は、無人航空機100から取り外し可能であってよい。メモリ160は、作業用メモリとして動作してよい。なお、第1の実施形態では、メモリ160が後述するテーブルTbを保持しなくてよい。 In the memory 160, the UAV control unit 110 has a gimbal 200, a rotary blade mechanism 210, an imaging unit 220, an imaging unit 230, a GPS receiver 240, an inertial measurement unit 250, a magnetic compass 260, a barometric altimeter 270, an ultrasonic sensor 280, and a laser. Stores programs and the like required to control the measuring instrument 290. The memory 160 may be a computer-readable recording medium, and may be SRAM (Static Random Access Memory), DRAM (Dynamic Random Access Memory), EEPROM (Erasable Programmable Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), and EEPROM (Electrically Erasable Programmable Read-Only Memory). It may include at least one of flash memories such as USB (Universal Serial Bus) memory. The memory 160 may be removable from the unmanned aerial vehicle 100. The memory 160 may operate as a working memory. In the first embodiment, the memory 160 does not have to hold the table Tb described later.

ストレージ170は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、SDカード、USBメモリ、その他のストレージの少なくとも1つを含んでよい。ストレージ170は、各種情報、各種データを保持してよい。ストレージ170は、無人航空機100から取り外し可能であってよい。ストレージ170は、撮像画像を記録してよい。 The storage 170 may include at least one of an HDD (Hard Disk Drive), an SSD (Solid State Drive), an SD card, a USB memory, and other storage. The storage 170 may hold various information and various data. The storage 170 may be removable from the unmanned aerial vehicle 100. The storage 170 may record the captured image.

メモリ160又はストレージ170は、端末80又は無人航空機100により生成された撮像位置や撮像経路(飛行経路)の情報を保持してよい。撮像位置や撮像経路の情報は、無人航空機100により予定された撮像に係る撮像パラメータ、又は、無人航空機100により予定された飛行に係る飛行パラメータ、の1つとして、UAV制御部110により設定されてよい。この設定情報は、メモリ160又はストレージ170に保持されてよい。また、メモリ160には、テーブルTb(図9参照))が登録される記憶領域が割り当てられてよい。 The memory 160 or the storage 170 may hold information on the imaging position and the imaging path (flight path) generated by the terminal 80 or the unmanned aerial vehicle 100. Information on the imaging position and the imaging path is set by the UAV control unit 110 as one of the imaging parameters related to the imaging scheduled by the unmanned aerial vehicle 100 or the flight parameters related to the flight scheduled by the unmanned aerial vehicle 100. Good. This setting information may be held in the memory 160 or the storage 170. Further, the memory 160 may be allocated a storage area in which the table Tb (see FIG. 9) is registered.

照度センサ190は、無人航空機100におけるいずれかの位置に設置されてよい。照度センサ190は、無人航空機100の周囲の照度(明るさ)を検出してよく、例えば撮像方向における照度を検出してよい。よって、無人航空機100の周囲の照度は、撮像部220で撮像される被写体の照度を含んでよい。照度センサ190は、無人航空機100に備えられなくてもよい。 The illuminance sensor 190 may be installed at any position on the unmanned aerial vehicle 100. The illuminance sensor 190 may detect the illuminance (brightness) around the unmanned aerial vehicle 100, for example, the illuminance in the imaging direction. Therefore, the illuminance around the unmanned aerial vehicle 100 may include the illuminance of the subject imaged by the imaging unit 220. The illuminance sensor 190 does not have to be provided in the unmanned aerial vehicle 100.

ジンバル200は、ヨー軸、ピッチ軸、及びロール軸を中心に撮像部220を回転可能に支持してよい。ジンバル200は、ヨー軸、ピッチ軸、及びロール軸の少なくとも1つを中心に撮像部220を回転させることで、撮像部220の撮像方向を変更してよい。 The gimbal 200 may rotatably support the imaging unit 220 about the yaw axis, the pitch axis, and the roll axis. The gimbal 200 may change the imaging direction of the imaging unit 220 by rotating the imaging unit 220 around at least one of the yaw axis, the pitch axis, and the roll axis.

回転翼機構210は、複数の回転翼と、複数の回転翼を回転させる複数の駆動モータと、を有する。回転翼機構210は、UAV制御部110により回転を制御されることにより、無人航空機100を飛行させる。回転翼211の数は、例えば4つでよいし、その他の数でよい。また、無人航空機100は、回転翼を有さない固定翼機でよい。 The rotary blade mechanism 210 includes a plurality of rotary blades and a plurality of drive motors for rotating the plurality of rotary blades. The rotary wing mechanism 210 flies the unmanned aerial vehicle 100 by controlling the rotation by the UAV control unit 110. The number of rotary blades 211 may be, for example, four, or any other number. Further, the unmanned aerial vehicle 100 may be a fixed-wing aircraft having no rotary wings.

撮像部220は、所望の撮像範囲の被写体を撮像して撮像画像のデータを生成する。撮像部220の撮像により得られた画像データ(例えば空撮画像)は、撮像部220が有するメモリ、又はストレージ170に格納されてよい。 The imaging unit 220 images a subject in a desired imaging range and generates data of the captured image. The image data (for example, an aerial image) obtained by the imaging of the imaging unit 220 may be stored in the memory of the imaging unit 220 or the storage 170.

撮像部230は、無人航空機100の周囲を撮像して撮像画像のデータを生成する。撮像部230の画像データは、ストレージ170に格納されてよい。 The imaging unit 230 images the surroundings of the unmanned aerial vehicle 100 to generate captured image data. The image data of the imaging unit 230 may be stored in the storage 170.

GPS受信機240は、複数の航法衛星(つまり、GPS衛星)から発信された時刻及び各GPS衛星の位置(座標)を示す複数の信号を受信する。GPS受信機240は、受信された複数の信号に基づいて、GPS受信機240の位置(つまり、無人航空機100の位置)を算出する。GPS受信機240は、無人航空機100の位置情報をUAV制御部110に出力する。なお、GPS受信機240の位置情報の算出は、GPS受信機240の代わりにUAV制御部110により行われてよい。この場合、UAV制御部110には、GPS受信機240が受信した複数の信号に含まれる時刻及び各GPS衛星の位置を示す情報が入力される。 The GPS receiver 240 receives a plurality of signals indicating the time transmitted from the plurality of navigation satellites (that is, GPS satellites) and the position (coordinates) of each GPS satellite. The GPS receiver 240 calculates the position of the GPS receiver 240 (that is, the position of the unmanned aerial vehicle 100) based on the plurality of received signals. The GPS receiver 240 outputs the position information of the unmanned aerial vehicle 100 to the UAV control unit 110. The position information of the GPS receiver 240 may be calculated by the UAV control unit 110 instead of the GPS receiver 240. In this case, information indicating the time included in the plurality of signals received by the GPS receiver 240 and the position of each GPS satellite is input to the UAV control unit 110.

慣性計測装置250は、無人航空機100の姿勢を検出し、検出結果をUAV制御部110に出力する。慣性計測装置250は、無人航空機100の姿勢として、無人航空機100の前後、左右、及び上下の3軸方向の加速度と、ピッチ軸、ロール軸、及びヨー軸の3軸方向の角速度とを検出してよい。 The inertial measurement unit 250 detects the attitude of the unmanned aerial vehicle 100 and outputs the detection result to the UAV control unit 110. The inertial measurement unit 250 detects the acceleration in the three axial directions of the unmanned aerial vehicle 100 in the front-rear direction, the left-right direction, and the up-down direction, and the angular velocity in the three-axis directions of the pitch axis, the roll axis, and the yaw axis as the posture of the unmanned aerial vehicle 100. You can.

磁気コンパス260は、無人航空機100の機首の方位を検出し、検出結果をUAV制御部110に出力する。 The magnetic compass 260 detects the direction of the nose of the unmanned aerial vehicle 100 and outputs the detection result to the UAV control unit 110.

気圧高度計270は、無人航空機100が飛行する高度を検出し、検出結果をUAV制御部110に出力する。 The barometric altimeter 270 detects the altitude at which the unmanned aerial vehicle 100 flies, and outputs the detection result to the UAV control unit 110.

超音波センサ280は、超音波を放射し、地面や物体により反射された超音波を検出し、検出結果をUAV制御部110に出力する。検出結果は、無人航空機100から地面までの距離つまり高度を示してよい。検出結果は、無人航空機100から物体(被写体)までの距離を示してよい。 The ultrasonic sensor 280 emits ultrasonic waves, detects ultrasonic waves reflected by the ground or an object, and outputs the detection result to the UAV control unit 110. The detection result may indicate the distance or altitude from the unmanned aerial vehicle 100 to the ground. The detection result may indicate the distance from the unmanned aerial vehicle 100 to the object (subject).

レーザー測定器290は、物体にレーザー光を照射し、物体で反射された反射光を受光し、反射光により無人航空機100と物体(被写体)との間の距離を測定する。レーザー光による距離の測定方式は、一例として、タイムオブフライト方式でよい。 The laser measuring device 290 irradiates an object with a laser beam, receives the reflected light reflected by the object, and measures the distance between the unmanned aerial vehicle 100 and the object (subject) by the reflected light. As an example, the distance measurement method using the laser beam may be the time-of-flight method.

図5は、端末80のハードウェア構成の一例を示すブロック図である。端末80は、端末制御部81、操作部83、通信部85、メモリ87、表示部88、及びストレージ89を備える。端末80は、無人航空機100の飛行制御の指示を希望するユーザに所持され得る。 FIG. 5 is a block diagram showing an example of the hardware configuration of the terminal 80. The terminal 80 includes a terminal control unit 81, an operation unit 83, a communication unit 85, a memory 87, a display unit 88, and a storage 89. The terminal 80 may be possessed by a user who desires instructions for flight control of the unmanned aerial vehicle 100.

端末制御部81は、例えばCPU、MPU又はDSPを用いて構成される。端末制御部81は、端末80の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。 The terminal control unit 81 is configured by using, for example, a CPU, MPU, or DSP. The terminal control unit 81 performs signal processing for controlling the operation of each unit of the terminal 80, data input / output processing with and from other units, data calculation processing, and data storage processing.

端末制御部81は、通信部85を介して、無人航空機100からのデータや情報(各種計測データ、撮像画像、その付加情報、等)を取得してよい。端末制御部81は、操作部83を介して入力されたデータや情報(例えば各種パラメータ)を取得してよい。端末制御部81は、メモリ87に保持されたデータや情報を取得してよい。端末制御部81は、通信部85を介して、無人航空機100へ、データや情報(例えば位置、速度、飛行経路の情報)を送信させてよい。端末制御部81は、データや情報を表示部88に送り、このデータや情報に基づく表示情報を表示部88に表示させてよい。 The terminal control unit 81 may acquire data and information (various measurement data, captured images, additional information thereof, etc.) from the unmanned aerial vehicle 100 via the communication unit 85. The terminal control unit 81 may acquire data and information (for example, various parameters) input via the operation unit 83. The terminal control unit 81 may acquire the data and information held in the memory 87. The terminal control unit 81 may transmit data and information (for example, position, speed, flight path information) to the unmanned aerial vehicle 100 via the communication unit 85. The terminal control unit 81 may send data or information to the display unit 88 and display the display information based on the data or information on the display unit 88.

端末制御部81は、無人航空機100に対する、飛行制御を行うためのアプリケーションを実行してよい。端末制御部81は、アプリケーションで用いられる各種のデータを生成してよい。 The terminal control unit 81 may execute an application for performing flight control on the unmanned aerial vehicle 100. The terminal control unit 81 may generate various data used in the application.

操作部83は、端末80のユーザにより入力されるデータや情報を受け付けて取得する。操作部83は、ボタン、キー、タッチスクリーン、マイクロホン、等の入力装置を含んでよい。ここでは、主に、操作部83と表示部88とがタッチパネルにより構成されることを例示する。この場合、操作部83は、タッチ操作、タップ操作、ドラック操作等を受付可能である。操作部83は、各種パラメータの情報を受け付けてよい。操作部83により入力された情報は、無人航空機100へ送信されてよい。各種パラメータは、飛行制御に関するパラメータを含んでよい。 The operation unit 83 receives and acquires data and information input by the user of the terminal 80. The operation unit 83 may include an input device such as a button, a key, a touch screen, a microphone, and the like. Here, it is illustrated that the operation unit 83 and the display unit 88 are mainly composed of a touch panel. In this case, the operation unit 83 can accept touch operations, tap operations, drag operations, and the like. The operation unit 83 may accept information on various parameters. The information input by the operation unit 83 may be transmitted to the unmanned aerial vehicle 100. The various parameters may include parameters relating to flight control.

通信部85は、各種の無線通信方式により、無人航空機100との間で無線通信する。この無線通信の無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、又は公衆無線回線を介した通信を含んでよい。通信部85は、任意の有線通信方式により有線通信してよい。 The communication unit 85 wirelessly communicates with the unmanned aerial vehicle 100 by various wireless communication methods. The wireless communication method of this wireless communication may include communication via, for example, a wireless LAN, Bluetooth®, or a public wireless line. The communication unit 85 may perform wired communication by any wired communication method.

メモリ87は、例えば端末80の動作を規定するプログラムや設定値のデータが格納されたROMと、端末制御部81の処理時に使用される各種の情報やデータを一時的に保存するRAMを有してよい。メモリ87は、ROM及びRAM以外のメモリが含まれてよい。メモリ87は、端末80の内部に設けられてよい。メモリ87は、端末80から取り外し可能に設けられてよい。プログラムは、アプリケーションプログラムを含んでよい。 The memory 87 has, for example, a ROM in which data of a program or set value that defines the operation of the terminal 80 is stored, and a RAM in which various information and data used during processing by the terminal control unit 81 are temporarily stored. You can. The memory 87 may include a memory other than the ROM and the RAM. The memory 87 may be provided inside the terminal 80. The memory 87 may be provided so as to be removable from the terminal 80. The program may include an application program.

表示部88は、例えばLCD(Liquid Crystal Display)を用いて構成され、端末制御部81から出力された各種の情報やデータを表示する。表示部88は、アプリケーションの実行に係る各種データや情報を表示してよい。 The display unit 88 is configured by using, for example, an LCD (Liquid Crystal Display), and displays various information and data output from the terminal control unit 81. The display unit 88 may display various data and information related to the execution of the application.

ストレージ89は、各種データ、情報を蓄積し、保持する。ストレージ89は、HDD、SSD、SDカード、USBメモリ、等でよい。ストレージ89は、端末80の内部に設けられてよい。ストレージ89は、端末80から取り外し可能に設けられてよい。ストレージ89は、無人航空機100から取得された空撮画像や付加情報を保持してよい。付加情報は、メモリ87に保持されてよい。 The storage 89 stores and holds various data and information. The storage 89 may be an HDD, SSD, SD card, USB memory, or the like. The storage 89 may be provided inside the terminal 80. The storage 89 may be provided so as to be removable from the terminal 80. The storage 89 may hold the aerial image and additional information acquired from the unmanned aerial vehicle 100. The additional information may be stored in the memory 87.

図6は、撮像部220のハードウェア構成を示す図である。撮像部220は、筐体220zを有する。撮像部220は、筐体220zの内部に、カメラプロセッサ11、シャッタ12、撮像素子13、画像処理部14、メモリ15、シャッタ駆動部19、素子駆動部20、ゲイン制御部21、及びフラッシュ18を有する。カメラプロセッサ11は、UAV制御部110の指示に従って動作してよい。なお、撮像部220のこれらの構成部の一部は、省略されてもよい。 FIG. 6 is a diagram showing a hardware configuration of the imaging unit 220. The imaging unit 220 has a housing 220z. The image pickup unit 220 includes a camera processor 11, a shutter 12, an image sensor 13, an image processing unit 14, a memory 15, a shutter drive unit 19, an element drive unit 20, a gain control unit 21, and a flash 18 inside the housing 220z. Have. The camera processor 11 may operate according to the instruction of the UAV control unit 110. Note that some of these components of the imaging unit 220 may be omitted.

カメラプロセッサ11は、露光時間(シャッタスピード)、絞り(アイリス)、等の撮影条件(各種撮像に関するパラメータ)を決定する。カメラプロセッサ11は、露光(AE:Automatic Exposure)制御を行う。露光制御には、絞りの値を優先した露光制御(絞り固定、シャッタスピード可変)やシャッタスピードを優先した露光制御(絞り可変、シャッタスピード固定)が含まれてよい。また、カメラプロセッサ11は、NDフィルタによる減光分を加味して、露光制御を行ってもよい。 The camera processor 11 determines shooting conditions (parameters related to various types of imaging) such as exposure time (shutter speed) and aperture (iris). The camera processor 11 controls exposure (AE: Automatic Exposure). The exposure control may include exposure control that prioritizes the aperture value (fixed aperture, variable shutter speed) and exposure control that prioritizes shutter speed (variable aperture, fixed shutter speed). Further, the camera processor 11 may perform exposure control in consideration of the dimming component by the ND filter.

カメラプロセッサ11は、画像処理部14から出力された画像データから明度レベル(例えば画素値)を算出してよい。カメラプロセッサ11は、算出した明度レベルに基づいて撮像素子13に対するゲインの値を算出し、この算出結果をゲイン制御部21に送出してよい。カメラプロセッサ11は、算出した明度レベルに基づいてシャッタ12を開閉するためのシャッタスピードの値を算出し、算出結果をシャッタ駆動部19に送出してよい。カメラプロセッサ11は、撮像素子13にタイミング信号を供給する素子駆動部20に撮像の指示を送出してよい。 The camera processor 11 may calculate a brightness level (for example, a pixel value) from the image data output from the image processing unit 14. The camera processor 11 may calculate a gain value for the image sensor 13 based on the calculated brightness level, and send the calculated result to the gain control unit 21. The camera processor 11 may calculate a value of the shutter speed for opening and closing the shutter 12 based on the calculated brightness level, and send the calculated result to the shutter drive unit 19. The camera processor 11 may send an image pickup instruction to the element drive unit 20 that supplies a timing signal to the image sensor 13.

シャッタ12は、例えばフォーカルプレーンシャッタであり、シャッタ駆動部19により駆動される。シャッタ12の開放時に入射した光は、撮像素子13の撮像面上に結像する。撮像素子13は、撮像面上に結像した光学像を光電変換し、画像信号として出力する。撮像素子13には、CCD(Charge Coupled Device:電荷結合素子)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor:相補型MOS)イメージセンサが用いられてよい。 The shutter 12 is, for example, a focal plane shutter, and is driven by the shutter driving unit 19. The light incident when the shutter 12 is opened is imaged on the image pickup surface of the image pickup device 13. The image sensor 13 photoelectrically converts the optical image formed on the image pickup surface and outputs it as an image signal. As the image pickup device 13, a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor: Complementary MOS) image sensor may be used.

ゲイン制御部21は、撮像素子13から入力された画像信号に対してノイズを低減し、撮像信号を増幅するゲイン(利得)を制御する。画像処理部14は、ゲイン制御部21によって増幅された撮像信号に対し、アナログデジタル変換を行って画像データを生成する。画像処理部14は、シェーディング補正、色補正、輪郭強調、ノイズ除去、ガンマ補正、ディベイヤ、圧縮等の各処理を行ってよい。 The gain control unit 21 reduces noise with respect to the image signal input from the image sensor 13 and controls the gain that amplifies the image sensor. The image processing unit 14 performs analog-to-digital conversion on the image pickup signal amplified by the gain control unit 21 to generate image data. The image processing unit 14 may perform shading correction, color correction, contour enhancement, noise removal, gamma correction, debayer, compression, and the like.

メモリ15は、各種データや画像データを記憶する記憶媒体である。メモリ15は、例えば、シャッタスピードss、F値(絞りの値)、ISO感度、を基に露光量Eを算出するための露光制御情報を保持してよい。ISO感度は、ゲインに対応する値である。ND値は減光フィルタによる減光度を表す。 The memory 15 is a storage medium for storing various data and image data. The memory 15 may hold exposure control information for calculating the exposure amount E based on, for example, the shutter speed ss, the F value (aperture value), and the ISO sensitivity. The ISO sensitivity is a value corresponding to the gain. The ND value represents the degree of dimming by the dimming filter.

シャッタ駆動部19は、カメラプロセッサ11から指示されたシャッタスピードでシャッタ12を開閉する。素子駆動部20は、タイミングジェネレータであり、カメラプロセッサ11からの撮像の指示に従い、撮像素子13にタイミング信号を供給し、撮像素子13の電荷の蓄積動作、読み出し動作、リセット動作等を行う。 The shutter drive unit 19 opens and closes the shutter 12 at the shutter speed instructed by the camera processor 11. The element drive unit 20 is a timing generator, and supplies a timing signal to the image pickup device 13 in accordance with an image pickup instruction from the camera processor 11, and performs a charge accumulation operation, a read-out operation, a reset operation, and the like of the image pickup element 13.

フラッシュ18は、カメラプロセッサ11の指示に従い、夜間撮像時や逆光補正時に閃光し、被写体を照明する。フラッシュ18には、例えばLEDライトが用いられる。フラッシュ18は光源の一例である。なお、撮像部220はフラッシュ18を備えなくてもよい。 The flash 18 flashes at nighttime imaging or backlight correction according to the instruction of the camera processor 11 to illuminate the subject. For the flash 18, for example, an LED light is used. The flash 18 is an example of a light source. The imaging unit 220 does not have to include the flash 18.

また、撮像部220は、筐体220zの内部に、NDフィルタ32、絞り33、レンズ群34、レンズ駆動部36、ND駆動部38、及び絞り駆動部40を有する。レンズ群34は、被写体からの光を集光して撮像素子13に結像する。レンズ群34は、フォーカスレンズ、ズームレンズ、像振れ補正用レンズ、等を含んでよい。レンズ群34は、レンズ駆動部36によって駆動される。レンズ駆動部36は、モータ(図示せず)を有し、カメラプロセッサ11からの制御信号を入力すると、ズームレンズ及びフォーカスレンズを含むレンズ群34を光軸opの方向(光軸方向)に移動させてよい。レンズ駆動部36は、ズームレンズを移動させてズーム倍率を変更するズーミング動作を行う場合、筐体220zの一部でありレンズ群34を収容する鏡筒を前後方向に伸縮させてよい。 Further, the image pickup unit 220 has an ND filter 32, an aperture 33, a lens group 34, a lens drive unit 36, an ND drive unit 38, and an aperture drive unit 40 inside the housing 220z. The lens group 34 collects the light from the subject and forms an image on the image pickup device 13. The lens group 34 may include a focus lens, a zoom lens, an image shake correction lens, and the like. The lens group 34 is driven by the lens driving unit 36. The lens drive unit 36 has a motor (not shown), and when a control signal from the camera processor 11 is input, the lens drive unit 36 moves the lens group 34 including the zoom lens and the focus lens in the direction of the optical axis op (optical axis direction). You may let me. When the lens driving unit 36 performs a zooming operation in which the zoom lens is moved to change the zoom magnification, the lens barrel, which is a part of the housing 220z and accommodates the lens group 34, may be expanded and contracted in the front-rear direction.

絞り33は、絞り駆動部40によって駆動される。絞り駆動部40は、モータ(図示せず)を有し、カメラプロセッサ11からの制御信号を入力すると、絞り33の開口を拡縮する。 The diaphragm 33 is driven by the diaphragm drive unit 40. The aperture drive unit 40 has a motor (not shown), and when a control signal from the camera processor 11 is input, the aperture of the aperture 33 is expanded or contracted.

NDフィルタ32は、光軸opの方向(光軸方向)において、例えば絞り33の近傍に配置され、入射する光の量を制限する減光を行う。ND駆動部38は、モータ(図示せず)を有し、カメラプロセッサ11からの制御信号を入力すると、NDフィルタ32を光軸op上に挿抜してよい。なお、撮像部220は、NDフィルタ32及びND駆動部38を備えなくてもよい。 The ND filter 32 is arranged in the direction of the optical axis op (in the direction of the optical axis), for example, in the vicinity of the diaphragm 33, and performs dimming that limits the amount of incident light. The ND drive unit 38 has a motor (not shown), and when a control signal from the camera processor 11 is input, the ND filter 32 may be inserted and removed on the optical axis op. The imaging unit 220 does not have to include the ND filter 32 and the ND drive unit 38.

図7は、無人航空機100が飛行する際の最大飛行速度Vmの導出例を説明する図である。最大飛行速度Vmは、無人航空機100の飛行速度として許容される最高速度である。最大飛行速度Vmは、シャッタスピードssと地上分解能Rとに基づく。図7では、無人航空機100が飛行速度で移動し上空から地表面やその他の被写体を撮像する場合を想定する。ここで、地上分解能Rは、無人航空機100の撮像部220が撮像(例えば空撮)する場合、撮像画像における1画素当たりの地上での距離を表す。シャッタスピードssは、撮像素子13が露光される時間(時間)を表す。 FIG. 7 is a diagram illustrating an example of deriving the maximum flight speed Vm when the unmanned aerial vehicle 100 flies. The maximum flight speed Vm is the maximum speed allowed as the flight speed of the unmanned aerial vehicle 100. The maximum flight speed Vm is based on the shutter speed ss and the ground resolution R. In FIG. 7, it is assumed that the unmanned aerial vehicle 100 moves at a flight speed and images the ground surface and other subjects from the sky. Here, the ground resolution R represents the distance on the ground per pixel in the captured image when the imaging unit 220 of the unmanned aerial vehicle 100 images (for example, aerial photography). The shutter speed ss represents the time (time) in which the image sensor 13 is exposed.

UAV制御部110は、飛行高度h、画角FOV(field of view)及び撮像素子13の画素数を用いて、式(1)に従って、地上分解能Rを算出してよい。
地上分解能R = 飛行高度h × 画角FOV/画素数 ……(1)
なお、飛行高度hは、無人航空機100の撮像時の飛行高度である。画素数は、撮像画像の画素数である。画角FOVは、撮像部220の画角でよく、撮像画像に写り込んだ地理的範囲を示す撮像範囲の基となる。例えば、画角FOVは、撮像部220による撮像範囲の水平方向成分ph1及び撮像距離としての飛行高度hを用いて、FOV=ph1/hで近似してよい。よって、画角FOVは、長さ(距離)の比によって示されてよい。
The UAV control unit 110 may calculate the ground resolution R according to the equation (1) using the flight altitude h, the angle of view FOV (field of view), and the number of pixels of the image sensor 13.
Ground resolution R = Flight altitude h x Angle of view FOV / Number of pixels …… (1)
The flight altitude h is the flight altitude at the time of imaging of the unmanned aerial vehicle 100. The number of pixels is the number of pixels of the captured image. The angle of view FOV may be the angle of view of the imaging unit 220, and is the basis of the imaging range indicating the geographical range reflected in the captured image. For example, the angle of view FOV may be approximated by FOV = ph1 / h by using the horizontal component ph1 of the imaging range by the imaging unit 220 and the flight altitude h as the imaging distance. Therefore, the angle of view FOV may be indicated by the ratio of length (distance).

UAV制御部110は、飛行高度h、画素数、及び画角FOVを、メモリ160から取得してよい。UAV制御部110は、飛行高度h、画素数、及び画角FOVを、通信インタフェース150を介して端末80から取得してよい。この場合、端末80の端末制御部81が、飛行高度h、画素数、及び画角FOVの情報を算出してもよいし、操作部83を介して取得してもよい。 The UAV control unit 110 may acquire the flight altitude h, the number of pixels, and the angle of view FOV from the memory 160. The UAV control unit 110 may acquire the flight altitude h, the number of pixels, and the angle of view FOV from the terminal 80 via the communication interface 150. In this case, the terminal control unit 81 of the terminal 80 may calculate the information on the flight altitude h, the number of pixels, and the angle of view FOV, or may acquire the information via the operation unit 83.

また、UAV制御部110は、シャッタスピードssと地上分解能Rとを用いて、式(2)に従って最大飛行速度Vmを算出してよい。
最大飛行速度Vm = 地上分解能R / シャッタスピードss ……(2)
Further, the UAV control unit 110 may calculate the maximum flight speed Vm according to the equation (2) using the shutter speed ss and the ground resolution R.
Maximum flight speed Vm = Ground resolution R / Shutter speed ss …… (2)

最大飛行速度Vmは、無人航空機100が飛行中に撮像部220で撮像する場合、モーションブラーが好適に抑制されると想定される飛行速度の上限値である。式(2)に従うことで、シャッタスピードssが速い程、最大飛行速度Vmは小さくなる。また、地上分解能Rが大きい程、最大飛行速度Vmは大きくなる。 The maximum flight speed Vm is an upper limit value of the flight speed at which motion blur is assumed to be suitably suppressed when the unmanned aerial vehicle 100 takes an image with the imaging unit 220 during flight. According to the equation (2), the faster the shutter speed ss, the smaller the maximum flight speed Vm. Further, the larger the ground resolution R, the larger the maximum flight speed Vm.

最大飛行速度Vmで無人航空機100が飛行する場合、撮像部220による1回の撮像期間に無人航空機100が移動する距離は、撮像画像における1画素に対応する実空間での距離に相当する。したがって、無人航空機100が最大飛行速度Vm以下で飛行する場合、無人航空機100が1回の撮像期間に移動する距離は、1画素に対応する距離以内となるので、モーションブラーは発生しない。 When the unmanned aerial vehicle 100 flies at the maximum flight speed Vm, the distance that the unmanned aerial vehicle 100 moves in one imaging period by the imaging unit 220 corresponds to the distance in the real space corresponding to one pixel in the captured image. Therefore, when the unmanned aerial vehicle 100 flies at a maximum flight speed of Vm or less, the distance that the unmanned aerial vehicle 100 moves in one imaging period is within the distance corresponding to one pixel, so that motion blur does not occur.

なお、最大飛行速度Vmは、無人航空機100が1回の撮像期間に移動する距離が1画素に対応する距離を超えても、例えば2画素や3画素に対応する距離になってもよい。つまり、飛行速度の上限値が、式(2)で表される最大飛行速度Vmよりも大きな値に設定されてよい。また、UAV制御部110は、モーションブラーの許容に関する許容情報(例えば許容量)を設定してもよく、この許容情報がメモリ160から取得されてもよいし、通信インタフェース150を介して端末80から取得されてもよい。UAV制御部110は、この許容情報が示す許容範囲の上限に、飛行速度の上限値を設定することも可能である。この場合でも、モーションブラーの発生の抑制に繋がる。 The maximum flight speed Vm may be such that the distance traveled by the unmanned aerial vehicle 100 in one imaging period exceeds the distance corresponding to one pixel, or may be, for example, a distance corresponding to two pixels or three pixels. That is, the upper limit of the flight speed may be set to a value larger than the maximum flight speed Vm represented by the equation (2). Further, the UAV control unit 110 may set the permissible information (for example, the permissible amount) regarding the permissible motion blur, the permissible information may be acquired from the memory 160, or the permissible information may be acquired from the terminal 80 via the communication interface 150. May be obtained. The UAV control unit 110 can also set an upper limit value of the flight speed to the upper limit of the allowable range indicated by the allowable information. Even in this case, it leads to suppression of the occurrence of motion blur.

図8は、飛行システム10による飛行制御手順の一例を示すフローチャートである。この飛行制御処理は、主に無人航空機100によって行われることを例示する。無人航空機100が撮像位置(WayPoint)に向かう途中に、露光制御が行われ、シャッタスピードの調整(自動調整)が行われてよい。シャッタスピードの調整は、最初の撮像位置から最後の撮像位置まで連続して行われてよい。また、シャッタスピードは、一度調整された後には、各撮像位置での撮像(一連の撮像)のために変更されなくてよいし、各撮像位置での撮像のために例えば毎回変更されてもよい。 FIG. 8 is a flowchart showing an example of a flight control procedure by the flight system 10. It is illustrated that this flight control process is mainly performed by the unmanned aerial vehicle 100. Exposure control may be performed and shutter speed adjustment (automatic adjustment) may be performed while the unmanned aerial vehicle 100 is heading toward the imaging position (WayPoint). The shutter speed may be adjusted continuously from the first imaging position to the last imaging position. Further, once adjusted, the shutter speed may not be changed for imaging at each imaging position (series of imaging), or may be changed, for example, every time for imaging at each imaging position. ..

UAV制御部110は、飛行範囲の情報を取得する(T1)。飛行範囲は、無人航空機100が飛行する地理的な範囲でよい。UAV制御部110は、端末80において操作部83を介してユーザ入力を受けて飛行範囲が指定され。通信インタフェース150を介して飛行範囲を取得してよい。また、UAV制御部110は、通信インタフェース150を介して、外部サーバから地図情報を取得してよい。飛行範囲の情報は、例えば、飛行範囲を矩形の範囲に設定する場合、操作部83を介してユーザが地図情報における矩形の四隅の位置(緯度,経度)を入力することで、得られてよい。また、飛行範囲の情報は、飛行範囲を円形の範囲に設定する場合、操作部83を介してユーザが飛行位置を中心とする円の半径を入力することで、得られてよい。また、飛行範囲の情報は、操作部83を介してユーザが地域や特定の地名(例えば東京)等の情報を入力することで、地図情報を基に得られてよい。また、UAV制御部110は、メモリ160に保持された飛行範囲を、メモリ160から取得してよい。 The UAV control unit 110 acquires flight range information (T1). The flight range may be the geographical range in which the unmanned aerial vehicle 100 flies. The UAV control unit 110 receives user input from the terminal 80 via the operation unit 83 to specify a flight range. The flight range may be acquired via the communication interface 150. Further, the UAV control unit 110 may acquire map information from an external server via the communication interface 150. For example, when the flight range is set to a rectangular range, the flight range information may be obtained by the user inputting the positions (latitude, longitude) of the four corners of the rectangle in the map information via the operation unit 83. .. Further, when the flight range is set to a circular range, the flight range information may be obtained by the user inputting the radius of a circle centered on the flight position via the operation unit 83. Further, the flight range information may be obtained based on the map information by the user inputting information such as a region or a specific place name (for example, Tokyo) via the operation unit 83. Further, the UAV control unit 110 may acquire the flight range held in the memory 160 from the memory 160.

また、UAV制御部110は、飛行範囲の情報を基に、地形情報を取得してよい。例えば、UAV制御部110は、通信インタフェース150を介して接続されたネットワーク上の地図サーバと連動し、飛行範囲の地形情報を取得してよい。地形情報は、飛行範囲の各位置の位置情報(緯度、経度、高度)を含んでよい。各位置の位置情報を集約することで、飛行範囲の3次元形状を示してよい。また、地形情報は、建物、山、森林、鉄塔等の地表面の形状の情報やオブジェクトの情報を含んでよい。 Further, the UAV control unit 110 may acquire terrain information based on the flight range information. For example, the UAV control unit 110 may cooperate with a map server on the network connected via the communication interface 150 to acquire topographical information of the flight range. The terrain information may include position information (latitude, longitude, altitude) at each position in the flight range. By aggregating the position information of each position, the three-dimensional shape of the flight range may be shown. In addition, the topographical information may include information on the shape of the ground surface such as buildings, mountains, forests, and steel towers, and information on objects.

UAV制御部110は、各種パラメータを取得する(T2)。パラメータは、撮像部220による撮像や無人航空機100の飛行に関するパラメータでよい。このパラメータは、例えば、撮像位置、撮像日時、被写体までの距離、撮像画角(画角)、シャッタスピード、露出値、撮像モード、等を含んでよい。撮像モードは、例えば、露光制御に関するモードを含んでよく、例えば、シャッタ速度優先AEモード、絞り優先AEモードを含んでよい。UAV制御部110は、端末80において操作部83を介してユーザ入力を受けて各種パラメータの値が指定され、通信インタフェース150を介してパラメータを取得してよい。UAV制御部110は、メモリ160に保持された各種パラメータを、メモリ160から取得してよい。 The UAV control unit 110 acquires various parameters (T2). The parameters may be parameters related to imaging by the imaging unit 220 and flight of the unmanned aerial vehicle 100. This parameter may include, for example, an imaging position, an imaging date and time, a distance to a subject, an imaging angle of view (angle of view), a shutter speed, an exposure value, an imaging mode, and the like. The imaging mode may include, for example, a mode related to exposure control, and may include, for example, a shutter speed priority AE mode and an aperture priority AE mode. The UAV control unit 110 may receive user input via the operation unit 83 at the terminal 80, specify values of various parameters, and acquire the parameters via the communication interface 150. The UAV control unit 110 may acquire various parameters held in the memory 160 from the memory 160.

UAV制御部110は、飛行高度の情報を取得する(T3)。UAV制御部110は、端末80において操作部83を介してユーザ入力を受けて飛行高度が指定され、通信インタフェース150を介して飛行高度を取得してよい。UAV制御部110は、通信インタフェース150を介して外部サーバから飛行高度を取得してよい。UAV制御部110は、メモリ160に保持された飛行高度の情報を取得してよい。また、UAV制御部110は、飛行範囲の地形情報や、取得されたパラメータに含まれる被写体までの距離等の情報を基に、飛行高度を算出してよい。UAV制御部110は、公知の方法に従って、飛行高度を算出してよい。 The UAV control unit 110 acquires flight altitude information (T3). The UAV control unit 110 may specify the flight altitude by receiving user input via the operation unit 83 at the terminal 80, and may acquire the flight altitude via the communication interface 150. The UAV control unit 110 may acquire the flight altitude from an external server via the communication interface 150. The UAV control unit 110 may acquire information on the flight altitude held in the memory 160. Further, the UAV control unit 110 may calculate the flight altitude based on the topographical information of the flight range and the information such as the distance to the subject included in the acquired parameters. The UAV control unit 110 may calculate the flight altitude according to a known method.

UAV制御部110は、飛行経路の情報を取得する(T4)。UAV制御部110は、は、端末80において操作部83を介してユーザ入力を受けて飛行経路が指定され、通信インタフェース150を介して飛行経路を取得してよい。UAV制御部110は、通信インタフェース150を介して外部サーバから飛行経路を取得してよい。UAV制御部110は、メモリ160に保持された飛行経路を取得してよい。また、UAV制御部110は、飛行範囲、地形情報及び飛行高度を基に、飛行経路を生成してよい。生成される飛行経路は、例えば飛行範囲内の地形を撮像するための3次元空間における撮像位置を通ってよい。飛行経路の情報は、撮像位置の情報や飛行高度の情報を含んでよい。UAV制御部110は、公知の方法に従って、飛行経路を生成してよい。 The UAV control unit 110 acquires flight path information (T4). The UAV control unit 110 may receive user input via the operation unit 83 at the terminal 80 to specify a flight path, and may acquire the flight path via the communication interface 150. The UAV control unit 110 may acquire a flight path from an external server via the communication interface 150. The UAV control unit 110 may acquire the flight path held in the memory 160. In addition, the UAV control unit 110 may generate a flight path based on the flight range, terrain information, and flight altitude. The generated flight path may pass, for example, an imaging position in three-dimensional space for imaging terrain within the flight range. The flight path information may include information on the imaging position and information on the flight altitude. The UAV control unit 110 may generate a flight path according to a known method.

撮像部220のカメラプロセッサ11は、パラメータに含まれる撮像モードを参照する。ここでは撮像モードが絞り優先モードであることを想定する。カメラプロセッサ11は、撮像モードを絞り優先AEモードに設定する。よって、カメラプロセッサ11は、絞り値を固定し、シャッタスピードssを調整する(T5)。カメラプロセッサ11は、例えば露光制御するための露光制御情報に従って、照度センサ190により検出された照度を基に、シャッタスピードssを調整してよい。また、カメラプロセッサ11は、画像処理部14から出力された画像データの明度レベル(例えば画素値)を基に、シャッタスピードssを調整してよい。カメラプロセッサ11は、撮像位置毎に、シャッタスピードssを調整してよい。カメラプロセッサ11は、調整されたシャッタスピードssをメモリ15に記憶させる。また、カメラプロセッサ11は、メモリ15に記憶された、各撮像位置で調整されたシャッタスピードssをUAV制御部110に送る。 The camera processor 11 of the image pickup unit 220 refers to the image pickup mode included in the parameter. Here, it is assumed that the imaging mode is the aperture priority mode. The camera processor 11 sets the imaging mode to the aperture priority AE mode. Therefore, the camera processor 11 fixes the aperture value and adjusts the shutter speed ss (T5). The camera processor 11 may adjust the shutter speed ss based on the illuminance detected by the illuminance sensor 190 according to the exposure control information for controlling the exposure, for example. Further, the camera processor 11 may adjust the shutter speed ss based on the brightness level (for example, pixel value) of the image data output from the image processing unit 14. The camera processor 11 may adjust the shutter speed ss for each imaging position. The camera processor 11 stores the adjusted shutter speed ss in the memory 15. Further, the camera processor 11 sends the shutter speed ss stored in the memory 15 adjusted at each imaging position to the UAV control unit 110.

UAV制御部110は、地上分解能Rを導出してよい。この場合、UAV制御部110は、例えばメモリ160に保持された飛行高度h、画角FOV、画素数の情報を取得してよい。UAV制御部110は、式(1)に従って、飛行高度h、画角FOV、画素数に基づいて、地上分解能Rを算出してよい。 The UAV control unit 110 may derive the ground resolution R. In this case, the UAV control unit 110 may acquire information on the flight altitude h, the angle of view FOV, and the number of pixels held in the memory 160, for example. The UAV control unit 110 may calculate the ground resolution R based on the flight altitude h, the angle of view FOV, and the number of pixels according to the equation (1).

UAV制御部110は、最大飛行速度Vmを導出してよい。この場合、UAV制御部110は、シャッタスピードss(例えば各撮像位置で調整されたシャッタスピードss)と地上分解能Rとを基に、式(2)に従って、最大飛行速度Vmを算出してよい(T6)。 The UAV control unit 110 may derive the maximum flight speed Vm. In this case, the UAV control unit 110 may calculate the maximum flight speed Vm according to the equation (2) based on the shutter speed ss (for example, the shutter speed ss adjusted at each imaging position) and the ground resolution R (2). T6).

UAV制御部110は、導出された最大飛行速度Vmを基に、例えば式(3)に従い、飛行速度Voを調整する(T7)。飛行速度Voは、無人航空機100が飛行する際の速度であり、最大飛行速度Vm以下の速度である。
Vo = k×Vm ……(3)
なお、kは0〜1の範囲で任意に設定可能な係数であり、つまり可変値である。ここでは、一例として、k=0.5に設定されてよい。
The UAV control unit 110 adjusts the flight speed Vo based on the derived maximum flight speed Vm, for example, according to the equation (3) (T7). The flight speed Vo is the speed at which the unmanned aerial vehicle 100 flies, and is a speed equal to or less than the maximum flight speed Vm.
Vo = k × Vm …… (3)
Note that k is a coefficient that can be arbitrarily set in the range of 0 to 1, that is, a variable value. Here, as an example, k = 0.5 may be set.

UAV制御部110は、飛行経路に沿って、導出(調整)された飛行速度Voで飛行しながら、撮像部220により、導出されたシャッタスピードssで空撮を行う(T8)。つまり、UAV制御部110が、シャッタスピードss、最大飛行速度Vm、飛行速度Vo、等の情報を設定し、この設定情報をメモリ160に保持することが、無人航空機100の飛行の制御を指示することに相当してよい。UAV制御部110は、メモリ160に保持された情報(設定情報)を基に、この無人航空機100の飛行の制御の指示に従って、動作可能である。 The UAV control unit 110 performs aerial photography at the derived shutter speed ss by the imaging unit 220 while flying at the derived (adjusted) flight speed Vo along the flight path (T8). That is, the UAV control unit 110 sets information such as the shutter speed ss, the maximum flight speed Vm, the flight speed Vo, and holds the setting information in the memory 160, which instructs the control of the flight of the unmanned aerial vehicle 100. It may correspond to that. The UAV control unit 110 can operate according to the flight control instruction of the unmanned aerial vehicle 100 based on the information (setting information) stored in the memory 160.

UAV制御部110は、例えばメモリ160に保持された飛行経路を参照し、GPS受信機等240等を介して取得された無人航空機100の位置情報を参照し、無人航空機100が飛行経路の終点に達し、飛行完了となったか否かを判別する(T9)。飛行完了でない場合、UAV制御部110は、手順T5に戻り、次の撮像位置での撮像に備えてシャッタスピード調整や飛行速度の調整を行う。一方、飛行完了である場合、UAV制御部110は、図8の処理を終了する。 The UAV control unit 110 refers to, for example, the flight path held in the memory 160, refers to the position information of the unmanned aerial vehicle 100 acquired via the GPS receiver or the like 240, and the unmanned aerial vehicle 100 reaches the end point of the flight path. It is determined whether or not the flight has been completed (T9). If the flight is not completed, the UAV control unit 110 returns to step T5 and adjusts the shutter speed and the flight speed in preparation for imaging at the next imaging position. On the other hand, when the flight is completed, the UAV control unit 110 ends the process shown in FIG.

このように、無人航空機100は、図8に示した飛行制御手順を実施することで、画像を撮像する無人航空機100の移動に起因するモーションブラーが発生することを抑制でき、撮像画像の画質の低下を抑制できる。そのため、無人航空機100は、例えば複数の撮像画像に基づいて合成画像の生成や地形の形状推定を行っても、合成画像の画質低下や形状推定の推定精度の低下を抑制できる。 As described above, by carrying out the flight control procedure shown in FIG. 8, the unmanned aerial vehicle 100 can suppress the occurrence of motion blur caused by the movement of the unmanned aerial vehicle 100 that captures the image, and the image quality of the captured image can be improved. The decrease can be suppressed. Therefore, even if the unmanned aerial vehicle 100 generates a composite image or estimates the shape of the terrain based on a plurality of captured images, the deterioration of the image quality of the composite image and the deterioration of the estimation accuracy of the shape estimation can be suppressed.

また、無人航空機100の飛行時間が長い場合、無人航空機100の周囲(例えば被写体)の明暗が変化し易い。すると、最初に計算したモーションブラー抑制のためのシャッタスピードssが適切でなくなることがある。例えば絞り優先AEモードでは、絞りが固定で、シャッタスピードssが自動調整される。明暗の変化があると、明るさ(照度)を維持するために、シャッタスピードssが変化する。この場合でも、無人航空機100は、露光制御により逐次シャッタスピードssを調整し、この調整に合わせて最大飛行速度Vmや飛行速度を調整することで、モーションブラーの発生を低減できる。 Further, when the flight time of the unmanned aerial vehicle 100 is long, the brightness of the surroundings (for example, the subject) of the unmanned aerial vehicle 100 is likely to change. Then, the shutter speed ss for suppressing the motion blur calculated first may not be appropriate. For example, in the aperture priority AE mode, the aperture is fixed and the shutter speed ss is automatically adjusted. When there is a change in brightness, the shutter speed ss changes in order to maintain the brightness (illuminance). Even in this case, the unmanned aerial vehicle 100 can reduce the occurrence of motion blur by sequentially adjusting the shutter speed ss by exposure control and adjusting the maximum flight speed Vm and the flight speed according to this adjustment.

また、一例として、最大飛行速度Vmが、1回の撮像期間内に撮像画像の1画素分の距離(分解能)を移動する速度に設定されることを例示した。これに限らず、1回の撮像期間内に所定画素数(2画素以上)の距離を移動できる速度に設定されてもよい。つまり、1回の撮像期間内に移動する距離は、モーションブラーが抑制されたとして許容される画素数分の距離に設定されてもよい。 Further, as an example, it has been illustrated that the maximum flight speed Vm is set to a speed at which the distance (resolution) of one pixel of the captured image is moved within one imaging period. Not limited to this, the speed may be set so that a predetermined number of pixels (two or more pixels) can be moved within one imaging period. That is, the distance moved within one imaging period may be set to a distance corresponding to the number of pixels allowed as motion blur is suppressed.

なお、実空間における無人航空機100の飛行中にリアルタイムに図8の処理が行われることを例示したが、無人航空機100が飛行していない状態で図8の処理が行われてもよい。つまり、無人航空機100の各種情報(例えば各種パラメータ、飛行高度h、シャッタスピードss、最大飛行速度Vm、飛行速度Vo)を演算により導出し、無人航空機100の飛行の状態を推定してよい。このように、モーションブラーが抑制できるように、仮想空間においてシミュレーションしてよい。このようなシミュレーションは、端末80により行われてもよい。 Although it is illustrated that the processing of FIG. 8 is performed in real time during the flight of the unmanned aerial vehicle 100 in the real space, the processing of FIG. 8 may be performed while the unmanned aerial vehicle 100 is not flying. That is, various information (for example, various parameters, flight altitude h, shutter speed ss, maximum flight speed Vm, flight speed Vo) of the unmanned aerial vehicle 100 may be derived by calculation to estimate the flight state of the unmanned aerial vehicle 100. In this way, simulation may be performed in a virtual space so that motion blur can be suppressed. Such a simulation may be performed by the terminal 80.

このように、無人航空機100(情報処理装置の一例)は、無人航空機100(飛行体の一例)による飛行の制御を指示し、UAV制御部110(制御部の一例)を備える。UAV制御部110は、無人航空機100が撮像するためのシャッタスピードssの情報を取得(例えば算出)してよい。UAV制御部110は、無人航空機100が撮像する撮像画像における1画素あたりの実空間での距離の情報を取得(例えば算出)してよい。UAV制御部110は、シャッタスピードssと1画素あたりの実空間での距離に基づいて、無人航空機100の最大飛行速度Vm(飛行速度の上限値の一例)を決定してよい。UAV制御部110は、無人航空機100の最大飛行速度Vm以下の飛行速度Voとなるように、飛行速度の制御を指示してよい。 As described above, the unmanned aerial vehicle 100 (an example of an information processing device) instructs the unmanned aerial vehicle 100 (an example of an air vehicle) to control the flight, and includes a UAV control unit 110 (an example of a control unit). The UAV control unit 110 may acquire (for example, calculate) information on the shutter speed ss for the unmanned aerial vehicle 100 to take an image. The UAV control unit 110 may acquire (for example, calculate) information on the distance in real space per pixel in the captured image captured by the unmanned aerial vehicle 100. The UAV control unit 110 may determine the maximum flight speed Vm (an example of the upper limit value of the flight speed) of the unmanned aerial vehicle 100 based on the shutter speed ss and the distance in real space per pixel. The UAV control unit 110 may instruct the control of the flight speed so that the flight speed Vo is equal to or less than the maximum flight speed Vm of the unmanned aerial vehicle 100.

これにより、無人航空機100は、シャッタスピードssや無人航空機100が撮像する撮像画像における1画素あたりの実空間での距離を加味して、無人航空機100の飛行速度を制限できる。例えば、定められたシャッタスピードssで画像を撮像する間に無人航空機100が移動しても、決定された飛行速度以内の飛行速度Voで無人航空機100が飛行することで、無人航空機100の移動を、撮像画像における連続する所定数の画素以内での移動に留めることができる。よって、無人航空機100は、無人航空機100による撮像時にこの無人航空機100が移動することによるモーションブラーの発生を抑制でき、撮像画像の画質が低下することを抑制できる。 Thereby, the unmanned aerial vehicle 100 can limit the flight speed of the unmanned aerial vehicle 100 in consideration of the shutter speed ss and the distance in the real space per pixel in the captured image captured by the unmanned aerial vehicle 100. For example, even if the unmanned aerial vehicle 100 moves while capturing an image at a predetermined shutter speed ss, the unmanned aerial vehicle 100 moves at a flight speed Vo within the determined flight speed, so that the unmanned aerial vehicle 100 moves. , It is possible to keep the movement within a predetermined number of consecutive pixels in the captured image. Therefore, the unmanned aerial vehicle 100 can suppress the occurrence of motion blur due to the movement of the unmanned aerial vehicle 100 at the time of imaging by the unmanned aerial vehicle 100, and can suppress the deterioration of the image quality of the captured image.

また、UAV制御部110は、無人航空機100の飛行高度hを取得してよい。UAV制御部110は、無人航空機100が撮像するための画角(例えば画角FOV)を取得してよい。UAV制御部110は、撮像画像の画素数を取得してよい。UAV制御部110は、無人航空機100の飛行高度h、画角、撮像画像の画素数に基づいて、1画素あたりの実空間での距離を算出してよい。 Further, the UAV control unit 110 may acquire the flight altitude h of the unmanned aerial vehicle 100. The UAV control unit 110 may acquire an angle of view (for example, an angle of view FOV) for the unmanned aerial vehicle 100 to take an image. The UAV control unit 110 may acquire the number of pixels of the captured image. The UAV control unit 110 may calculate the distance in real space per pixel based on the flight altitude h, the angle of view, and the number of pixels of the captured image of the unmanned aerial vehicle 100.

これにより、無人航空機100が容易に取得可能なパラメータを用いて、1画素あたりの実空間での距離を容易に算出できる。 Thereby, the distance in the real space per pixel can be easily calculated by using the parameters that can be easily acquired by the unmanned aerial vehicle 100.

また、UAV制御部110は、無人航空機100による1回の撮像期間に無人航空機100が移動する距離が、撮像画像における1画素に対応する実空間での距離以内でよい。 Further, in the UAV control unit 110, the distance that the unmanned aerial vehicle 100 moves in one imaging period by the unmanned aerial vehicle 100 may be within the distance in the real space corresponding to one pixel in the captured image.

これにより、無人航空機100は、例えば定められたシャッタスピードssで画像を撮像する間に無人航空機100が移動しても、決定された飛行速度以内の飛行速度Voで無人航空機100が飛行すること、撮像画像における1画素内の範囲での移動に留めることができる。よって、無人航空機100は、この飛行速度Voで飛行することで、モーションブラーの発生を確実に回避できる。 As a result, in the unmanned aerial vehicle 100, for example, even if the unmanned aerial vehicle 100 moves while capturing an image at a predetermined shutter speed ss, the unmanned aerial vehicle 100 flies at a flight speed Vo within a determined flight speed. It is possible to limit the movement within one pixel in the captured image. Therefore, the unmanned aerial vehicle 100 can surely avoid the occurrence of motion blur by flying at this flight speed Vo.

また、UAV制御部110は、飛行速度の上限値に基づいて、飛行速度を調整して飛行してよい。 Further, the UAV control unit 110 may adjust the flight speed and fly based on the upper limit value of the flight speed.

これにより、無人航空機100自身が、飛行速度の上限値を演算し、飛行速度Voを調整できる。よって、飛行速度Voの決定から飛行制御まで無人航空機100のみで完結できる。 As a result, the unmanned aerial vehicle 100 itself can calculate the upper limit value of the flight speed and adjust the flight speed Vo. Therefore, from the determination of the flight speed Vo to the flight control can be completed only by the unmanned aerial vehicle 100.

(第2の実施形態)
第1の実施形態では、無人航空機100がシャッタスピードssを算出し、このシャッタスピードssに対応する最大飛行速度Vmを導出した。第2の実施形態では、撮像部220の周囲の照度Lを基に最大飛行速度Vmを導出する場合を示す。
(Second Embodiment)
In the first embodiment, the unmanned aerial vehicle 100 calculated the shutter speed ss and derived the maximum flight speed Vm corresponding to the shutter speed ss. The second embodiment shows a case where the maximum flight speed Vm is derived based on the illuminance L around the imaging unit 220.

また、第2の実施形態の飛行システムは、第1の実施形態とほぼ同一の構成を有する。第1の実施形態と同一の構成要素については同一の符号を用いることで、その説明を省略又は簡略化する。 Further, the flight system of the second embodiment has substantially the same configuration as that of the first embodiment. By using the same reference numerals for the same components as those in the first embodiment, the description thereof will be omitted or simplified.

図9は、照度Lと最大飛行速度Vmとの対応関係の一例を示すテーブルTbである。このテーブルTbは、無人航空機100のメモリ160に保持されてよい。照度Lは、照度センサ190によって検出されてよい。なお、照度センサ190を用いる代わりに、UAV制御部110又は撮像部220のカメラプロセッサ11が、撮像部220の撮像素子13で撮像される画像の輝度を基に照度Lを算出してよい。 FIG. 9 is a table Tb showing an example of the correspondence between the illuminance L and the maximum flight speed Vm. This table Tb may be held in the memory 160 of the unmanned aerial vehicle 100. The illuminance L may be detected by the illuminance sensor 190. Instead of using the illuminance sensor 190, the camera processor 11 of the UAV control unit 110 or the image pickup unit 220 may calculate the illuminance L based on the brightness of the image captured by the image pickup element 13 of the image pickup unit 220.

テーブルTbでは、照度LがL1,L2,…,Lkと大きくなる程、無人航空機100の最大飛行速度Vmが、V1,V2,…,Vkと大きくなるように設定される。つまり、無人航空機100の周囲が明るい程、単位時間あたりの撮像素子13の入射光量が増えるので、露光制御によりシャッタスピードssが速くなる。シャッタスピードssが速い場合、撮像画像において1画素分移動する無人航空機100の飛行速度Voは、高速となる。一方、無人航空機100の周囲が暗い程、単位時間あたりの撮像素子13の入射光量が減少するので、露光制御によりシャッタスピードssが遅くなる。シャッタスピードssが遅い場合、撮像画像において1画素分移動する無人航空機100の飛行速度Voは、低速となる。 In the table Tb, the maximum flight speed Vm of the unmanned aerial vehicle 100 is set to increase to V1, V2, ..., Vk as the illuminance L increases to L1, L2, ..., Lk. That is, the brighter the surroundings of the unmanned aerial vehicle 100, the greater the amount of incident light of the image sensor 13 per unit time, so that the shutter speed ss becomes faster due to the exposure control. When the shutter speed ss is high, the flight speed Vo of the unmanned aerial vehicle 100 that moves by one pixel in the captured image becomes high. On the other hand, the darker the surroundings of the unmanned aerial vehicle 100, the smaller the amount of incident light of the image sensor 13 per unit time, so that the shutter speed ss becomes slower due to the exposure control. When the shutter speed ss is slow, the flight speed Vo of the unmanned aerial vehicle 100 that moves by one pixel in the captured image becomes low.

テーブルTbに保持される照度L及び最大飛行速度Vmの対応関係では、撮像部220の撮像パラメータ(例えばシャッタスピードss)は考慮されていない。一方、本実施形態における照度Lに対応するシャッタスピードssと最大飛行速度Vmとの対応関係は、第1の実施形態におけるシャッタスピードssと最大飛行速度Vmとの対応関係と同様になる。照度Lに対応するシャッタスピードssは、絞り優先AEモードに従った露光制御により自動調整される。つまり、第1の実施形態におけるシャッタスピードssと最大飛行速度Vmとの対応関係が、無人航空機100の周囲の照度L(明るさ)と最大飛行速度Vmとの対応関係に変換されたような対応関係の情報が、メモリ160に保持されてよい。つまり、メモリ160は、第1の実施形態での露光制御に対応するような照度Lに対応する速度の関係の情報を保持する。 In the correspondence between the illuminance L and the maximum flight speed Vm held in the table Tb, the imaging parameter (for example, shutter speed ss) of the imaging unit 220 is not taken into consideration. On the other hand, the correspondence between the shutter speed ss corresponding to the illuminance L and the maximum flight speed Vm in the present embodiment is the same as the correspondence between the shutter speed ss and the maximum flight speed Vm in the first embodiment. The shutter speed ss corresponding to the illuminance L is automatically adjusted by exposure control according to the aperture priority AE mode. That is, the correspondence between the shutter speed ss and the maximum flight speed Vm in the first embodiment is converted into the correspondence between the illuminance L (brightness) around the unmanned aerial vehicle 100 and the maximum flight speed Vm. The related information may be stored in the memory 160. That is, the memory 160 holds information related to the speed corresponding to the illuminance L so as to correspond to the exposure control in the first embodiment.

UAV制御部110は、テーブルTbの情報を、メモリ160以外から取得してよい。この場合、UAV制御部110は、テーブルTbの情報を、通信インタフェース150を介して外部サーバから取得してよい。 The UAV control unit 110 may acquire the information of the table Tb from other than the memory 160. In this case, the UAV control unit 110 may acquire the information in the table Tb from the external server via the communication interface 150.

図10は、第2の実施形態における無人航空機100による飛行制御手順の一例を示すフローチャートである。図10において、第1の実施形態の図8と同一の処理については、同一のステップ番号を付すことで、その説明を省略又は簡略化する。 FIG. 10 is a flowchart showing an example of the flight control procedure by the unmanned aerial vehicle 100 in the second embodiment. In FIG. 10, the same processing as in FIG. 8 of the first embodiment is given the same step number, and the description thereof will be omitted or simplified.

まず、無人航空機100は、手順T1〜T4の処理を行う。UAV制御部110は、照度センサ190によって検出される照度Lを取得する(T5A)。UAV制御部110は、メモリ160に登録されたテーブルTb1を参照し、照度Lに対応する最大飛行速度Vmを取得する(T6A)。手順T7では、UAV制御部110は、取得された最大飛行速度Vmを基に、飛行速度Voを調整する。手順T7以降の処理については、第1の実施形態と同様である。 First, the unmanned aerial vehicle 100 performs the processes of procedures T1 to T4. The UAV control unit 110 acquires the illuminance L detected by the illuminance sensor 190 (T5A). The UAV control unit 110 refers to the table Tb1 registered in the memory 160 and acquires the maximum flight speed Vm corresponding to the illuminance L (T6A). In step T7, the UAV control unit 110 adjusts the flight speed Vo based on the acquired maximum flight speed Vm. The processing after the procedure T7 is the same as that of the first embodiment.

このように、第2の実施形態の飛行システム10では、UAV制御部110は、照度センサ190により検出された無人航空機100の周囲の照度L、例えば撮像部220の被写体の照度Lを取得してよい。UAV制御部110は、例えばメモリ160に記憶されたテーブルに保持された、照度Lと無人航空機100の最大飛行速度Vm(飛行速度の上限値の一例)との関係を示す関係情報を取得してよい。UAV制御部110は、この関係情報を基に、照度センサ190により取得された照度Lに対応する無人航空機100の最大飛行速度Vmを導出してよい。UAV制御部110は、最大飛行速度Vm以下の飛行速度Voとなるように、飛行速度の制御を指示してよい。 As described above, in the flight system 10 of the second embodiment, the UAV control unit 110 acquires the illuminance L around the unmanned aerial vehicle 100 detected by the illuminance sensor 190, for example, the illuminance L of the subject of the imaging unit 220. Good. The UAV control unit 110 acquires, for example, the relationship information showing the relationship between the illuminance L and the maximum flight speed Vm of the unmanned aerial vehicle 100 (an example of the upper limit value of the flight speed) held in the table stored in the memory 160. Good. The UAV control unit 110 may derive the maximum flight speed Vm of the unmanned aerial vehicle 100 corresponding to the illuminance L acquired by the illuminance sensor 190 based on this related information. The UAV control unit 110 may instruct the control of the flight speed so that the flight speed Vo is equal to or less than the maximum flight speed Vm.

これにより、無人航空機100は、照度Lと無人航空機100の飛行速度の上限値との関係性を示す関係情報を参照して、無人航空機100の周囲の照度(明るさ)を基に、無人航空機100の飛行速度を制限できる。関係情報は、例えば、取得された照度Lに応じたシャッタスピードssで画像を撮像する間に無人航空機100が移動しても、制限された飛行速度以内の飛行速度Voで無人航空機100が飛行することで、無人航空機100の移動を、撮像画像における連続する所定数の画素以内での移動に留めることができるような情報である。よって、無人航空機100は、無人航空機100による撮像時にこの無人航空機100が移動することによるモーションブラーの発生を抑制でき、撮像画像の画質が低下することを抑制できる。 As a result, the unmanned aerial vehicle 100 refers to the relational information indicating the relationship between the illuminance L and the upper limit of the flight speed of the unmanned aerial vehicle 100, and based on the illuminance (brightness) around the unmanned aerial vehicle 100, the unmanned aerial vehicle 100. You can limit the flight speed of 100. Regarding the related information, for example, even if the unmanned aerial vehicle 100 moves while capturing an image at the shutter speed ss corresponding to the acquired illuminance L, the unmanned aerial vehicle 100 flies at a flight speed Vo within the limited flight speed. This is information that allows the movement of the unmanned aerial vehicle 100 to be limited to movement within a predetermined number of consecutive pixels in the captured image. Therefore, the unmanned aerial vehicle 100 can suppress the occurrence of motion blur due to the movement of the unmanned aerial vehicle 100 at the time of imaging by the unmanned aerial vehicle 100, and can suppress the deterioration of the image quality of the captured image.

また、UAV制御部110は、照度Lが大きい程、無人航空機100の飛行速度の上限値を大きくし、照度Lが小さい程、無人航空機100の飛行速度の上限値を小さくしてよい。 Further, the UAV control unit 110 may increase the upper limit of the flight speed of the unmanned aerial vehicle 100 as the illuminance L increases, and decrease the upper limit of the flight speed of the unmanned aerial vehicle 100 as the illuminance L decreases.

例えば、絞り優先で露光制御する場合、照度Lが大きいと、シャッタスピードssが高速化される。この場合、無人航空機100による1回の撮像期間が短くなる。一方、1画素あたりの実空間の距離は、撮像画角、撮像画像の画素数、飛行高度、等のパラメータが変更されない場合には不変である。よって、無人航空機100は、照度Lが大きい程、無人航空機100の飛行速度の上限値を大きくしても、モーションブラーの発生を抑制できる。 For example, when the exposure is controlled with priority given to the aperture, the shutter speed ss is increased when the illuminance L is large. In this case, one imaging period by the unmanned aerial vehicle 100 is shortened. On the other hand, the distance in the real space per pixel is unchanged when parameters such as the imaging angle of view, the number of pixels of the captured image, and the flight altitude are not changed. Therefore, in the unmanned aerial vehicle 100, the larger the illuminance L, the more the occurrence of motion blur can be suppressed even if the upper limit value of the flight speed of the unmanned aerial vehicle 100 is increased.

例えば、絞り優先で露光制御する場合、照度Lが小さいと、シャッタスピードssが低速化される。この場合、無人航空機100による1回の撮像期間が長くなる。一方、1画素あたりの実空間の距離は、撮像画角、撮像画像の画素数、飛行高度、等のパラメータが変更されない場合には不変である。よって、無人航空機100は、照度Lが大きい程、無人航空機100の飛行速度の上限値を小さくすることで、モーションブラーの発生を抑制できる。 For example, in the case of exposure control with priority given to aperture, if the illuminance L is small, the shutter speed ss is reduced. In this case, one imaging period by the unmanned aerial vehicle 100 becomes longer. On the other hand, the distance in the real space per pixel is unchanged when parameters such as the imaging angle of view, the number of pixels of the captured image, and the flight altitude are not changed. Therefore, in the unmanned aerial vehicle 100, the larger the illuminance L, the smaller the upper limit of the flight speed of the unmanned aerial vehicle 100, so that the occurrence of motion blur can be suppressed.

(第3の実施形態)
第1、第2の実施形態では、無人航空機100が、飛行経路に沿って、ユーザによる操作(操縦)を受けずに自動飛行することを例示した。第3の実施形態では、無人航空機100が、ユーザによる操作(操縦)を受けて手動飛行することを例示する。
(Third Embodiment)
In the first and second embodiments, it is illustrated that the unmanned aerial vehicle 100 automatically flies along a flight path without being operated (maneuvered) by a user. In the third embodiment, the unmanned aerial vehicle 100 exemplifies manual flight under the operation (control) by the user.

本実施形態では、ユーザが送信機(プロポ)を用いて無人航空機100の飛行を操作(飛行の制御を指示)する際に、最大飛行速度Vmが制限される。最大飛行速度Vmの導出方法は、第1の実施形態又は第2の実施形態で説明した最大飛行速度Vmの導出方法と同様でよい。 In the present embodiment, when the user operates the flight of the unmanned aerial vehicle 100 (instructs flight control) using the transmitter (propo), the maximum flight speed Vm is limited. The method for deriving the maximum flight speed Vm may be the same as the method for deriving the maximum flight speed Vm described in the first embodiment or the second embodiment.

図11は、第3の実施形態における飛行システム10Bの構成例を示す図である。なお、図11において、図1と同様の構成については、同一の符号を付してその説明を省略又は簡略化する。 FIG. 11 is a diagram showing a configuration example of the flight system 10B according to the third embodiment. In FIG. 11, the same components as those in FIG. 1 are designated by the same reference numerals, and the description thereof will be omitted or simplified.

飛行システム10Bは、無人航空機100、送信機50(プロポ)、及び端末80を備えた構成であってよい。端末80は、例えばスマートフォン、タブレット端末、PC、等でよい。送信機50は、送信機50の前面に配置された左右の制御棒を使って、ユーザの操作を受け付けて無人航空機100の飛行の制御を指示可能である。無人航空機100、送信機50、及び端末80は、相互に有線通信又は無線通信により通信可能である。 The flight system 10B may be configured to include an unmanned aerial vehicle 100, a transmitter 50 (propo), and a terminal 80. The terminal 80 may be, for example, a smartphone, a tablet terminal, a PC, or the like. The transmitter 50 can instruct the flight control of the unmanned aerial vehicle 100 by accepting the user's operation by using the left and right control rods arranged in front of the transmitter 50. The unmanned aerial vehicle 100, the transmitter 50, and the terminal 80 can communicate with each other by wired communication or wireless communication.

無人航空機100では、通信インタフェース150は、送信機50と通信を行い、遠隔の送信機50からUAV制御部110に対する各種の命令や情報を受信してよい。UAV制御部110は、通信インタフェース150を介して遠隔の送信機50から受信した命令に従って、無人航空機100の飛行を制御する。 In the unmanned aerial vehicle 100, the communication interface 150 may communicate with the transmitter 50 and receive various commands and information from the remote transmitter 50 to the UAV control unit 110. The UAV control unit 110 controls the flight of the unmanned aerial vehicle 100 according to a command received from the remote transmitter 50 via the communication interface 150.

図12は、送信機50のハードウェア構成例を示すブロック図である。送信機50は、左制御棒53Lと、右制御棒53Rと、送信機制御部61と、通信部63と、メモリ67、等を備える。送信機50は、上記以外のその他の構成部(例えばボタン等の操作部、LED等の表示部)を備えてもよい。 FIG. 12 is a block diagram showing a hardware configuration example of the transmitter 50. The transmitter 50 includes a left control rod 53L, a right control rod 53R, a transmitter control unit 61, a communication unit 63, a memory 67, and the like. The transmitter 50 may include other components other than the above (for example, an operation unit such as a button, a display unit such as an LED).

左制御棒53Lは、例えば操作者の左手により、無人航空機100の移動を遠隔で制御するための操作に使用される。右制御棒53Rは、例えば操作者の右手により、無人航空機100の移動を遠隔で制御するための操作に使用される。無人航空機100の移動は、例えば前進する方向の移動、後進する方向の移動、左方向の移動、右方向の移動、上昇する方向の移動、下降する方向の移動、左方向に無人航空機100を回転する移動、右方向に無人航空機100を回転する移動のうちいずれか又はこれらの組み合わせでよい。 The left control rod 53L is used for an operation for remotely controlling the movement of the unmanned aerial vehicle 100 by, for example, the left hand of the operator. The right control rod 53R is used for an operation for remotely controlling the movement of the unmanned aerial vehicle 100, for example, by the operator's right hand. The movement of the unmanned aircraft 100 is, for example, forward movement, backward movement, left movement, right movement, ascending movement, downward movement, and rotation of the unmanned aircraft 100 to the left. Either movement to move, movement to rotate the unmanned aircraft 100 to the right, or a combination thereof may be used.

通信部63は、各種の無線通信方式により、無人航空機100や端末80との間で無線通信する。この無線通信の無線通信方式は、例えば、無線LAN、Bluetooth(登録商標)、又は公衆無線回線を介した通信を含んでよい。通信部85は、任意の有線通信方式により有線通信してよい。通信部85は、端末80を介して、無人航空機100との間で通信してよい。送信機50と端末80とがケーブル(例えばUSBケーブル)で接続されてもよい。 The communication unit 63 wirelessly communicates with the unmanned aerial vehicle 100 and the terminal 80 by various wireless communication methods. The wireless communication method of this wireless communication may include communication via, for example, a wireless LAN, Bluetooth®, or a public wireless line. The communication unit 85 may perform wired communication by any wired communication method. The communication unit 85 may communicate with the unmanned aerial vehicle 100 via the terminal 80. The transmitter 50 and the terminal 80 may be connected by a cable (for example, a USB cable).

メモリ67は、例えば送信機50の動作を規定するプログラムや設定値のデータが格納されたROMと、送信機制御部61の処理時に使用される各種の情報やデータを一時的に保存するRAMを有してよい。メモリ67は、ROM及びRAM以外のメモリが含まれてよい。メモリ67は、送信機50の内部に設けられてよい。メモリ67は、送信機50から取り外し可能に設けられてよい。 The memory 67 includes, for example, a ROM in which data of a program or set value that defines the operation of the transmitter 50 is stored, and a RAM in which various information and data used during processing by the transmitter control unit 61 are temporarily stored. May have. The memory 67 may include a memory other than the ROM and the RAM. The memory 67 may be provided inside the transmitter 50. The memory 67 may be provided detachably from the transmitter 50.

送信機制御部61は、プロセッサ(例えばCPU、MPU又はDSP)を用いて構成される。送信機制御部61は、送信機50の各部の動作を統括して制御するための信号処理、他の各部との間のデータの入出力処理、データの演算処理及びデータの記憶処理を行う。 The transmitter control unit 61 is configured by using a processor (for example, CPU, MPU or DSP). The transmitter control unit 61 performs signal processing for controlling the operation of each unit of the transmitter 50, data input / output processing with and from other units, data calculation processing, and data storage processing.

送信機制御部61は、操作者の左制御棒53L又は右制御棒53Rの操作により指定された無人航空機100の飛行を制御するための指示信号を生成してよい。送信機制御部61は、この指示信号を、通信部63を介して、無人航空機100に送信して無人航空機100を遠隔制御してよい。これにより、送信機50は、無人航空機100の移動を遠隔で制御できる。 The transmitter control unit 61 may generate an instruction signal for controlling the flight of the unmanned aerial vehicle 100 designated by the operation of the left control rod 53L or the right control rod 53R of the operator. The transmitter control unit 61 may transmit this instruction signal to the unmanned aerial vehicle 100 via the communication unit 63 to remotely control the unmanned aerial vehicle 100. As a result, the transmitter 50 can remotely control the movement of the unmanned aerial vehicle 100.

例えば、ユーザが左制御棒53L又は右制御棒53Rを操作し、無人航空機100の飛行速度又は飛行加速度を変更する操作を行うと、送信機制御部61は、左制御棒53L又は右制御棒53Rによる操作の指示信号を受け取る。つまり、左制御棒53L又は右制御棒53Rの操作は、無人航空機100の飛行速度を変更する操作であっても無人航空機100の飛行加速度を変更する操作であってもよい。言い換えると、左制御棒53L又は右制御棒53Rは、速度を指示しても加速度を指示してもよい。送信機制御部61は、通信部63を介して、この指示信号を無人航空機100に送信する。 For example, when the user operates the left control rod 53L or the right control rod 53R to change the flight speed or the flight acceleration of the unmanned aerial vehicle 100, the transmitter control unit 61 causes the left control rod 53L or the right control rod 53R. Receives an instruction signal for operation by. That is, the operation of the left control rod 53L or the right control rod 53R may be an operation of changing the flight speed of the unmanned aerial vehicle 100 or an operation of changing the flight acceleration of the unmanned aerial vehicle 100. In other words, the left control rod 53L or the right control rod 53R may indicate the speed or the acceleration. The transmitter control unit 61 transmits this instruction signal to the unmanned aerial vehicle 100 via the communication unit 63.

飛行速度又は飛行加速度を変更する操作は、飛行速度又は飛行加速度を大きくする加速操作と、飛行速度又は飛行加速度を小さくする減速操作と、を含んでよい。UAV制御部110は、左制御棒53L又は右制御棒53Rによる加速操作の操作量に応じて、無人航空機100の飛行速度又は飛行加速度を決定してよい。また、UAV制御部110は、飛行加速度を決定する操作の操作量の累積値に応じて、無人航空機100の飛行速度を決定してよい。 The operation of changing the flight speed or the flight acceleration may include an acceleration operation of increasing the flight speed or the flight acceleration and a deceleration operation of decreasing the flight speed or the flight acceleration. The UAV control unit 110 may determine the flight speed or flight acceleration of the unmanned aerial vehicle 100 according to the operation amount of the acceleration operation by the left control rod 53L or the right control rod 53R. Further, the UAV control unit 110 may determine the flight speed of the unmanned aerial vehicle 100 according to the cumulative value of the operation amount of the operation for determining the flight acceleration.

無人航空機100では、UAV制御部110は、通信インタフェース150を介して、送信機50からの指示信号を取得する。UAV制御部110は、指示信号に従い、回転翼機構210の駆動を制御し、無人航空機100の飛行速度又は飛行加速度を変更する。この場合、UAV制御部110は、無人航空機100の飛行速度を、最大飛行速度Vm以下の飛行速度Voに制限する。 In the unmanned aerial vehicle 100, the UAV control unit 110 acquires an instruction signal from the transmitter 50 via the communication interface 150. The UAV control unit 110 controls the drive of the rotary wing mechanism 210 according to the instruction signal, and changes the flight speed or flight acceleration of the unmanned aerial vehicle 100. In this case, the UAV control unit 110 limits the flight speed of the unmanned aerial vehicle 100 to a flight speed Vo of the maximum flight speed Vm or less.

次に、飛行システム10Bによる無人航空機100の飛行速度の制限について説明する。 Next, the limitation of the flight speed of the unmanned aerial vehicle 100 by the flight system 10B will be described.

UAV制御部110は、実際の無人航空機100の飛行速度を取得(例えば算出)してよい。UAV制御部110は、例えば、GPS受信機等240等を介して複数の時点で無人航空機100の位置情報を取得し、複数の時点の位置情報を基に飛行速度を算出してよい。また、慣性計測装置250等を介して無人航空機100の加速度を取得し、無人航空機100の加速度を積分して無人航空機100の飛行速度を算出してよい。 The UAV control unit 110 may acquire (for example, calculate) the actual flight speed of the unmanned aerial vehicle 100. The UAV control unit 110 may acquire the position information of the unmanned aerial vehicle 100 at a plurality of time points via, for example, a GPS receiver or the like 240, and calculate the flight speed based on the position information at the plurality of time points. Further, the acceleration of the unmanned aerial vehicle 100 may be acquired via the inertial measurement unit 250 or the like, and the acceleration of the unmanned aerial vehicle 100 may be integrated to calculate the flight speed of the unmanned aerial vehicle 100.

UAV制御部110は、送信機50からの加速操作の指示信号を取得した場合、無人航空機100の飛行速度が最大飛行速度Vm以下の飛行速度Voとなるように制御する。この場合、UAV制御部110は、無人航空機100の飛行速度が最大飛行速度Vmに到達している状態では、送信機50からの加速操作の指示信号に応じた加速を制限(例えば禁止)してよい。 When the UAV control unit 110 acquires the instruction signal for the acceleration operation from the transmitter 50, the UAV control unit 110 controls the unmanned aerial vehicle 100 so that the flight speed of the unmanned aerial vehicle 100 becomes a flight speed Vo of the maximum flight speed Vm or less. In this case, the UAV control unit 110 limits (for example, prohibits) acceleration according to the instruction signal of the acceleration operation from the transmitter 50 in a state where the flight speed of the unmanned aerial vehicle 100 reaches the maximum flight speed Vm. Good.

例えば、UAV制御部110は、速度を指示する加速操作の場合に、左制御棒53L又は右制御棒53Rによる加速操作の最大操作量(例えば制御棒を最大限前方向に倒した場合の操作量)の場合の飛行速度Voを、最大飛行速度Vmと同値に設定してよい。この設定情報がメモリ160に保持され、UAV制御部110により参照されてよい。UAV制御部110は、この設定情報に従って加速操作に応じた加速を行うことで、速度による加速操作を受ける場合でも、無人航空機100の飛行速度を最大飛行速度Vm以下の飛行速度Voに制限できる。 For example, in the case of the acceleration operation for instructing the speed, the UAV control unit 110 has the maximum operation amount of the acceleration operation by the left control rod 53L or the right control rod 53R (for example, the operation amount when the control rod is tilted forward as much as possible). ) May be set to the same value as the maximum flight speed Vm. This setting information is held in the memory 160 and may be referred to by the UAV control unit 110. By accelerating according to the acceleration operation according to this setting information, the UAV control unit 110 can limit the flight speed of the unmanned aerial vehicle 100 to the flight speed Vo of the maximum flight speed Vm or less even when receiving the acceleration operation by the speed.

例えば、UAV制御部110は、加速度を指示する加速操作の場合に、左制御棒53L又は右制御棒53Rによる加速操作を取得した場合、無人航空機100の加速操作に応じた飛行時の飛行速度を、最大飛行速度Vm以下の飛行速度Voとなるように制御してよい。この場合、UAV制御部110は、加速操作前の飛行速度に加速操作に応じた速度を合計した速度が、最大飛行速度Vm以上となる場合、加速操作に応じた加速を制限してよい。この場合、UAV制御部110は、加速操作前の飛行速度を加速すること自体を禁止してもよいし、最大飛行速度Vmに到達するまでの加速分を許可し、最大飛行速度Vmに到達した後の加速分を禁止してもよい。これにより、無人航空機100は、加速度による加速操作を受ける場合でも、無人航空機100の飛行速度を最大飛行速度Vm以下の飛行速度Voに制限できる。 For example, in the case of an acceleration operation for instructing acceleration, when the UAV control unit 110 acquires an acceleration operation by the left control rod 53L or the right control rod 53R, the UAV control unit 110 determines the flight speed during flight according to the acceleration operation of the unmanned aerial vehicle 100. , The flight speed Vo may be controlled to be equal to or less than the maximum flight speed Vm. In this case, the UAV control unit 110 may limit the acceleration according to the acceleration operation when the total speed of the flight speed before the acceleration operation and the speed corresponding to the acceleration operation is equal to or more than the maximum flight speed Vm. In this case, the UAV control unit 110 may prohibit accelerating the flight speed before the acceleration operation itself, or allows the acceleration amount until the maximum flight speed Vm is reached, and reaches the maximum flight speed Vm. Later acceleration may be prohibited. As a result, the unmanned aerial vehicle 100 can limit the flight speed of the unmanned aerial vehicle 100 to a flight speed Vo of the maximum flight speed Vm or less even when it receives an acceleration operation due to acceleration.

なお、無人航空機100側で無人航空機100の飛行速度を制限する代わりに、送信機50側で無人航空機100の飛行速度を制限してもよい。この場合、UAV制御部110が、通信インタフェース150を介して、最大飛行速度Vmや無人航空機100の飛行速度(実測値)の情報を送信機50に通知し、送信機50のメモリ67に保持しておいてよい。送信機50の送信機制御部61は、メモリ67に保持された最大飛行速度Vmを参照し、左制御棒53L又は右制御棒53Rによる操作の操作量に基づいて、又は操作量と取得された飛行速度の実測値に基づいて、無人航空機100の飛行速度Vo(指示値)を算出してよい。送信機50の送信機制御部61は、無人航空機100の飛行速度(指示値)が最大飛行速度Vmより大きい場合、通信部63を介した加速操作の指示信号の送信を禁止してもよい。また、送信機制御部61は、最大飛行速度Vmに到達するまでの加速分の指示信号の送信を許可し、最大飛行速度Vmに到達した後の加速分の指示信号の送信を禁止してもよい。これにより、送信機50は、速度又は加速度による加速操作を行う場合でも、無人航空機100の飛行速度を最大飛行速度Vm以下に制限できる。 Instead of limiting the flight speed of the unmanned aerial vehicle 100 on the unmanned aerial vehicle 100 side, the flight speed of the unmanned aerial vehicle 100 may be limited on the transmitter 50 side. In this case, the UAV control unit 110 notifies the transmitter 50 of information on the maximum flight speed Vm and the flight speed (actual measurement value) of the unmanned aerial vehicle 100 via the communication interface 150, and holds the information in the memory 67 of the transmitter 50. You can keep it. The transmitter control unit 61 of the transmitter 50 refers to the maximum flight speed Vm held in the memory 67, and is obtained based on or as the operation amount of the operation by the left control rod 53L or the right control rod 53R. The flight speed Vo (indicated value) of the unmanned aerial vehicle 100 may be calculated based on the measured value of the flight speed. When the flight speed (instructed value) of the unmanned aerial vehicle 100 is greater than the maximum flight speed Vm, the transmitter control unit 61 of the transmitter 50 may prohibit the transmission of the instruction signal for the acceleration operation via the communication unit 63. Further, even if the transmitter control unit 61 permits the transmission of the instruction signal for the acceleration until the maximum flight speed Vm is reached and prohibits the transmission of the instruction signal for the acceleration after reaching the maximum flight speed Vm. Good. As a result, the transmitter 50 can limit the flight speed of the unmanned aerial vehicle 100 to the maximum flight speed Vm or less even when the acceleration operation is performed by speed or acceleration.

このように、第3の実施形態の飛行システム10Bによれば、ユーザは、送信機50を用いて無人航空機100の飛行を手動操作でき、つまり手動で無人航空機100の飛行の制御を指示する。よって、送信機50は、ユーザによる無人航空機100の飛行の手動操作を受ける場合でも、無人航空機100が移動することによるモーションブラーの発生を抑制でき、撮像画像の画質の低下を抑制できる。 Thus, according to the flight system 10B of the third embodiment, the user can manually operate the flight of the unmanned aerial vehicle 100 using the transmitter 50, that is, manually instruct the control of the flight of the unmanned aerial vehicle 100. Therefore, the transmitter 50 can suppress the occurrence of motion blur due to the movement of the unmanned aerial vehicle 100 even when the user manually operates the flight of the unmanned aerial vehicle 100, and can suppress the deterioration of the image quality of the captured image.

第3の実施形態では、飛行システム10Bが送信機50を備え、送信機50が無人航空機100の飛行を手動操作し、手動で無人航空機100の飛行の制御を指示することを示したが、これ以外でもよい。例えば、飛行システム10Bが送信機50を備えず、端末80が無人航空機100の飛行を手動操作し、手動で無人航空機100の飛行の制御を指示してもよい。例えば、端末80の操作部83が、送信機50の左制御棒53L又は右制御棒53Rによる操作と同様の無人航空機100の移動のための操作を受けて、無人航空機100の速度や加速度を変更させてよい。この場合でも、端末80は、無人航空機100が移動することによるモーションブラーの発生を抑制でき、撮像画像の画質の低下を抑制できる。 In the third embodiment, it is shown that the flight system 10B includes the transmitter 50, and the transmitter 50 manually controls the flight of the unmanned aerial vehicle 100 and manually instructs the control of the flight of the unmanned aerial vehicle 100. Other than that. For example, the flight system 10B may not include the transmitter 50, and the terminal 80 may manually operate the flight of the unmanned aerial vehicle 100 and manually instruct the control of the flight of the unmanned aerial vehicle 100. For example, the operation unit 83 of the terminal 80 receives an operation for moving the unmanned aerial vehicle 100 similar to the operation by the left control rod 53L or the right control rod 53R of the transmitter 50, and changes the speed and acceleration of the unmanned aerial vehicle 100. You may let me. Even in this case, the terminal 80 can suppress the occurrence of motion blur due to the movement of the unmanned aerial vehicle 100, and can suppress the deterioration of the image quality of the captured image.

このように、UAV制御部110は、例えば通信インタフェース150を介して、無人航空機100の飛行速度を変更するための操作情報を取得してよい。UAV制御部110は、操作情報に基づいて、無人航空機100の飛行速度の上限値以下の飛行速度Voとなるように、飛行速度を調整して飛行を制御してよい。 In this way, the UAV control unit 110 may acquire operation information for changing the flight speed of the unmanned aerial vehicle 100, for example, via the communication interface 150. The UAV control unit 110 may control the flight by adjusting the flight speed so that the flight speed Vo is equal to or less than the upper limit of the flight speed of the unmanned aerial vehicle 100 based on the operation information.

これにより、無人航空機100は、送信機50等から飛行速度を変更するための遠隔操作を受けた場合でも、最大飛行速度Vmを加味しながら、飛行速度を調整して飛行制御できる。よって、無人航空機100は、送信機50等を用いた手動操作を受ける場合でも、モーションブラーの発生を抑制できる。 As a result, the unmanned aerial vehicle 100 can adjust the flight speed and control the flight while taking into account the maximum flight speed Vm even when the unmanned aerial vehicle 100 receives a remote control for changing the flight speed from the transmitter 50 or the like. Therefore, the unmanned aerial vehicle 100 can suppress the occurrence of motion blur even when it receives a manual operation using the transmitter 50 or the like.

なお、飛行システム10Bでは、端末80が実行する処理を送信機50が実行してもよい。この場合、送信機50は、端末80と同様に、操作部、表示部、等も有してよい。飛行システム10Bが送信機50を有する場合、端末80が設けられなくてもよい。 In the flight system 10B, the transmitter 50 may execute the process executed by the terminal 80. In this case, the transmitter 50 may also have an operation unit, a display unit, and the like, like the terminal 80. If the flight system 10B has a transmitter 50, the terminal 80 may not be provided.

以上、本開示を実施形態を用いて説明したが、本開示の技術的範囲は上述した実施形態に記載の範囲には限定されない。上述した実施形態に、多様な変更又は改良を加えることが当業者に明らかである。その様な変更又は改良を加えた形態も本開示の技術的範囲に含まれ得ることが、特許請求の範囲の記載からも明らかである。 Although the present disclosure has been described above using the embodiments, the technical scope of the present disclosure is not limited to the scope described in the above-described embodiments. It will be apparent to those skilled in the art to make various changes or improvements to the embodiments described above. It is clear from the description of the claims that the form with such changes or improvements may be included in the technical scope of the present disclosure.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現可能である。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「先ず、」、「次に」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The execution order of each process such as operation, procedure, step, and step in the device, system, program, and method shown in the claims, the specification, and the drawing is particularly "before" and "prior to". As long as the output of the previous process is not used in the subsequent process, it can be realized in any order. Even if the scope of claims, the specification, and the operation flow in the drawings are explained using "first", "next", etc. for convenience, it means that it is essential to carry out in this order. is not it.

第1,第2の実施形態では、無人航空機100が主導で最大飛行速度Vmの導出や飛行速度Voの調整を行うことを例示したが、端末80が主導で最大飛行速度Vmの導出や飛行速度Voの調整を行ってもよい。この場合、端末80の端末制御部81が、通信部85を介して無人航空機100が保持する情報を取得してよい。例えば、露光制御を行うための露光制御情報(例えば露光制御アルゴリズムの情報)、無人航空機100の周囲の照度の情報(例えば照度センサ190で検出された照度)、照度Lと最大飛行速度Vmとの対応関係の情報を保持するテーブルTb、を端末80のメモリ87に保持しておいてよい。端末制御部81は、T5〜T7の処理を演算により仮想的に行い、通信部85を介して、撮像位置や飛行経路や飛行速度Vo(指示値)の情報を無人航空機100へ送信してよい。無人航空機100では、UAV制御部110は、飛行経路に沿って、導出(調整)された飛行速度Voで飛行しながら、撮像部220により、導出されたシャッタスピードssで撮像位置において空撮を行ってよい。 In the first and second embodiments, the unmanned aerial vehicle 100 takes the lead in deriving the maximum flight speed Vm and adjusting the flight speed Vo, but the terminal 80 takes the lead in deriving the maximum flight speed Vm and adjusting the flight speed. Vo may be adjusted. In this case, the terminal control unit 81 of the terminal 80 may acquire the information held by the unmanned aerial vehicle 100 via the communication unit 85. For example, exposure control information for performing exposure control (for example, exposure control algorithm information), illuminance information around the unmanned aerial vehicle 100 (for example, illuminance detected by the illuminance sensor 190), illuminance L and maximum flight speed Vm. The table Tb, which holds the correspondence information, may be held in the memory 87 of the terminal 80. The terminal control unit 81 may virtually perform the processing of T5 to T7 by calculation, and transmit information on the imaging position, flight path, and flight speed Vo (instructed value) to the unmanned aerial vehicle 100 via the communication unit 85. .. In the unmanned aerial vehicle 100, the UAV control unit 110 takes an aerial image at the imaging position at the shutter speed ss derived by the imaging unit 220 while flying at the derived (adjusted) flight speed Vo along the flight path. You can.

このように、端末80(情報処理装置の一例)は、無人航空機100(飛行体の一例)による飛行の制御を指示し、端末制御部81(処理部の一例)を備えてよい。端末制御部81は、無人航空機100が撮像するためのシャッタスピードssの情報を取得してよい。端末制御部81は、無人航空機100が撮像する撮像画像における1画素あたりの実空間での距離の情報を取得してよい。端末制御部81は、シャッタスピードssと1画素あたりの実空間での距離に基づいて、無人航空機100の最大飛行速度Vm(飛行速度の上限値の一例)を決定してよい。端末制御部81は、無人航空機100の最大飛行速度Vm以下の飛行速度Voとなるように、飛行速度の制御を指示してよい。 As described above, the terminal 80 (an example of the information processing device) may instruct flight control by the unmanned aerial vehicle 100 (an example of an air vehicle) and may include a terminal control unit 81 (an example of a processing unit). The terminal control unit 81 may acquire information on the shutter speed ss for the unmanned aerial vehicle 100 to take an image. The terminal control unit 81 may acquire information on the distance in real space per pixel in the captured image captured by the unmanned aerial vehicle 100. The terminal control unit 81 may determine the maximum flight speed Vm (an example of the upper limit value of the flight speed) of the unmanned aerial vehicle 100 based on the shutter speed ss and the distance per pixel in the real space. The terminal control unit 81 may instruct the control of the flight speed so that the flight speed Vo is equal to or less than the maximum flight speed Vm of the unmanned aerial vehicle 100.

これにより、端末80は、シャッタスピードssや無人航空機100が撮像する撮像画像における1画素あたりの実空間での距離を加味して、無人航空機100の飛行速度を制限できる。例えば、定められたシャッタスピードssで画像を撮像する間に無人航空機100が移動しても、決定された飛行速度以内の飛行速度Voで無人航空機100が飛行することで、端末80は、無人航空機100の移動を、撮像画像における連続する所定数の画素以内での移動に留めることができる。よって、端末80は、無人航空機100による撮像時にこの無人航空機100が移動することによるモーションブラーの発生を抑制でき、撮像画像の画質が低下することを抑制できる。 As a result, the terminal 80 can limit the flight speed of the unmanned aerial vehicle 100 by taking into consideration the shutter speed ss and the distance in the real space per pixel in the captured image captured by the unmanned aerial vehicle 100. For example, even if the unmanned aerial vehicle 100 moves while capturing an image at a predetermined shutter speed ss, the unmanned aerial vehicle 100 flies at a flight speed Vo within the determined flight speed, so that the terminal 80 is an unmanned aerial vehicle. The movement of 100 can be limited to movement within a predetermined number of consecutive pixels in the captured image. Therefore, the terminal 80 can suppress the occurrence of motion blur due to the movement of the unmanned aerial vehicle 100 at the time of imaging by the unmanned aerial vehicle 100, and can suppress the deterioration of the image quality of the captured image.

また、飛行システム10では、端末制御部81は、照度センサ190により検出された無人航空機100の周囲の照度L、例えば撮像部220の被写体の照度Lを取得してよい。端末制御部81は、例えばメモリ87に記憶されたテーブルTbに保持された、照度Lと無人航空機100の飛行速度の上限値との関係を示す関係情報を取得してよい。端末制御部81は、この関係情報を基に、照度センサ190により取得された照度Lに対応する無人航空機100の最大飛行速度Vmを導出(例えば算出)してよい。端末制御部81は、最大飛行速度Vm以下の飛行速度Voとなるように、飛行速度の制御を指示してよい。 Further, in the flight system 10, the terminal control unit 81 may acquire the illuminance L around the unmanned aerial vehicle 100 detected by the illuminance sensor 190, for example, the illuminance L of the subject of the imaging unit 220. The terminal control unit 81 may acquire the relational information indicating the relationship between the illuminance L and the upper limit of the flight speed of the unmanned aerial vehicle 100, which is held in the table Tb stored in the memory 87, for example. Based on this related information, the terminal control unit 81 may derive (for example, calculate) the maximum flight speed Vm of the unmanned aerial vehicle 100 corresponding to the illuminance L acquired by the illuminance sensor 190. The terminal control unit 81 may instruct the control of the flight speed so that the flight speed Vo is equal to or less than the maximum flight speed Vm.

これにより、端末80は、照度Lと無人航空機100の飛行速度の上限値との関係性を示す関係情報を参照して、無人航空機100の周囲の照度(明るさ)を基に、無人航空機100の飛行速度を制限できる。関係情報は、例えば、取得された照度Lに応じたシャッタスピードssで画像を撮像する間に無人航空機100が移動しても、制限された飛行速度以内の飛行速度Voで無人航空機100が飛行することで、無人航空機100の移動を、撮像画像における連続する所定数の画素以内での移動に留めることができるような情報である。よって、端末80は、無人航空機100による撮像時にこの無人航空機100が移動することによるモーションブラーの発生を抑制でき、撮像画像の画質が低下することを抑制できる。 As a result, the terminal 80 refers to the relationship information indicating the relationship between the illuminance L and the upper limit of the flight speed of the unmanned aerial vehicle 100, and based on the illuminance (brightness) around the unmanned aerial vehicle 100, the unmanned aerial vehicle 100 You can limit the flight speed of. Regarding the related information, for example, even if the unmanned aerial vehicle 100 moves while capturing an image at the shutter speed ss corresponding to the acquired illuminance L, the unmanned aerial vehicle 100 flies at a flight speed Vo within the limited flight speed. This is information that allows the movement of the unmanned aerial vehicle 100 to be limited to movement within a predetermined number of consecutive pixels in the captured image. Therefore, the terminal 80 can suppress the occurrence of motion blur due to the movement of the unmanned aerial vehicle 100 at the time of imaging by the unmanned aerial vehicle 100, and can suppress the deterioration of the image quality of the captured image.

10,10B 飛行システム
11 カメラプロセッサ
12 シャッタ
13 撮像素子
14 画像処理部
15 メモリ
18 フラッシュ
19 シャッタ駆動部
20 素子駆動部
21 ゲイン制御部
32 NDフィルタ
33 絞り
34 レンズ群
36 レンズ駆動部
38 ND駆動部
40 絞り駆動部
50 送信機
53L 左制御棒
53R 右制御棒
61 送信機制御部
63 通信部
67 メモリ
80 端末
81 端末制御部
83 操作部
85 通信部
87 メモリ
88 表示部
89 ストレージ
100 無人航空機
110 UAV制御部
150 通信インタフェース
160 メモリ
170 ストレージ
190 照度センサ
200 ジンバル
210 回転翼機構
220,230 撮像部
220z 筐体
240 GPS受信機
250 慣性計測装置
260 磁気コンパス
270 気圧高度計
280 超音波センサ
290 レーザー測定器
h 飛行高度
L 照度
Tb テーブル
Vm 最大飛行速度
Vo 飛行速度
10,10B Flight system 11 Camera processor 12 Shutter 13 Image sensor 14 Image processing unit 15 Memory 18 Flash 19 Shutter drive unit 20 Element drive unit 21 Gain control unit 32 ND filter 33 Aperture 34 Lens group 36 Lens drive unit 38 ND drive unit 40 Aperture drive unit 50 Transmitter 53L Left control rod 53R Right control rod 61 Transmitter control unit 63 Communication unit 67 Memory 80 Terminal 81 Terminal control unit 83 Operation unit 85 Communication unit 87 Memory 88 Display unit 89 Storage 100 Unmanned aircraft 110 UAV control unit 150 Communication interface 160 Memory 170 Storage 190 Illumination sensor 200 Gimbal 210 Rotating wing mechanism 220, 230 Image sensor 220z Housing 240 GPS receiver 250 Inertial measurement unit 260 Magnetic compass 270 Atmospheric pressure sensor 280 Ultrasonic sensor 290 Laser measuring instrument h Flight altitude L Illumination Tb Table Vm Maximum flight speed Vo Flight speed

Claims (12)

飛行体による飛行の制御を指示する情報処理装置であって、
処理部を備え、
前記処理部は、
前記飛行体が撮像するためのシャッタスピードの情報を取得し、
前記飛行体が撮像する撮像画像における1画素あたりの実空間での距離の情報を取得し、
前記シャッタスピードと前記1画素あたりの実空間での距離に基づいて、前記飛行体の飛行速度の上限値を決定し、
前記飛行体の飛行速度の上限値以下の飛行速度となるように、前記飛行速度の制御を指示する、
情報処理装置。
An information processing device that instructs the control of flight by an air vehicle.
Equipped with a processing unit
The processing unit
Obtaining information on the shutter speed for the flying object to take an image,
Obtaining information on the distance in real space per pixel in the captured image captured by the flying object,
Based on the shutter speed and the distance in real space per pixel, the upper limit of the flight speed of the flying object is determined.
Instruct the control of the flight speed so that the flight speed is equal to or less than the upper limit of the flight speed of the flying object.
Information processing device.
前記処理部は、
前記飛行体の飛行高度を取得し、
前記飛行体が撮像するための画角を取得し、
前記撮像画像の画素数を取得し、
前記飛行体の飛行高度、前記画角、前記撮像画像の画素数に基づいて、前記1画素あたりの実空間での距離を算出する、
請求項1に記載の情報処理装置。
The processing unit
Obtain the flight altitude of the aircraft and
Obtain the angle of view for the flying object to image,
The number of pixels of the captured image is acquired, and
The distance in the real space per pixel is calculated based on the flight altitude of the flying object, the angle of view, and the number of pixels of the captured image.
The information processing device according to claim 1.
前記飛行体による1回の撮像期間に前記飛行体が移動する距離が、前記撮像画像における1画素に対応する実空間での距離以内である、
請求項1または2に記載の情報処理装置。
The distance that the flying object moves in one imaging period by the flying object is within the distance in the real space corresponding to one pixel in the captured image.
The information processing device according to claim 1 or 2.
前記情報処理装置は、前記飛行体であり、
前記処理部は、前記飛行速度の上限値に基づいて、前記飛行速度を調整して飛行を制御する、
請求項1〜のいずれか1項に記載の情報処理装置。
The information processing device is the flying object.
The processing unit adjusts the flight speed to control the flight based on the upper limit value of the flight speed.
The information processing device according to any one of claims 1 to 3.
前記処理部は、
前記飛行体の飛行速度を変更するための操作情報を取得し、
前記操作情報に基づいて、前記飛行体の飛行速度の上限値以下の飛行速度となるように、前記飛行速度を調整して飛行を制御する、
請求項に記載の情報処理装置。
The processing unit
Obtain operation information for changing the flight speed of the aircraft,
Based on the operation information, the flight speed is adjusted to control the flight so that the flight speed is equal to or less than the upper limit of the flight speed of the flying object.
The information processing device according to claim 4.
飛行体による飛行の制御を指示する情報処理装置における飛行制御指示方法であって、
前記飛行体が撮像するためのシャッタスピードの情報を取得するステップと、
前記飛行体が撮像する撮像画像における1画素あたりの実空間での距離の情報を取得するステップと、
前記シャッタスピードと前記1画素あたりの実空間での距離に基づいて、前記飛行体の飛行速度の上限値を決定するステップと、
前記飛行体の飛行速度の上限値以下の飛行速度となるように、前記飛行速度の制御を指示するステップと、
を含む飛行制御指示方法。
It is a flight control instruction method in an information processing device that instructs flight control by an air vehicle.
The step of acquiring the shutter speed information for the flying object to take an image, and
A step of acquiring information on the distance in real space per pixel in the captured image captured by the flying object, and
A step of determining an upper limit of the flight speed of the flying object based on the shutter speed and the distance in real space per pixel, and
A step of instructing the control of the flight speed so that the flight speed is equal to or less than the upper limit of the flight speed of the flying object, and
Flight control instruction method including.
前記距離の情報を取得するステップは、
前記飛行体の飛行高度を取得するステップと、
前記飛行体が撮像するための画角を取得するステップと、
前記撮像画像の画素数を取得するステップと、
前記飛行体の飛行高度、前記画角、前記撮像画像の画素数に基づいて、前記1画素あたりの実空間での距離を算出するステップと、を含む、
請求項に記載の飛行制御指示方法。
The step of acquiring the distance information is
The step of acquiring the flight altitude of the flying object and
The step of acquiring the angle of view for the flying object to image, and
The step of acquiring the number of pixels of the captured image and
A step of calculating a distance in real space per pixel based on the flight altitude of the flying object, the angle of view, and the number of pixels of the captured image is included.
The flight control instruction method according to claim 6.
前記飛行体による1回の撮像期間に前記飛行体が移動する距離が、前記撮像画像における1画素に対応する実空間での距離以内となる、
請求項またはに記載の飛行制御指示方法。
The distance that the flying object moves during one imaging period by the flying object is within the distance in the real space corresponding to one pixel in the captured image.
The flight control instruction method according to claim 6 or 7.
前記情報処理装置は、前記飛行体であり、
前記飛行速度の上限値に基づいて、前記飛行速度を調整して飛行を制御するステップ、
を更に含む、
請求項のいずれか1項に記載の飛行制御指示方法。
The information processing device is the flying object.
A step of adjusting the flight speed to control the flight based on the upper limit of the flight speed.
Including,
The flight control instruction method according to any one of claims 6 to 8.
前記飛行速度を調整して飛行を制御するステップは、
前記飛行体の飛行速度を変更するための操作情報を取得するステップと、
前記操作情報に基づいて、前記飛行体の飛行速度の上限値以下の飛行速度となるように、前記飛行速度を調整して飛行を制御するステップと、を含む、
請求項に記載の飛行制御指示方法。
The step of adjusting the flight speed to control the flight is
The step of acquiring the operation information for changing the flight speed of the flying object, and
Based on the operation information, the step of adjusting the flight speed to control the flight so that the flight speed is equal to or less than the upper limit of the flight speed of the flying object is included.
The flight control instruction method according to claim 9.
飛行体による飛行の制御を指示する情報処理装置に、
前記飛行体が撮像するためのシャッタスピードの情報を取得するステップと、
前記飛行体が撮像する撮像画像における1画素あたりの実空間での距離の情報を取得するステップと、
前記シャッタスピードと前記1画素あたりの実空間での距離に基づいて、前記飛行体の飛行速度の上限値を決定するステップと、
前記飛行体の飛行速度の上限値以下の飛行速度となるように、前記飛行速度の制御を指示するステップと、
を実行させるためのプログラム。
For information processing devices that instruct flight control by flying objects,
The step of acquiring the shutter speed information for the flying object to take an image, and
A step of acquiring information on the distance in real space per pixel in the captured image captured by the flying object, and
A step of determining an upper limit of the flight speed of the flying object based on the shutter speed and the distance in real space per pixel, and
A step of instructing the control of the flight speed so that the flight speed is equal to or less than the upper limit of the flight speed of the flying object, and
A program to execute.
飛行体による飛行の制御を指示する情報処理装置に、
前記飛行体が撮像するためのシャッタスピードの情報を取得するステップと、
前記飛行体が撮像する撮像画像における1画素あたりの実空間での距離の情報を取得するステップと、
前記シャッタスピードと前記1画素あたりの実空間での距離に基づいて、前記飛行体の飛行速度の上限値を決定するステップと、
前記飛行体の飛行速度の上限値以下の飛行速度となるように、前記飛行速度の制御を指示するステップと、
を実行させるためのプログラムを記録したコンピュータ読取り可能な記録媒体。
For information processing devices that instruct flight control by flying objects,
The step of acquiring the shutter speed information for the flying object to take an image, and
A step of acquiring information on the distance in real space per pixel in the captured image captured by the flying object, and
A step of determining an upper limit of the flight speed of the flying object based on the shutter speed and the distance in real space per pixel, and
A step of instructing the control of the flight speed so that the flight speed is equal to or less than the upper limit of the flight speed of the flying object, and
A computer-readable recording medium that contains a program for executing the program.
JP2018183570A 2018-09-28 2018-09-28 Information processing equipment, flight control instruction method, program, and recording medium Active JP6878375B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018183570A JP6878375B2 (en) 2018-09-28 2018-09-28 Information processing equipment, flight control instruction method, program, and recording medium
JP2021031963A JP2021096865A (en) 2018-09-28 2021-03-01 Information processing device, flight control instruction method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018183570A JP6878375B2 (en) 2018-09-28 2018-09-28 Information processing equipment, flight control instruction method, program, and recording medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021031963A Division JP2021096865A (en) 2018-09-28 2021-03-01 Information processing device, flight control instruction method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2020050261A JP2020050261A (en) 2020-04-02
JP6878375B2 true JP6878375B2 (en) 2021-05-26

Family

ID=69995522

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018183570A Active JP6878375B2 (en) 2018-09-28 2018-09-28 Information processing equipment, flight control instruction method, program, and recording medium
JP2021031963A Pending JP2021096865A (en) 2018-09-28 2021-03-01 Information processing device, flight control instruction method, program, and recording medium

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021031963A Pending JP2021096865A (en) 2018-09-28 2021-03-01 Information processing device, flight control instruction method, program, and recording medium

Country Status (1)

Country Link
JP (2) JP6878375B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117320960A (en) * 2022-04-25 2023-12-29 乐天集团股份有限公司 Unmanned aerial vehicle and delivery system
WO2024038647A1 (en) * 2022-08-16 2024-02-22 富士フイルム株式会社 Imaging assistance device, imaging device, imaging assistance method, and program

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004021774A (en) * 2002-06-19 2004-01-22 Matsushita Electric Ind Co Ltd Mobile working robot
JP2005247008A (en) * 2004-03-01 2005-09-15 Yamaha Motor Co Ltd Control device for unmanned helicopter
JP2005354477A (en) * 2004-06-11 2005-12-22 Sony Corp Imaging device
JP4988673B2 (en) * 2008-09-01 2012-08-01 株式会社日立製作所 Shooting plan creation system
JP5519388B2 (en) * 2010-04-23 2014-06-11 株式会社パスコ Aerial photography method
US9232119B2 (en) * 2013-10-08 2016-01-05 Raytheon Company Integrating image frames
KR102165450B1 (en) * 2014-05-22 2020-10-14 엘지전자 주식회사 The Apparatus and Method for Portable Device controlling Unmanned Aerial Vehicle
AU2015330956B2 (en) * 2014-10-08 2019-11-07 Spookfish Innovations Pty Ltd An aerial camera system
WO2016059877A1 (en) * 2014-10-17 2016-04-21 ソニー株式会社 Controller, control method, and flight vehicle device
US9635259B2 (en) * 2015-01-21 2017-04-25 Izak Jan van Cruyningen Forward motion compensated flight path
JP6682381B2 (en) * 2015-08-06 2020-04-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Unmanned aerial vehicle, flight control method and flight control program
JP2017072986A (en) * 2015-10-07 2017-04-13 パナソニックIpマネジメント株式会社 Autonomous flying device, control method and program of autonomous flying device
JP6239567B2 (en) * 2015-10-16 2017-11-29 株式会社プロドローン Information transmission device
US10587790B2 (en) * 2015-11-04 2020-03-10 Tencent Technology (Shenzhen) Company Limited Control method for photographing using unmanned aerial vehicle, photographing method using unmanned aerial vehicle, mobile terminal, and unmanned aerial vehicle
EP3859291A1 (en) * 2016-04-14 2021-08-04 National University Corporation Hokkaido University Spectral camera control device, spectral camera control program, spectral camera control system, aircraft equipped with said system, and spectral image capturing method

Also Published As

Publication number Publication date
JP2020050261A (en) 2020-04-02
JP2021096865A (en) 2021-06-24

Similar Documents

Publication Publication Date Title
JP6878567B2 (en) 3D shape estimation methods, flying objects, mobile platforms, programs and recording media
WO2019227441A1 (en) Video control method and device of movable platform
JP2017085551A (en) Method of determining duration of exposure of camera on board drone, and associated drone
CN113875222B (en) Shooting control method and device, unmanned aerial vehicle and computer readable storage medium
JP2021096865A (en) Information processing device, flight control instruction method, program, and recording medium
WO2019238044A1 (en) Determination device, mobile object, determination method and program
US20210014427A1 (en) Control device, imaging device, mobile object, control method and program
CN111344650B (en) Information processing device, flight path generation method, program, and recording medium
CN111213107B (en) Information processing device, imaging control method, program, and recording medium
JP6949930B2 (en) Control device, moving body and control method
JP7501535B2 (en) Information processing device, information processing method, and information processing program
JP6790318B2 (en) Unmanned aerial vehicles, control methods, and programs
US20210092306A1 (en) Movable body, image generation method, program, and recording medium
WO2021115192A1 (en) Image processing device, image processing method, program and recording medium
WO2021052217A1 (en) Control device for performing image processing and frame body control
WO2022016340A1 (en) Method and system for determining exposure parameters of main camera device, mobile platform, and storage medium
JP2019212961A (en) Mobile unit, light amount adjustment method, program, and recording medium
JP6803960B1 (en) Image processing equipment, image processing methods, programs, and recording media
CN112313942A (en) Control device for image processing and frame body control
WO2020011198A1 (en) Control device, movable component, control method, and program
JP2021033177A (en) Adapter, imaging apparatus, support mechanism, and moving object
JP2020095519A (en) Shape estimation device, shape estimation method, program, and recording medium
WO2021235265A1 (en) Information processing device, information processing method, information processing program, flying body, flying body control method, and flying body control program
JP2020122911A (en) Focusing device of camera lens, focusing method and focusing program
WO2021249245A1 (en) Device, camera device, camera system, and movable member

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210406

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210428

R150 Certificate of patent or registration of utility model

Ref document number: 6878375

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150