JP2017081246A - Flight control device, flight control method, multicopter, and program - Google Patents

Flight control device, flight control method, multicopter, and program Download PDF

Info

Publication number
JP2017081246A
JP2017081246A JP2015209062A JP2015209062A JP2017081246A JP 2017081246 A JP2017081246 A JP 2017081246A JP 2015209062 A JP2015209062 A JP 2015209062A JP 2015209062 A JP2015209062 A JP 2015209062A JP 2017081246 A JP2017081246 A JP 2017081246A
Authority
JP
Japan
Prior art keywords
image
unit
imaging
speed
flight control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015209062A
Other languages
Japanese (ja)
Inventor
塩谷 浩之
Hiroyuki Shiotani
浩之 塩谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2015209062A priority Critical patent/JP2017081246A/en
Priority to PCT/JP2016/079895 priority patent/WO2017068998A1/en
Publication of JP2017081246A publication Critical patent/JP2017081246A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/20Initiating means actuated automatically, e.g. responsive to gust detectors using radiated signals
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/02Arrangements or adaptations of signal or lighting devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/36Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Power Engineering (AREA)
  • Mechanical Engineering (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a remote control device which, while reducing the size and weight of the airframe of an unmanned flying object, can improve the stability in flight by using plural algorithms.SOLUTION: A multicopter 11 comprises a flight control part 31 and a power device 32. The flight control part 31 controls flight by controlling own speed and attitude, based on a picture imaged by a high resolution and high speed part reading sensor 52 and by activating the power device 32, based on an operation signal from a remote control part 12. Further, the flight control part 31 transmits a picture imaged by a high resolution and low speed imaging sensor 60 to the remote control part 12 and makes the remote control part display the picture. The power device 32, for instance, has power for plural rotors, is controlled by the flight control part 31, and makes the airframe itself of the multicopter 11 fly.SELECTED DRAWING: Figure 1

Description

本開示は、飛行制御装置、および飛行制御方法、マルチコプタ、並びにプログラムに関し、特に、マルチコプタによる飛行の安定性を向上できるようにした飛行制御装置、および飛行制御方法、マルチコプタ、並びにプログラムに関する。   The present disclosure relates to a flight control device, a flight control method, a multicopter, and a program, and more particularly, to a flight control device, a flight control method, a multicopter, and a program that can improve the stability of flight by the multicopter.

マルチコプタに代表される無人型飛行体の飛行を安定化させる技術が開発されている。マルチコプタとは、複数の回転翼を備えた飛行体であり、リモートコントローラなどの遠隔操作装置により遠隔操作がなされて飛行が制御されるものである。マルチコプタには、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどからなる撮像用のカメラが搭載されたものが有り、撮像されたビューイング画像が遠隔操作装置に無線通信により送信され、遠隔操作装置に設けられた表示部により表示させるものもある。   A technique for stabilizing the flight of an unmanned air vehicle represented by a multicopter has been developed. A multicopter is a flying object having a plurality of rotor blades, and is controlled by a remote operation by a remote operation device such as a remote controller. Some multicopters are equipped with an imaging camera such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The captured viewing image is transmitted to the remote control device by wireless communication and provided in the remote control device. Some of them are displayed on the display unit.

このようなマルチコプタに関する技術として、例えば、垂直カメラを用いて地上面の画像を撮像し、オプティカルフロータイプのアルゴリズムと、コーナー検出器タイプのアルゴリズムとを併用して、水平並進速度を計測し、計測された水平並進速度の情報に基づいて飛行を制御する技術が提案されている(特許文献1参照)。   As a technology related to such a multicopter, for example, an image of the ground surface is captured using a vertical camera, and a horizontal translation speed is measured using an optical flow type algorithm and a corner detector type algorithm in combination. There has been proposed a technique for controlling flight based on the information on the horizontal translation speed (see Patent Document 1).

特開2012−006587号公報JP 2012-006587 A

ところで、コーナー検出器タイプのアルゴリズムは一般的に高解像度のイメージセンサを用いて画像中に疎に点在するコーナーを検出し追跡する必要がある。   By the way, a corner detector type algorithm generally needs to detect and track corners scattered sparsely in an image using a high-resolution image sensor.

しかしながら、例えば、30×30画素程度の低解像度のイメージセンサで得られた画像を用いるような場合、コーナー検出器タイプのアルゴリズムを用いると、画像中にコーナーが1つも存在しない場合が生じ易い。   However, for example, when using an image obtained by an image sensor with a low resolution of about 30 × 30 pixels, if a corner detector type algorithm is used, there may be a case where no corner exists in the image.

一方、オプティカルフロータイプのアルゴリズムの場合、単位時間当たりで、ある程度の撮像回数が必要となるが、撮像素子の解像度と単位時間の撮像回数はトレードオフの関係にあり、両立させると高コストになる。   On the other hand, in the case of an optical flow type algorithm, a certain number of times of imaging is required per unit time, but the resolution of the image sensor and the number of times of imaging per unit time are in a trade-off relationship, and it is expensive to achieve both. .

したがって、上記の複数のアルゴリズムを併用する場合、アルゴリズムに適した異なるイメージセンサを物理的に用いるべきであるが、マルチコプタなどの無人型飛行体においては、機体全体の小型化や軽量化が求められており、搭載するイメージセンサ等を物理的に増やすと、機体全体を大型化させ、重量増にさせてしまう恐れがあった。   Therefore, when using the above algorithms together, different image sensors suitable for the algorithm should be physically used. However, unmanned air vehicles such as multicopters are required to reduce the size and weight of the entire aircraft. However, if the number of mounted image sensors or the like is physically increased, there is a possibility that the entire body is enlarged and the weight is increased.

本開示は、このような状況に鑑みてなされたものであり、特に、無人型飛行体の機体の小型化および軽量化を図りつつ、複数のアルゴリズムを利用して飛行における安定性を向上できるようにするものである。   The present disclosure has been made in view of such a situation, and in particular, it is possible to improve stability in flight using a plurality of algorithms while reducing the size and weight of an unmanned air vehicle. It is to make.

本開示の一側面の飛行制御装置は、画像を撮像し、前記画像の一部の領域の画素信号を高速に読み出す撮像部と、機体の姿勢情報に基づいて、前記撮像部において、前記画素信号を高速に読み出す、前記画像の一部の領域を決定する姿勢領域変換部とを含む飛行制御装置である。   The flight control device according to one aspect of the present disclosure captures an image and reads out a pixel signal of a partial region of the image at high speed, and the pixel signal in the imaging unit based on attitude information of a fuselage Is a flight control device including a posture region conversion unit that determines a partial region of the image.

前記撮像部により読み出された画素信号に基づいて、前記機体の移動速度を算出する画像速度変換部と、前記機体の前記移動速度に基づいて、前記機体の前記姿勢情報を検出する姿勢検出部とをさらに含ませるようにすることができる。   An image speed conversion unit that calculates the moving speed of the aircraft based on the pixel signal read by the imaging unit, and an attitude detection unit that detects the attitude information of the aircraft based on the moving speed of the aircraft. And can be further included.

前記機体から地上面までの距離を高度情報として測定する高度測定部をさらに含ませるようにすることができ、前記画像速度変換部には、前記撮像部により読み出された画素信号、および高度情報に基づいて、前記機体の前記移動速度を算出させるようにすることができる。   An altitude measuring unit that measures the distance from the aircraft to the ground surface as altitude information can be further included. The image speed converting unit includes a pixel signal read by the imaging unit, and altitude information. Based on the above, the moving speed of the aircraft can be calculated.

前記高度測定部には、超音波を利用して、前記機体から地上面までの距離を高度情報として測定させ、前記画像速度変換部には、前記撮像部により読み出された画素信号、および前記高度情報に基づいて、前記機体の前記移動速度を算出させるようにすることができる。   The altitude measurement unit uses ultrasonic waves to measure the distance from the aircraft to the ground level as altitude information, and the image speed conversion unit includes the pixel signal read by the imaging unit, and The moving speed of the airframe can be calculated based on altitude information.

前記撮像部には、像面位相差画素を含ませるようにすることができ、前記高度測定部には、前記像面位相差画素より読み出される画素信号に基づいて、前記機体から地上面までの距離を高度情報として測定させ、前記画像速度変換部には、前記撮像部により読み出された画素信号、および前記高度情報に基づいて、前記機体の前記移動速度を算出させるようにすることができる。   The image pickup unit may include an image plane phase difference pixel, and the altitude measurement unit may include a signal from the body to the ground surface based on a pixel signal read from the image plane phase difference pixel. The distance can be measured as altitude information, and the image speed conversion unit can calculate the moving speed of the aircraft based on the pixel signal read by the imaging unit and the altitude information. .

前記撮像部の撮像方向を投光する投光部をさらに含ませるようにすることができ、前記投光部には、前記高度情報に基づいて、前記撮像方向を投光させるようにすることができる。   A light projecting unit that projects the image capturing direction of the image capturing unit may be further included, and the light projecting unit may project the image capturing direction based on the altitude information. it can.

前記投光部には、前記高度情報が、所定の高度よりも低く、十分に地上面を投光できる場合、前記撮像方向を投光させるようにすることができる。   When the altitude information is lower than a predetermined altitude and can sufficiently project the ground surface, the light projecting unit can project the imaging direction.

前記画像速度変換部には、前記撮像部により読み出された画素信号に基づいて、時間解像度を優先する第1のタイプのアルゴリズム、または、空間解像度を優先する第2のタイプのアルゴリズムのいずれかで前記機体の移動速度を算出させ、前記画像速度変換部が前記時間解像度を優先する第1のタイプのアルゴリズムで前記機体の移動速度を算出する場合、前記姿勢領域変換部には、前記姿勢検出部により検出された姿勢情報に基づいて、前記撮像部において、前記画素信号を高速に読み出す、前記画像の一部の第1の領域を決定させ、前記画像速度変換部が前記空間解像度を優先する第2のタイプのアルゴリズムで前記機体の移動速度を算出する場合、前記姿勢領域変換部には、前記撮像部において、前記画像の一部であって、前記第1の領域よりも広い第2の領域を決定させるようにすることができる。   The image speed conversion unit includes either a first type algorithm that prioritizes temporal resolution or a second type algorithm that prioritizes spatial resolution based on the pixel signal read by the imaging unit. The moving speed of the aircraft is calculated, and the moving speed of the aircraft is calculated by the first type algorithm in which the image speed converting unit prioritizes the time resolution, the posture detecting unit detects the posture detection Based on the posture information detected by the unit, the imaging unit reads out the pixel signal at high speed, determines a first region of a part of the image, and the image speed conversion unit gives priority to the spatial resolution When calculating the moving speed of the airframe by the second type algorithm, the posture region conversion unit includes a part of the image in the imaging unit, and the first region It may be so as to determine a wide second region than the region.

前記画像速度変換部が前記時間解像度を優先する第1のタイプのアルゴリズムで前記機体の移動速度を算出する場合、前記姿勢領域変換部により決定される、前記画素信号が高速に読み出される前記画像の一部の前記第1の領域は、前記撮像部における撮像視点から撮像面までの法線ベクトルと、前記撮像視点から鉛直方向であって、撮像面との交点に応じて設定される領域とすることができる。   When the image speed conversion unit calculates the moving speed of the aircraft with a first type of algorithm that prioritizes the time resolution, the pixel signal determined by the attitude region conversion unit is read out at high speed. A part of the first area is a normal vector from the imaging viewpoint to the imaging surface in the imaging unit and a vertical direction from the imaging viewpoint, and is an area set in accordance with an intersection with the imaging surface be able to.

前記撮像視点から鉛直方向であって、前記撮像面との交点に応じて設定される前記第1の領域は、前記交点を中心とした前記撮像面上の所定の半径からなる円状、または、楕円状の領域とすることができる。   The first region that is set in a vertical direction from the imaging viewpoint and that corresponds to the intersection with the imaging surface is a circle having a predetermined radius on the imaging surface with the intersection as the center, or It can be an elliptical region.

前記撮像視点から鉛直方向であって、前記撮像面との交点に応じて設定される前記第1の領域は、前記交点を中心とした前記撮像面上の所定の半径からなる円状、または、楕円状の範囲を囲む方形状の領域とすることができる。   The first region that is set in a vertical direction from the imaging viewpoint and that corresponds to the intersection with the imaging surface is a circle having a predetermined radius on the imaging surface with the intersection as the center, or It can be a rectangular region surrounding an elliptical range.

前記撮像部により撮像された画像を送信する送信部と、前記機体を遠隔から操作すると共に、前記送信部より送信されてくる画像を受信し表示する遠隔操作部とをさらに含ませるようにすることができる。   A transmission unit that transmits an image captured by the imaging unit, and a remote operation unit that operates the aircraft remotely and receives and displays an image transmitted from the transmission unit are further included. Can do.

前記送信部には、前記撮像部により撮像された画像を、前記画像が撮像されたときの前記機体の姿勢情報と対応付けて送信させ、前記遠隔操作部には、前記送信部より送信されてきた前記姿勢情報が対応付けられた前記画像を受信させ、前記画像のうち、前記姿勢情報に基づいて特定される所定の範囲の画像を抽出させ、抽出された画像を表示させるようにすることができる。   The transmission unit causes the image captured by the imaging unit to be transmitted in association with the attitude information of the aircraft when the image is captured, and the remote operation unit transmits the image from the transmission unit. Receiving the image associated with the posture information, extracting an image in a predetermined range specified based on the posture information from the image, and displaying the extracted image. it can.

本開示の一側面の飛行制御方法は、画像を撮像し、前記画像の一部の領域の画素信号を高速に読み出す撮像部を備えた飛行制御装置の飛行制御方法であって、前記撮像部において、前記画素信号を高速に読み出す、前記画像の一部の領域を決定するステップを含む飛行制御方法である。   A flight control method according to an aspect of the present disclosure is a flight control method for a flight control apparatus including an imaging unit that captures an image and reads out pixel signals of a partial region of the image at high speed. The flight control method includes a step of determining a partial region of the image from which the pixel signal is read at high speed.

本開示の一側面のプログラムは、画像を撮像し、前記画像の一部の領域の画素信号を高速に読み出す撮像部と、前記撮像部において、前記画素信号を高速に読み出す、前記画像の一部の領域を決定する姿勢領域変換部としてコンピュータを機能させるプログラムである。   A program according to one aspect of the present disclosure includes an imaging unit that captures an image and reads out pixel signals of a partial region of the image at high speed, and a part of the image that reads out the pixel signal at high speed in the imaging unit This is a program that causes a computer to function as a posture region conversion unit that determines the region.

本開示の一側面のマルチコプタは、画像を撮像し、前記画像の一部の領域の画素信号を高速に読み出す撮像部と、前記撮像部において、前記画素信号を高速に読み出す、前記画像の一部の領域を決定する姿勢領域変換部とを含むマルチコプタである。   A multicopter according to one aspect of the present disclosure captures an image and reads out a pixel signal of a partial region of the image at a high speed, and reads out the pixel signal at a high speed in the imaging unit. A multi-copter including a posture area conversion unit that determines the area of the image.

本開示の一側面においては、撮像部により、画像が撮像され、前記画像の一部の領域の画素信号が高速に読み出され、姿勢領域変換部により、前記撮像部において、前記画素信号が高速に読み出される、前記画像の一部の領域が決定される。   In one aspect of the present disclosure, an image is captured by the imaging unit, pixel signals of a partial region of the image are read at high speed, and the pixel signal is high-speed in the imaging unit by an attitude region conversion unit. A partial region of the image to be read out is determined.

本開示の一側面によれば、無人型飛行体の機体全体の小型化および軽量化を図りつつ、複数のアルゴリズムにより飛行における安定性を向上することが可能となる。   According to one aspect of the present disclosure, it is possible to improve stability in flight by using a plurality of algorithms while reducing the size and weight of the entire unmanned aircraft.

本開示を適用したマルチコプタおよび遠隔操作部の第1の実施の形態の構成例を説明する図である。It is a figure explaining the structural example of 1st Embodiment of the multicopter and the remote control part to which this indication is applied. 図1のマルチコプタにおける高解像度高速部分読み出しセンサの構成例を説明する図である。It is a figure explaining the structural example of the high-resolution high-speed partial readout sensor in the multicopter of FIG. 図1の飛行制御部による移動速度を算出する複数のアルゴリズムを説明する図である。It is a figure explaining the some algorithm which calculates the moving speed by the flight control part of FIG. 図1のマルチコプタおよび遠隔操作部による飛行制御処理を説明するフローチャートである。It is a flowchart explaining the flight control process by the multicopter of FIG. 1 and a remote control part. オプティカルフロータイプのアルゴリズムにおける処理を説明する図である。It is a figure explaining the process in an optical flow type algorithm. 画像内の高速で読み出す範囲を決定する手法を説明する図である。It is a figure explaining the method of determining the range read at high speed in an image. 画像内の高速で読み出す範囲を決定する手法を説明する図である。It is a figure explaining the method of determining the range read at high speed in an image. 画像内の高速で読み出す範囲を決定する手法を説明する図である。It is a figure explaining the method of determining the range read at high speed in an image. 図4の移動速度算出処理を説明するフローチャートである。It is a flowchart explaining the movement speed calculation process of FIG. 本開示を適用したマルチコプタおよび遠隔操作部の第2の実施の形態の構成例を説明する図である。It is a figure explaining the structural example of 2nd Embodiment of the multicopter and the remote control part to which this indication is applied. 図10のマルチコプタおよび遠隔操作部による飛行制御処理を説明するフローチャートである。It is a flowchart explaining the flight control process by the multicopter of FIG. 10, and a remote control part. 図11の画像処理を説明するフローチャートである。It is a flowchart explaining the image processing of FIG. 図11の画像処理を説明する図である。It is a figure explaining the image processing of FIG. 図10のマルチコプタによる投光制御処理を説明するフローチャートである。It is a flowchart explaining the light projection control process by the multicopter of FIG. 第1の変形例を説明する図である。It is a figure explaining a 1st modification. 第2の変形例を説明する図である。It is a figure explaining the 2nd modification. 第3の変形例を説明する図である。It is a figure explaining the 3rd modification. 第4の変形例を説明する図である。It is a figure explaining the 4th modification. 汎用のパーソナルコンピュータの構成例を説明する図である。And FIG. 11 is a diagram illustrating a configuration example of a general-purpose personal computer.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

また、以下の順序で説明を行う。
1.第1の実施の形態
2.第2の実施の形態
3.第1の変形例
4.第2の変形例
5.第3の変形例
6.第4の変形例
7.応用例
The description will be given in the following order.
1. 1. First embodiment 2. Second embodiment First Modified Example 4. Second modified example 5. Third modification 6. Fourth modification example 7. Application examples

<<1.第1の実施の形態>>
<マルチコプタの第1の実施の形態の構成例>
図1は、本開示を適用したマルチコプタの第1の実施の形態の構成例を示すブロック図である。図1のマルチコプタ11は、複数の回転翼を備えており、遠隔操作部12と通信し、遠隔操作により飛行が制御されるものである。
<< 1. First embodiment >>
<Example of Configuration of First Embodiment of Multicopter>
FIG. 1 is a block diagram illustrating a configuration example of a first embodiment of a multicopter to which the present disclosure is applied. The multicopter 11 of FIG. 1 includes a plurality of rotor blades, communicates with the remote control unit 12, and controls flight by remote control.

より詳細には、マルチコプタ11は、飛行制御部31および動力装置32を備えている。飛行制御部31は、高解像度高速部分読み出しセンサ52により撮像される画像に基づいて、自らの速度と姿勢を制御して、遠隔操作部12からの操作信号に基づいて、動力装置32を動作させ、飛行を制御する。また、飛行制御部31は、高解像度低速読み出しセンサ60により撮像される画像を、遠隔操作部12に送信して、表示させる。   More specifically, the multicopter 11 includes a flight control unit 31 and a power unit 32. The flight control unit 31 controls its own speed and posture based on the image captured by the high-resolution high-speed partial readout sensor 52 and operates the power unit 32 based on the operation signal from the remote operation unit 12. Control the flight. In addition, the flight control unit 31 transmits an image captured by the high-resolution low-speed readout sensor 60 to the remote operation unit 12 for display.

動力装置32は、例えば、複数の回転翼の動力を有し、飛行制御部31により制御され、マルチコプタ11の機体そのものを飛行させる。   The power unit 32 has power of a plurality of rotor blades, for example, and is controlled by the flight control unit 31 to fly the airframe itself of the multicopter 11.

より詳細には、飛行制御部31は、レンズ51、高解像度部分高速読み出しセンサ52、画像-速度変換部53、超音波測距センサ54、慣性航法装置55、PID制御装置56、遠隔操作受信部57、姿勢-領域変換部58、広角レンズ59、高解像度低速撮像センサ60、および、画像送信部61を備えている。尚、以降において、高解像度高速部分読み出しセンサ52、および高解像度低速撮像センサ60は、必要に応じて、単に、センサ52,60とも称するものとする。   More specifically, the flight control unit 31 includes a lens 51, a high-resolution partial high-speed readout sensor 52, an image-speed conversion unit 53, an ultrasonic distance measuring sensor 54, an inertial navigation device 55, a PID control device 56, a remote operation reception unit. 57, a posture-region conversion unit 58, a wide-angle lens 59, a high-resolution low-speed imaging sensor 60, and an image transmission unit 61. In the following, the high-resolution high-speed partial readout sensor 52 and the high-resolution low-speed imaging sensor 60 are also simply referred to as sensors 52 and 60 as necessary.

高解像度部分高速読み出しセンサ52は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどからなり、マルチコプタ11の機体に対して鉛直方向、すなわち、地上方向からレンズ51を介して入射する光により構成される画像(地上画像)を撮像し、画像-速度変換部53に供給する。高解像度高速読み出しセンサ52は、姿勢-領域変換部58より供給されてくる領域情報に基づいて、高解像度な画像を撮像すると共に、そのうちの部分的な一部の領域の画像を高速に読み出す。   The high-resolution partial high-speed readout sensor 52 is composed of a CMOS (Complementary Metal Oxide Semiconductor) image sensor or the like, and is an image constituted by light incident on the body of the multicopter 11 through the lens 51 from the vertical direction, that is, from the ground direction. (Ground image) is captured and supplied to the image-speed conversion unit 53. The high-resolution high-speed readout sensor 52 captures a high-resolution image based on the area information supplied from the posture-area conversion unit 58 and reads out an image of a partial partial area at high speed.

超音波測距センサ54は、マルチコプタ11の機体に対して鉛直方向、すなわち、地上方向に対して超音波を発して、地上から反射する超音波の往復時間を求め、地上までの距離を、マルチコプタ11の飛行高度(高度情報)として測定し、画像-速度変換部53に出力する。   The ultrasonic distance measuring sensor 54 emits an ultrasonic wave in the vertical direction, that is, the ground direction to the body of the multicopter 11, obtains a round-trip time of the ultrasonic wave reflected from the ground, and determines the distance to the ground as the multicopter. 11 as the flight altitude (altitude information) and output to the image-speed converter 53.

画像-速度変換部53は、センサ52より供給されてくる画像と、超音波測距センサ54より供給されてくる飛行高度(高度情報)とから、飛行速度(移動速度)を求め、速度情報として慣性航法装置55に供給すると共に、高度情報も供給する。画像-速度変換部53は、画像に基づいて求められた速度に応じて、次の画像を算出する際に、移動速度を求めるために利用するアルゴリズムを、2種類のアルゴリズムのいずれかより選択し、画像毎にアルゴリズムを切り替えて速度を算出する。この際、画像-速度変換部53は、次の画像を用いて移動速度を算出する際に利用するアルゴリズムの情報を姿勢-領域変換部58に供給する。   The image-speed conversion unit 53 obtains the flight speed (movement speed) from the image supplied from the sensor 52 and the flight altitude (altitude information) supplied from the ultrasonic distance measuring sensor 54, and as speed information. In addition to being supplied to the inertial navigation device 55, altitude information is also supplied. The image-speed conversion unit 53 selects an algorithm to be used for obtaining the moving speed from one of two types of algorithms when calculating the next image according to the speed obtained based on the image. The speed is calculated by switching the algorithm for each image. At this time, the image-speed conversion unit 53 supplies the posture-region conversion unit 58 with information on the algorithm used when calculating the moving speed using the next image.

慣性航法装置55は、供給される速度情報に基づいて、マルチコプタ11の地球上の位置、進行方向、および自らの姿勢を算出し、PID制御装置56に供給する。   The inertial navigation device 55 calculates the position of the multicopter 11 on the earth, the traveling direction, and its posture based on the supplied speed information, and supplies the calculated position to the PID control device 56.

遠隔操作受信部57は、遠隔操作部12より所定の周波数の電波により送信されてくる操作信号を受信し、受信した操作信号をPID制御装置56に供給する。   The remote operation receiving unit 57 receives an operation signal transmitted from the remote operation unit 12 by radio waves of a predetermined frequency and supplies the received operation signal to the PID control device 56.

姿勢-領域変換部58は、慣性航法装置55より供給されるマルチコプタ11の姿勢の情報である姿勢情報と、画像-速度変換部53より供給される次に撮像される画像を用いた速度を求める際のアルゴリズムとに基づいて、センサ52により撮像される画像のうち、読み出すべき領域の情報を求めてセンサ52に供給する。   The posture-region conversion unit 58 obtains the velocity using the posture information which is the posture information of the multicopter 11 supplied from the inertial navigation device 55 and the next imaged image supplied from the image-speed conversion unit 53. Based on the algorithm at the time, information on the area to be read out of the image captured by the sensor 52 is obtained and supplied to the sensor 52.

PID(Proportional Integral Derivative)制御装置56は、慣性航法装置55より供給されてくるマルチコプタ11の地球上の位置、進行方向、および自らの姿勢情報、並びに、遠隔操作受信部57より供給されてくる操作信号に基づいて、PID制御により、動力装置32を構成する複数の回転翼について個別に回転速度や、ヨーピッチロールを制御して飛行を制御する。   The PID (Proportional Integral Derivative) control device 56 is the position, traveling direction, and attitude information of the multicopter 11 supplied from the inertial navigation device 55, and the operation supplied from the remote operation receiving unit 57. Based on the signal, the PID control controls the flight by individually controlling the rotational speed and yaw pitch roll for the plurality of rotor blades constituting the power unit 32.

高解像度低速撮像センサ60は、マルチコプタ11の機体に対して周囲を見渡す方向の広角レンズ59を介して入射する光により構成される周囲を見渡す方向の広角の画像を、高解像度であるが、低フレームレートの画像で撮像し、画像送信部61に供給する。   The high-resolution low-speed imaging sensor 60 has a high-resolution, low-resolution image of a wide-angle direction that is composed of light incident through the wide-angle lens 59 in a direction that looks around the aircraft of the multicopter 11. A frame rate image is captured and supplied to the image transmission unit 61.

画像送信部61は、センサ60より供給されてくる画像を、所定の周波数の電波で遠隔操作部12に送信する。すなわち、センサ52により撮像される画像は、慣性航法装置55に供給される移動速度を画像-速度変換部53において求めるための画像であり、センサ60により撮像される画像は、遠隔操作部12に送信して、ビューイング画像として表示させるための画像である。   The image transmission unit 61 transmits the image supplied from the sensor 60 to the remote operation unit 12 using radio waves of a predetermined frequency. That is, the image captured by the sensor 52 is an image for obtaining the moving speed supplied to the inertial navigation device 55 by the image-speed conversion unit 53, and the image captured by the sensor 60 is transmitted to the remote operation unit 12. This is an image for transmission and display as a viewing image.

遠隔操作部12は、マルチコプタ11の、いわゆる、リモートコントローラと呼ばれるものであり、操作UI(User Interface)部71、遠隔操作送信部72、画像受信部73、および表示部74を備えている。   The remote operation unit 12 is a so-called remote controller of the multicopter 11, and includes an operation UI (User Interface) unit 71, a remote operation transmission unit 72, an image reception unit 73, and a display unit 74.

操作UI部71は、マルチコプタ11を遠隔操作するためのユーザインタフェースであり、例えば、操作レバーなどからなり、ユーザからの操作入力を受け付けて、対応する操作信号を遠隔操作送信部72に供給する。   The operation UI unit 71 is a user interface for remotely operating the multicopter 11. The operation UI unit 71 includes, for example, an operation lever and receives an operation input from the user and supplies a corresponding operation signal to the remote operation transmission unit 72.

遠隔操作送信部72は、操作UI部71より供給されてくる操作信号を、所定の周波数の電波等でマルチコプタ11における飛行制御部31の遠隔操作受信部57に送信する。   The remote operation transmission unit 72 transmits the operation signal supplied from the operation UI unit 71 to the remote operation reception unit 57 of the flight control unit 31 in the multicopter 11 by radio waves of a predetermined frequency.

画像受信部73は、マルチコプタ11より所定の周波数の電波により送信されてくる画像を受信し、表示部74に供給して表示させる。   The image receiving unit 73 receives an image transmitted from the multicopter 11 by a radio wave having a predetermined frequency, and supplies the image to the display unit 74 for display.

すなわち、このような構成により、遠隔操作部12を操作するユーザは、表示部74に表示される画像を見ながらマルチコプタ11の撮像方向や位置を確認しながら、マルチコプタ11を遠隔操作することが可能となる。   That is, with such a configuration, a user who operates the remote operation unit 12 can remotely operate the multicopter 11 while confirming the imaging direction and position of the multicopter 11 while viewing the image displayed on the display unit 74. It becomes.

<高解像度高速部分読み出しセンサの構成例>
次に、図2を参照して、高解像度高速部分読み出しセンサ52の詳細な構成例について説明する。
<Configuration example of high-resolution, high-speed partial readout sensor>
Next, a detailed configuration example of the high-resolution high-speed partial readout sensor 52 will be described with reference to FIG.

センサ52は、全体制御部91、画素アレー92、垂直制御部93、比較器カラム94−1,94−2、カウンタカラム95−1,95−2、水平制御部96−1,96−2、および出力制御部97を備えている。   The sensor 52 includes an overall control unit 91, a pixel array 92, a vertical control unit 93, comparator columns 94-1 and 94-2, counter columns 95-1 and 95-2, horizontal control units 96-1 and 96-2, And an output control unit 97.

全体制御部91は、センサ52の全体の動作を制御しており、姿勢-領域変換部58からの撮像された画像内のいずれの領域を読み出すべきかを示す領域の情報に基づいて、画像内の必要な領域の信号を読み出させる。   The overall control unit 91 controls the overall operation of the sensor 52, and based on the region information indicating which region in the captured image from the posture-region conversion unit 58 should be read out, The signal in the necessary area is read out.

画素アレー92は、単位画素がm行n列分だけ2次元配置され、このm行n列の画素配置に対して行毎に行制御線が配線され、列毎に列信号線が配線されている。各単位画素には、例えば、図中の左下部で示されるようなBayer配列のRGBのカラーフィルタが設けられており、対応する波長の画素信号が生成される。   In the pixel array 92, unit pixels are two-dimensionally arranged for m rows and n columns, row control lines are wired for each row, and column signal lines are wired for each column. Yes. Each unit pixel is provided with, for example, an RGB color filter with a Bayer array as shown in the lower left part of the figure, and a pixel signal with a corresponding wavelength is generated.

垂直制御部93は、シフトレジスタなどによって構成され、行制御線を介して画素アレー92の行アドレスや行走査を制御する。   The vertical control unit 93 is configured by a shift register or the like, and controls the row address and row scanning of the pixel array 92 via a row control line.

比較器カラム94−1,94−2は、画素アレー92のn列目の各単位画素から出力される信号に応じた垂直信号線の信号電圧と、ランプ波形の参照電圧Vrefとを比較する。比較器カラム94−1,94−2は、たとえば参照電圧Vrefが信号電圧よりも大きいときに出力Vcoが“H”レベルになり、参照電圧Vrefが信号電圧Vx以下のときに出力Vcoが“L”レベルになる。   The comparator columns 94-1 and 94-2 compare the signal voltage of the vertical signal line corresponding to the signal output from each unit pixel in the nth column of the pixel array 92 with the reference voltage Vref of the ramp waveform. For example, when the reference voltage Vref is larger than the signal voltage, the comparator columns 94-1 and 94-2 have the output Vco at "H" level, and when the reference voltage Vref is equal to or lower than the signal voltage Vx, the output Vco is "L". "Become level.

カウンタカラム95−1,95−2は、非同期のアップ/ダウンカウンタであり、図示せぬクロック回路からのクロック信号に同期してダウン(DOWN)カウントまたはアップ(UP)カウントを行うことにより、比較器カラム94−1,94−2での比較動作の開始から比較動作の終了までの比較期間を計測する。   The counter columns 95-1 and 95-2 are asynchronous up / down counters, which perform comparison by performing down (DOWN) counting or up (UP) counting in synchronization with a clock signal from a clock circuit (not shown). The comparison period from the start of the comparison operation in the instrument columns 94-1 and 94-2 to the end of the comparison operation is measured.

比較器カラム94−1,94−2、およびカウンタカラム95−1,95−2は、画素アレー92の各単位画素から列信号線を経由して列毎に供給されるアナログ信号を、Nビットのデジタル信号に変換して出力する。   The comparator columns 94-1 and 94-2 and the counter columns 95-1 and 95-2 receive an N-bit analog signal supplied from each unit pixel of the pixel array 92 via the column signal line for each column. Converted to a digital signal and output.

水平制御部96−1,96−2は、シフトレジスタなどによって構成され、比較器カラム94−1,94−2、およびカウンタカラム95−1,95−2におけるADC(Analogue Digital Converter)の列アドレスや列走査を制御する。   The horizontal control units 96-1 and 96-2 are configured by shift registers and the like, and column addresses of ADCs (Analogue Digital Converters) in the comparator columns 94-1 and 94-2 and the counter columns 95-1 and 95-2. And control column scanning.

出力制御部97は、カウンタカラム95−1,95−2より出力されるデジタル信号に変換された画素信号を出力する。   The output control unit 97 outputs the pixel signal converted into the digital signal output from the counter columns 95-1 and 95-2.

尚、比較器カラム94−1,94−2、カウンタカラム95−1,95−2、水平制御部96−1,96−2は、図中の上部および下部にそれぞれ設けられており、全体制御部91の制御により、例えば、比較器カラム94−1、カウンタカラム95−1、および水平制御部96−1と、比較器カラム94−2、カウンタカラム95−2、および水平制御部96−2との2系統に分けて動作を制御することで、2系統の画素信号を出力することができる。この結果、一方の系統で画素アレー92全体のうちの比較的広い領域の画素信号を読み出し、他方の系統で画素アレー92の一部の比較的狭い領域の画素信号を読み出すといったことも可能となる。   Note that the comparator columns 94-1 and 94-2, the counter columns 95-1 and 95-2, and the horizontal control units 96-1 and 96-2 are provided at the upper and lower portions in the figure, respectively, so as to control the entire system. Under the control of the unit 91, for example, the comparator column 94-1, the counter column 95-1, and the horizontal control unit 96-1, the comparator column 94-2, the counter column 95-2, and the horizontal control unit 96-2. By controlling the operation in two systems, two pixel signals can be output. As a result, it is possible to read out a pixel signal in a relatively wide area of the entire pixel array 92 with one system and to read out a pixel signal in a relatively narrow area of a part of the pixel array 92 with the other system. .

また、センサ60についても原則的な構造は、センサ52と同様であるが、画素アレー92の画素信号の読み出し速度よりも低速の読み出し速度であり、さらに、画素信号の読み出し系統も1系統である。ただし、センサ60の構成をセンサ52と同様にしてもよいものである。   The principle structure of the sensor 60 is the same as that of the sensor 52, but the reading speed is lower than the reading speed of the pixel signal of the pixel array 92. Further, the reading system of the pixel signal is one system. . However, the configuration of the sensor 60 may be the same as that of the sensor 52.

<アルゴリズム毎の必要とされる画像の違い>
次に、図3を参照して、画像-速度変換部53における移動速度を求めるためのアルゴリズム毎に必要とされる画像の違いについて説明する。
<Difference in image required for each algorithm>
Next, with reference to FIG. 3, the image difference required for each algorithm for obtaining the moving speed in the image-speed converting unit 53 will be described.

画像-速度変換部53は、センサ52より供給される画像に基づいて、マルチコプタ11の移動速度を算出する。この際、画像-速度変換部53は、直前の画像により求められた移動速度に応じて、2つのアルゴリズムを切り替えて移動速度を算出する。   The image-speed conversion unit 53 calculates the moving speed of the multicopter 11 based on the image supplied from the sensor 52. At this time, the image-speed conversion unit 53 calculates the movement speed by switching between the two algorithms according to the movement speed obtained from the immediately preceding image.

より具体的には、画像-速度変換部53は、コーナー検出器タイプのアルゴリズムと、オプティカルフロータイプのアルゴリズムとを切り替えて移動速度を検出する。   More specifically, the image-velocity conversion unit 53 detects a moving speed by switching between a corner detector type algorithm and an optical flow type algorithm.

コーナー検出器タイプのアルゴリズムとは、例えば、画像よりエッジ検出によりエッジが交差する点をコーナーと呼ばれる特徴点として検出し、前後する複数の画像内の特徴点の動きにより移動速度を求める。このコーナー検出器タイプのアルゴリズムの場合、画像内でコーナーが検出できない恐れがあるため、可能な限り広い範囲の画像であることが望ましい。つまり、コーナー検出器タイプのアルゴリズムは、空間解像度を優先する。しかしながら、広い領域の画像は、転送すべき画素数が増える分だけ、転送時間が掛かるため、画像の転送速度に限界がある。この結果、移動速度が所定速度より高速になると、画像の転送が遅れることにより、直前の画像で検出できたコーナーを、現在の画像で検出することができず、追跡できない状態となるためトラッキングエラーを起こして移動速度が求められなくなることがある。   With the corner detector type algorithm, for example, a point where edges intersect by edge detection is detected as a feature point called a corner from an image, and a moving speed is obtained by movement of feature points in a plurality of preceding and following images. In the case of this corner detector type algorithm, there is a possibility that the corner cannot be detected in the image, and therefore it is desirable that the image is as wide as possible. In other words, the corner detector type algorithm gives priority to spatial resolution. However, since an image of a wide area takes a transfer time as much as the number of pixels to be transferred increases, the transfer speed of the image is limited. As a result, if the moving speed is higher than the predetermined speed, the transfer of the image is delayed, and the corner that can be detected in the previous image cannot be detected in the current image, and the tracking error occurs. May cause the movement speed to become unsatisfactory.

一方、オプティカルフロータイプのアルゴリズムは、例えば、勾配法やブロックマッチング法により画素単位で、速度場のベクトル集合を求めて、マルチコプタ11の移動速度を求める。オプティカルフロータイプのアルゴリズムの場合、演算処理に時間が掛かるため、高解像度の画像を広範囲で処理しようとすると演算時間が爆発的に増えてしまう。また、移動速度が高速になるほど、フレームレートを高くしないとトラッキングエラーを発生させる恐れがある。つまり、オプティカルフロータイプのアルゴリズムは、時間解像度を優先する。   On the other hand, in the optical flow type algorithm, for example, a vector set of velocity fields is obtained for each pixel by a gradient method or a block matching method, and the moving speed of the multicopter 11 is obtained. In the case of an optical flow type algorithm, the calculation process takes time, and the calculation time increases explosively when an attempt is made to process a high-resolution image over a wide range. In addition, as the moving speed increases, a tracking error may occur unless the frame rate is increased. That is, the optical flow type algorithm gives priority to time resolution.

そこで、本開示の飛行制御部31においては、移動速度が比較的低速であるような場合については、図3の左部で示されるように、コーナー検出器タイプのアルゴリズムを採用し、センサ52の視点Q1から地上面Gに向かって撮像することで得られる地上面G1の範囲を撮像した撮像面Pのうちの一部であって、比較的広い領域P1が含まれた方形状の範囲を用いる。このような広い範囲の画像を用いることで、高解像度であるが低速での読み出し画像を利用することとし、コーナーの検出精度を高めることができ、トラッキングエラーの発生を抑制することができる。   Therefore, in the flight control unit 31 of the present disclosure, a corner detector type algorithm is employed as shown in the left part of FIG. A rectangular area including a relatively wide area P1 is used as a part of the imaging surface P obtained by imaging the range of the ground surface G1 obtained by imaging from the viewpoint Q1 toward the ground surface G. . By using such a wide range of images, a high-resolution but low-speed read image can be used, corner detection accuracy can be increased, and occurrence of tracking errors can be suppressed.

一方、移動速度が比較的高速であるような場合については、図3の右部で示されるように、オプティカルフロータイプのアルゴリズムを採用し、センサ52の視点Q2から地上面Gに向かって撮像することで得られる地上面G2の範囲を撮像した撮像面Pのうちの一部であって、比較的狭い領域P2が含まれた方形状の範囲を用いる。このような狭い範囲の画像を用いることで、低解像度であるが高速での読み出し画像を利用することとし、オプティカルフローの精度を高め、トラッキングエラーの発生を抑制することができる。   On the other hand, when the moving speed is relatively high, as shown in the right part of FIG. 3, an optical flow type algorithm is employed and imaging is performed from the viewpoint Q2 of the sensor 52 toward the ground surface G. A rectangular range including a relatively narrow region P2 that is a part of the imaging surface P obtained by imaging the range of the ground surface G2 obtained in this manner is used. By using an image in such a narrow range, it is possible to use a low-resolution but high-speed read image, to increase the accuracy of optical flow, and to suppress the occurrence of tracking errors.

尚、ここでいう読み出しが低速であるとは、高解像度で広い領域を読み出す範囲が広いときは、狭い範囲の画像を読み出すときよりも、対象となる画素数が増大する分だけ読み出しに時間が必要であることから低速であるということを示すものである。また、より解像度が高いとは、広い範囲の画像であることを示すものであり、狭い範囲の画像よりも解像度が高く、対象となる画素数が多いことを示している。すなわち、1画素や1ライン画素などの読み出し単位当たりの読み出し速度は、いずれにおいても同等であることを前提としたものである。   Note that the low-speed reading here means that when the range of reading a wide area with high resolution is wide, the time required for reading is increased by the increase in the number of target pixels than when reading an image of a narrow area. It indicates that it is slow because it is necessary. Further, higher resolution means that the image is in a wide range, which means that the resolution is higher than that in a narrow range image and the number of target pixels is large. That is, it is assumed that the reading speed per reading unit of one pixel or one line pixel is the same in any case.

<図1のマルチコプタと遠隔操作部とによる飛行制御処理>
次に、図4のフローチャートを参照して、図1のマルチコプタ11と遠隔操作部12とによる飛行制御処理について説明する。
<Flight control processing by multi-copter and remote control unit in FIG. 1>
Next, a flight control process by the multicopter 11 and the remote control unit 12 of FIG. 1 will be described with reference to the flowchart of FIG.

ステップS11において、操作UI部71は、操作入力のタイミングか否かを判定し、操作入力のタイミングであった場合、処理は、ステップS12に進む。   In step S11, the operation UI unit 71 determines whether or not it is an operation input timing. If it is the operation input timing, the process proceeds to step S12.

ステップS12において、操作UI部71は、操作入力を受け付けて、対応する操作信号を遠隔操作送信部72に供給する。遠隔操作送信部72は、受け付けた操作信号を所定の周波数の電波で、マルチコプタ11に送信する。   In step S <b> 12, the operation UI unit 71 receives an operation input and supplies a corresponding operation signal to the remote operation transmission unit 72. The remote operation transmission unit 72 transmits the received operation signal to the multicopter 11 with a radio wave having a predetermined frequency.

一方、ステップS21において、マルチコプタ11の慣性航法装置55は、姿勢情報を更新し、現在の姿勢情報を姿勢-領域変換部58に供給する。最初の処理においては、デフォルトの状態で、例えば、地上に着陸した状態の機体の姿勢情報が供給されるようにしてもよい。   On the other hand, in step S <b> 21, the inertial navigation device 55 of the multicopter 11 updates the posture information and supplies the current posture information to the posture-region converting unit 58. In the first process, for example, attitude information of the aircraft that has landed on the ground may be supplied in a default state.

ステップS22において、姿勢-領域変換部58は、現時点でのアルゴリズムに基づいて、センサ52により撮像される領域のどの領域を読み出すのかを示す領域情報を生成して高解像度高速部分読み出しセンサ52に供給する。   In step S <b> 22, the posture-region conversion unit 58 generates region information indicating which region of the region imaged by the sensor 52 is read based on the current algorithm, and supplies the region information to the high-resolution / high-speed partial read sensor 52. To do.

例えば、現時点のアルゴリズムが、コーナー検出器タイプのアルゴリズムである場合、図3の左部を参照して説明したように、センサ52により撮像可能な範囲の比較的広い範囲の画像を読み出すように領域情報が設定される。   For example, if the current algorithm is a corner detector type algorithm, as described with reference to the left part of FIG. Information is set.

一方、現時点のアルゴリズムが、オプティカルフロータイプのアルゴリズムである場合、図3の右部のようにセンサ52により撮像可能な範囲のうちの、地上面G2の範囲を撮像した撮像面Pのうちの領域P2の画像を読み出すように領域情報が設定される。ただし、この場合、地上面G2を正確に含む領域P2を設定する必要がある。   On the other hand, if the current algorithm is an optical flow type algorithm, the area of the imaging plane P that images the range of the ground plane G2 in the range that can be imaged by the sensor 52 as shown in the right part of FIG. Area information is set so as to read the image of P2. However, in this case, it is necessary to set a region P2 that accurately includes the ground surface G2.

すなわち、マルチコプタ11は、機体が平地に着陸した状態のまま飛行しているような場合、図5の右部で示されるように、視点Q2から地上面G方向を撮像する地上面Gと撮像面Pとの平行状態が維持されるため、撮像領域P1は、撮像面Pのほぼ中心に設定されることになる。   That is, when the aircraft is flying in a state where the aircraft has landed on a flat ground, as shown in the right part of FIG. 5, the ground surface G and the imaging surface that image the ground surface G direction from the viewpoint Q <b> 2. Since the parallel state with P is maintained, the imaging region P1 is set substantially at the center of the imaging surface P.

しかしながら、マルチコプタ11は、飛行中においては、様々な方向に機体が傾いた状態で飛行する。このため、例えば、図5の左部で示されるように、マルチコプタ11が鉛直方向に対して角度θだけ傾いた場合、撮像面Pの法線Nが鉛直方向に対して角度θをなすことにより、撮像面Pは、地上面Gに対して平行ではなくなるので、地上面G2が撮像されている撮像面P上の領域は、領域P1’となる。   However, the multicopter 11 flies with the aircraft tilted in various directions during flight. Therefore, for example, as shown in the left part of FIG. 5, when the multicopter 11 is inclined by the angle θ with respect to the vertical direction, the normal line N of the imaging surface P makes an angle θ with respect to the vertical direction. Since the imaging surface P is not parallel to the ground surface G, the region on the imaging surface P where the ground surface G2 is imaged is a region P1 ′.

したがって、現時点のアルゴリズムが、オプティカルフロータイプのアルゴリズムである場合、図5で示される撮像面P上の地上面G2の撮像領域となる領域P1’を求めて、この領域P1’に対応する領域情報をセンサ52に供給する必要がある。   Therefore, when the current algorithm is an optical flow type algorithm, a region P1 ′ that is an imaging region of the ground surface G2 on the imaging surface P shown in FIG. 5 is obtained, and region information corresponding to this region P1 ′ is obtained. Needs to be supplied to the sensor 52.

そこで、姿勢-領域変換部58は、図6で示されるように、視点Q2を起点とする撮像面Pの法線ベクトル[n]を定義し、さらに、視点Q2を起点とする鉛直方向であって、撮像面Pとの交点を終点とするベクトル[c]を設定するとき、ベクトル[c]を鉛直方向の単位ベクトル[g]のk倍であるものとする([c]=k×[g])。   Therefore, as shown in FIG. 6, the posture-region conversion unit 58 defines a normal vector [n] of the imaging plane P starting from the viewpoint Q2, and further, the posture-region conversion unit 58 is in the vertical direction starting from the viewpoint Q2. When the vector [c] whose end point is the intersection with the imaging plane P is set, the vector [c] is assumed to be k times the unit vector [g] in the vertical direction ([c] = k × [ g]).

尚、本明細書中では、[A]と表記することで、ベクトルAと表すものとするが、図中においては、A上に矢印を付して、一般的な数式におけるベクトルAを表すものとする。   In the present specification, [A] represents the vector A. In the drawing, an arrow is added to A to represent the vector A in a general mathematical expression. And

そして、姿勢-領域変換部58は、ベクトル([c]−[n])とベクトル[n]との内積が0となるベクトル[c]を定義して、図7の上段で示されるように、このベクトル[c]の撮像面P上の交点となる位置(図中の黒丸)を中心とした所定の半径の円状の範囲である領域P1’に地上面G1が撮像されているものとみなす。すなわち、図中の黒丸で示される交点は、本質的には鉛直方向を向いた視線と撮像面との交点である。ここで、センサ52上の一部の領域を特定するにあたっては水平方向および垂直方向のそれぞれの座標で管理する方が容易である場合は、さらに、姿勢-領域変換部58は、例えば、図7の下段で示される実線で囲まれるようなx×yの矩形の領域Zを撮像面Pより読み出す領域情報として設定するようにしてもよい。   Then, the posture-region conversion unit 58 defines a vector [c] in which the inner product of the vector ([c]-[n]) and the vector [n] is 0, as shown in the upper part of FIG. The ground surface G1 is imaged in a region P1 ′ that is a circular range with a predetermined radius centering on a position (black circle in the figure) that is the intersection point of the vector [c] on the imaging surface P. I reckon. That is, the intersection indicated by the black circle in the figure is essentially the intersection between the line of sight facing the vertical direction and the imaging surface. Here, when it is easier to specify a part of the area on the sensor 52 by using the coordinates in the horizontal direction and the vertical direction, the posture-area conversion unit 58 further includes, for example, FIG. An x × y rectangular area Z surrounded by a solid line shown in the lower row may be set as area information to be read from the imaging surface P.

尚、レンズ51を超広角レンズや魚眼レンズとするような場合、像面における光軸と像点の距離である像高が高くなるほど、地上面の撮像領域には歪が生じ易くなる。そこで、図8で示されるように、撮像面Pの中心位置付近であれば、領域P1aで示されるように真円に近い円状の領域を地上面の撮像領域として設定するようにし、撮像面Pの端部に近い範囲に進むほど、例えば、領域P1b乃至P1eで示されるような楕円状の領域を基準として読み出し領域を設定するようにしてもよい。   When the lens 51 is a super-wide-angle lens or a fish-eye lens, the higher the image height, which is the distance between the optical axis and the image point on the image plane, the more easily distortion occurs in the imaging area on the ground surface. Therefore, as shown in FIG. 8, if it is near the center position of the imaging plane P, a circular area close to a perfect circle as shown by the area P1a is set as the imaging area on the ground surface. For example, the reading area may be set with reference to an elliptical area as indicated by the areas P1b to P1e as the area moves closer to the end of P.

ここで、図4のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS23において、センサ52は、画素アレー92上の画素信号のうち、姿勢-領域変換部58より供給されてきた領域情報に基づいて設定される撮像領域の一部の領域で所定時間だけ露光する。ただし、ここでいう撮像領域の一部の領域は、コーナー検出器タイプのアルゴリズムにおける場合のように、撮像領域の全領域に近い比較的広い範囲である場合を含むものである。   In step S <b> 23, the sensor 52 performs exposure for a predetermined time in a part of the imaging region set based on the region information supplied from the posture-region converting unit 58 among the pixel signals on the pixel array 92. . However, a part of the imaging region mentioned here includes a case where the imaging region is a relatively wide range close to the entire imaging region, as in the corner detector type algorithm.

ステップS24において、センサ52は、姿勢-領域変換部58より指定された領域の画素信号を読み出し、読み出した画素信号からなる画像を画像-速度変換部53に供給する。この処理は、図2の、比較器カラム94−1,94−2、カウンタカラム95−1,95−2、および水平制御部96−1,96−2で示されるように、それぞれが2個ずつ、上部および下部に構成されているような場合、例えば、コーナー検出器タイプのアルゴリズムであるときには、画素アレー92の一部であって、比較的広い領域の画素信号を比較器カラム94−1、カウンタカラム95−1、および水平制御部96−1が読み出し、オプティカルフロータイプのアルゴリズムであるときには、画素アレー92の一部であって、比較的狭い領域の画素信号を、比較器カラム94−2、カウンタカラム95−2、および水平制御部96−2が読み出すといったように、読み出し動作を分けるようにしてもよい。この時、異なるアナログゲインを用いて読み出しても良い。   In step S <b> 24, the sensor 52 reads out the pixel signal in the region designated by the posture-region conversion unit 58 and supplies an image composed of the read pixel signal to the image-speed conversion unit 53. As shown in FIG. 2, the comparator columns 94-1 and 94-2, the counter columns 95-1 and 95-2, and the horizontal control units 96-1 and 96-2 each have two processes. For example, in the case of a corner detector type algorithm, the pixel signal of a comparatively wide area, which is a part of the pixel array 92, is formed in the comparator column 94-1. When the counter column 95-1 and the horizontal control unit 96-1 read out and are an optical flow type algorithm, a pixel signal of a relatively narrow area, which is a part of the pixel array 92, is compared with the comparator column 94-. 2, the reading operation may be divided so that the counter column 95-2 and the horizontal control unit 96-2 read. At this time, reading may be performed using different analog gains.

ステップS25において、超音波センサ54は、距離情報を超音波により測定し、測定した距離情報を飛行高度(高度情報)として画像-速度変換部53に供給する。   In step S <b> 25, the ultrasonic sensor 54 measures the distance information using ultrasonic waves, and supplies the measured distance information to the image-speed conversion unit 53 as the flight altitude (altitude information).

ステップS26において、画像-速度変換部53は、移動速度算出処理を実行して、センサ52より供給されてきた画像に基づいて、移動速度を算出すると共に、次の処理において移動速度を算出する際のアルゴリズムを選択する。   In step S <b> 26, the image-speed conversion unit 53 executes the movement speed calculation process, calculates the movement speed based on the image supplied from the sensor 52, and calculates the movement speed in the next process. Select the algorithm.

<移動速度算出処理>
ここで、図9のフローチャートを参照して、移動速度算出処理について説明する。
<Movement speed calculation process>
Here, the movement speed calculation process will be described with reference to the flowchart of FIG.

ステップS41において、画像-速度変換部53は、現在設定されているアルゴリズムが、オプティカルフロータイプのアルゴリズムであるか否かを判定する。ステップS31において、例えば、オプティカルフロータイプのアルゴリズムが設定されている場合、処理は、ステップS42に進む。   In step S41, the image-speed conversion unit 53 determines whether or not the currently set algorithm is an optical flow type algorithm. In step S31, for example, when an optical flow type algorithm is set, the process proceeds to step S42.

ステップS42において、画像-速度変換部53は、オプティカルフロータイプのアルゴリズムでセンサ52より供給されてきた画像に基づいて移動速度を算出し、慣性航法装置55に供給する。すなわち、この場合、指定された一部であって、かつ、比較的狭い領域の画素信号のみが、高いフレームレートで読み出されることにより、オプティカルフロータイプのアルゴリズムで、比較的高速であるときの移動速度が算出される。   In step S <b> 42, the image-velocity conversion unit 53 calculates the moving speed based on the image supplied from the sensor 52 using an optical flow type algorithm, and supplies it to the inertial navigation device 55. That is, in this case, only the pixel signal of a specified part and a relatively narrow area is read out at a high frame rate, so that the optical flow type algorithm moves at a relatively high speed. The speed is calculated.

ステップS43において、画像-速度変換部53は、算出された移動速度が所定速度よりも低速であって、かつ、画像のテクスチャ性が所定値よりも強いかを判定する。ステップS43において、例えば、算出された移動速度が、所定速度よりも低速であるか、または、画像のテクスチャ性が強い場合、処理は、ステップS44に進む。   In step S43, the image-speed conversion unit 53 determines whether the calculated moving speed is lower than a predetermined speed and the texture of the image is stronger than a predetermined value. In step S43, for example, if the calculated moving speed is lower than the predetermined speed or the texture of the image is strong, the process proceeds to step S44.

ステップS44において、画像-速度変換部53は、次の画像を利用した移動速度を算出する際のアルゴリズムを、コーナー検出器タイプのアルゴリズムに設定し、設定されたアルゴリズムの情報を姿勢-領域変換部58に供給する。すなわち、現在の移動速度が高速ではなく画素アレー92の比較的広い領域の画素信号の読み出しが可能であって、かつ、テクスチャ性が強くコーナーの検出が比較的容易であるような場合、コーナー検出器タイプのアルゴリズムにより移動速度を算出するように設定する。   In step S44, the image-speed conversion unit 53 sets an algorithm for calculating the moving speed using the next image to a corner detector type algorithm, and sets the information about the set algorithm as the posture-region conversion unit. 58. That is, when the current moving speed is not high and the pixel signal of a relatively wide area of the pixel array 92 can be read and the texture is strong and the corner can be detected relatively easily, the corner detection is performed. It is set to calculate the moving speed by a container type algorithm.

一方、ステップS43において、算出された移動速度が、所定速度よりも高速である、または、画像のテクスチャ性が弱い場合、処理は、ステップS47に進む。   On the other hand, if the calculated moving speed is higher than the predetermined speed in step S43 or the texture property of the image is weak, the process proceeds to step S47.

ステップS47において、画像-速度変換部53は、次の画像を用いて移動速度を算出する際には、オプティカルフロータイプのアルゴリズムにより算出するように設定し、設定されたアルゴリズムの情報を姿勢-領域変換部58に供給する。すなわち、この場合、センサ52の一部であって、比較的広い範囲が必要となるコーナー検出器タイプのアルゴリズムでは画素信号の転送が困難であり、さらに、テクスチャ性が低いような場合、コーナー検出器タイプのアルゴリズムでは、コーナーの検出が困難であるので、オプティカルフロータイプのアルゴリズムとされる。   In step S47, the image-velocity conversion unit 53 is set to calculate with the optical flow type algorithm when calculating the movement speed using the next image, and the information on the set algorithm is set to the posture-region. This is supplied to the conversion unit 58. That is, in this case, it is difficult to transfer a pixel signal with a corner detector type algorithm that is a part of the sensor 52 and requires a relatively wide range. Further, when the texture property is low, corner detection is performed. Since it is difficult to detect corners with a container type algorithm, it is an optical flow type algorithm.

さらに、ステップS41において、現状のアルゴリズムが、オプティカルフロータイプのアルゴリズムではなく、コーナー検出器タイプのアルゴリズムである場合、処理は、ステップS45に進む。   Furthermore, in step S41, when the current algorithm is not an optical flow type algorithm but a corner detector type algorithm, the process proceeds to step S45.

ステップS45において、画像-速度変換部53は、コーナー検出器タイプのアルゴリズムで移動速度を算出し、慣性航法装置55に供給する。すなわち、この場合、一部であって、比較的広い領域の画素信号が、低いフレームレートで読み出されることにより、コーナー検出器タイプのアルゴリズムで、比較的低速であるときの移動速度が算出される。   In step S <b> 45, the image-velocity conversion unit 53 calculates the moving speed using a corner detector type algorithm, and supplies it to the inertial navigation device 55. That is, in this case, pixel signals in a part and a relatively wide area are read out at a low frame rate, so that a moving speed at a relatively low speed is calculated by a corner detector type algorithm. .

ステップS46において、画像-速度変換部53は、算出された移動速度が、所定速度よりも高速であるか、または、トラッカが少ないかのいずれかであるかを判定する。ステップS46において、算出された移動速度が、所定速度よりも高速である、または、トラッカが少ないかのいずれかである場合、センサ52の一部であって、比較的広い領域の画像を転送するのが困難であり、または、トラッカが少ないのでコーナーの検出が困難であるので、処理は、ステップS47に進み、オプティカルフロータイプのアルゴリズムが選択される。なお、トラッカとは、コーナー検出器タイプのアルゴリズムの計算過程で得られる画像中に疎に点在するコーナーを検出し追跡する特徴点の事である。   In step S46, the image-speed conversion unit 53 determines whether the calculated moving speed is higher than a predetermined speed or there are few trackers. In step S46, when the calculated moving speed is either higher than the predetermined speed or the tracker is low, an image of a relatively wide area that is a part of the sensor 52 is transferred. Since it is difficult to detect corners because there are few trackers, the process proceeds to step S47, and an optical flow type algorithm is selected. The tracker is a feature point for detecting and tracking corners scattered sparsely in an image obtained in the calculation process of the corner detector type algorithm.

一方、ステップS46において、算出された移動速度が、所定速度よりも低速で、かつ、トラッカが多い場合、処理は、センサ52の一部であって、比較的広い領域の画像を転送することが可能であり、かつ、コーナーの検出が比較的容易であるので、処理は、ステップS44に進み、コーナー検出器タイプのアルゴリズムが選択される。   On the other hand, in step S46, when the calculated moving speed is lower than the predetermined speed and there are many trackers, the process is a part of the sensor 52, and an image of a relatively wide area can be transferred. Since this is possible and corner detection is relatively easy, the process proceeds to step S44 where a corner detector type algorithm is selected.

以上の処理により、移動速度が算出されて、慣性航法装置55に供給されると共に、算出された移動速度に応じて、次の画像を利用した移動速度の算出に使用されるアルゴリズムが選択されて、姿勢-領域変換部58に通知される。   Through the above processing, the moving speed is calculated and supplied to the inertial navigation device 55, and an algorithm used for calculating the moving speed using the next image is selected according to the calculated moving speed. The posture-region converting unit 58 is notified.

ここで、図4のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS27において、慣性航法装置55は、移動速度を示す速度情報に基づいて、マルチコプタ11の位置、速度、および姿勢を再計算し、姿勢情報を姿勢-領域変換部58に供給すると共に、位置、速度、および姿勢の情報をPID制御装置56に供給する。そして、PID制御装置56は、この位置、速度、および姿勢に加えて、遠隔操作受信部57より供給されてくる遠隔操作部12における操作内容に対応した操作信号に応じて、動力装置32を動作させて、飛行を制御する。   In step S27, the inertial navigation device 55 recalculates the position, speed, and posture of the multicopter 11 based on the speed information indicating the moving speed, and supplies the posture information to the posture-region converting unit 58. Information on the speed and attitude is supplied to the PID controller 56. The PID control device 56 operates the power device 32 in accordance with the operation signal corresponding to the operation content in the remote operation unit 12 supplied from the remote operation reception unit 57 in addition to the position, speed, and posture. Let's control the flight.

ステップS28において、高解像度低速撮像センサ60は、画素全体の露光を開始すべきタイミングになったか否かを判定し、例えば、露光を開始すべきタイミングになったとみなされた場合、処理は、ステップS29に進む。   In step S28, the high-resolution low-speed imaging sensor 60 determines whether or not it is time to start exposure of the entire pixel. For example, if it is determined that it is time to start exposure, the process proceeds to step S28. Proceed to S29.

ステップS29において、センサ60は、全画素を所定時間だけ露光を開始する。尚、ステップS28において、露光を開始すべきタイミングではない場合、ステップS29の処理がスキップされる。   In step S29, the sensor 60 starts exposure of all pixels for a predetermined time. In step S28, if it is not time to start exposure, the process of step S29 is skipped.

ステップS30において、センサ60は、露光を開始してから所定時間が経過し、露光終了か否かを判定し、所定時間が経過していない場合、処理は、ステップS33に進む。   In step S30, the sensor 60 determines whether or not the predetermined time has elapsed since the start of exposure and the exposure has ended. If the predetermined time has not elapsed, the process proceeds to step S33.

ステップS33において、遠隔操作受信部57は、遠隔操作部12からの操作信号に基づいて、動作の終了が指示されたか否かを判定し、終了が指示されていないと判定した場合、処理は、ステップS21に戻る。そして、操作信号に基づいて、終了が指示されていた場合、処理は、終了する。   In step S33, the remote operation receiving unit 57 determines whether or not the end of the operation is instructed based on the operation signal from the remote operation unit 12, and if it is determined that the end is not instructed, the process is as follows. Return to step S21. If the end is instructed based on the operation signal, the process ends.

すなわち、センサ60について、終了指示がなく、かつ、露光時間が継続している限り、ステップS21乃至S30の処理が繰り返されて露光状態が継続される。すなわち、センサ60は、センサ52よりも読み出しが低速の画像であるので、センサ60の1回の露光と読み出しの間に、センサ52における露光と読み出しの処理は複数回数繰り返される。   That is, for the sensor 60, as long as there is no end instruction and the exposure time continues, the processing of steps S21 to S30 is repeated and the exposure state is continued. That is, since the sensor 60 is an image whose reading is slower than the sensor 52, the exposure and reading processes in the sensor 52 are repeated a plurality of times during one exposure and reading of the sensor 60.

そして、ステップS30において、センサ60の露光が終了であるとみなされた場合、処理は、ステップS31に進む。   If it is determined in step S30 that the exposure of the sensor 60 is complete, the process proceeds to step S31.

ステップS31において、センサ60は、自らの全画素の画素信号を読み出して、画像送信部61に供給する。   In step S <b> 31, the sensor 60 reads out pixel signals of all its own pixels and supplies them to the image transmission unit 61.

ステップS32において、画像送信部61は、読み出された画素信号からなる画像を遠隔操作部12に送信する。   In step S <b> 32, the image transmission unit 61 transmits an image composed of the read pixel signals to the remote operation unit 12.

ステップS13において、画像受信部73は、マルチコプタ11より画像が送信されてきたか否かを判定する。ステップS13において、画像が送信されてきたとみなされた場合、処理は、ステップS14に進む。   In step S <b> 13, the image receiving unit 73 determines whether an image has been transmitted from the multicopter 11. If it is determined in step S13 that an image has been transmitted, the process proceeds to step S14.

ステップS14において、画像受信部73は、送信されてきた画像を受信する。   In step S <b> 14, the image receiving unit 73 receives the transmitted image.

ステップS15において、画像受信部73は、受信した送信画像を表示部74に表示させる。   In step S15, the image receiving unit 73 displays the received transmission image on the display unit 74.

ステップS16において、操作UI部71は、受け付けられた操作入力が終了を指示するものであるか否かを判定し、終了ではない場合、処理は、ステップS11に戻る。また、ステップS11において、操作入力が受け付けられていない場合、ステップS12の処理がスキップされ、ステップS13において、画像が送信されてこない場合、ステップS14,S15の処理がスキップされる。   In step S16, the operation UI unit 71 determines whether or not the accepted operation input is an instruction to end, and if not, the process returns to step S11. If no operation input is accepted in step S11, the process of step S12 is skipped. If no image is transmitted in step S13, the processes of steps S14 and S15 are skipped.

そして、ステップS16において、終了が指示されていた場合、処理は、終了する。   If the end is instructed in step S16, the process ends.

以上の処理により、移動速度に応じて、アルゴリズムを切り替えるようにしたので、移動速度が低速時であって、かつ、コーナーが検出し易い場合には、コーナー検出器タイプのアルゴリズムで、高解像度の画像の一部であって、比較的広い領域を利用して、適切にコーナーを検出して、移動速度を算出するようにした。また、移動速度が高速時である、または、コーナー検出が困難であるような場合には、地上面が撮像されている、一部であって、比較的狭い領域の低解像度の画像を高速に読み出して、オプティカルフロータイプのアルゴリズムにより移動速度を算出するようにした。   With the above processing, the algorithm is switched according to the moving speed. Therefore, when the moving speed is low and corners are easy to detect, the corner detector type algorithm Using a relatively wide area that is part of the image, corners are detected appropriately and the movement speed is calculated. In addition, when the moving speed is high or corner detection is difficult, a low-resolution image of a part of a relatively narrow area where the ground surface is imaged can be quickly It was read out and the movement speed was calculated by an optical flow type algorithm.

これにより、移動速度に応じて、センサ52の地上面が撮像されている撮像領域の一部であって、比較的広い領域、または、地上面が撮像されている撮像領域の一部であって、比較的狭い領域の画像を読み出すようにして、かつ、アルゴリズムを切り替えて移動速度を検出することが可能となる。結果として、複数のアルゴリズムであっても、それぞれのアルゴリズムに対応する画像を、撮像領域を調整することで、単独のセンサ52で撮像することが可能となり、機体の小型化、および軽量化を図りつつ、飛行制御の精度を向上させることが可能となる。   Accordingly, depending on the moving speed, the sensor 52 is a part of the imaging region where the ground surface is imaged, and a relatively wide region or a part of the imaging region where the ground surface is imaged. The moving speed can be detected by reading an image in a relatively narrow area and switching the algorithm. As a result, even with a plurality of algorithms, it is possible to capture images corresponding to each algorithm with the single sensor 52 by adjusting the imaging region, thereby reducing the size and weight of the aircraft. However, it is possible to improve the accuracy of flight control.

また、ビューイングの画像を表示し続けることが可能となる。なお、上記の説明では地上面を撮像してオプティカルフローを求めると同時に地上面との距離を計測して地上面に対する相対的な速度を算出した。しかしながら、その対象は地上面に限らず、例えば、室内の天井や側面壁など鉛直方向ではない方向に対する相対速度を求めることは同様に可能である。また、移動速度を検出するに当たって、時間解像度を優先するアルゴリズムとして、オプティカルフロータイプのアルゴリズムを利用し、空間解像度を優先するアルゴリズムとしてコーナー検出器タイプのアルゴリズムを利用する例について説明してきたが、それぞれ、時間解像度、および空間解像度を優先するアルゴリズムであれば、他のアルゴリズムでもよいものである。   It is also possible to continue displaying the viewing image. In the above description, an optical flow is obtained by imaging the ground surface, and at the same time, a distance from the ground surface is measured to calculate a relative speed with respect to the ground surface. However, the target is not limited to the ground surface, and for example, it is possible to obtain a relative speed with respect to a direction other than the vertical direction such as an indoor ceiling or a side wall. In addition, in detecting the moving speed, an example has been described in which an optical flow type algorithm is used as an algorithm giving priority to temporal resolution, and a corner detector type algorithm is used as an algorithm giving priority to spatial resolution. Other algorithms may be used as long as they give priority to temporal resolution and spatial resolution.

<<2.第2の実施の形態>>
<マルチコプタの第2の実施の形態の構成例>
以上においては、移動速度を算出するために必要とされる画像を撮像するセンサと、ビューイングに必要とされる画像を撮像するセンサとを個別に設ける構成例について説明してきたが、超広角の1枚の画像を撮像して、そのうちの一部を、移動速度を算出するための画像として利用し、さらに、別の一部をビューイングに用いるようにしてもよい。
<< 2. Second embodiment >>
<Example of Configuration of Second Embodiment of Multicopter>
In the above, a configuration example has been described in which a sensor that captures an image necessary for calculating the moving speed and a sensor that captures an image necessary for viewing are individually provided. One image may be captured, and a part of the image may be used as an image for calculating the moving speed, and another part may be used for viewing.

図10は、超広角の1枚の画像を撮像して、そのうちの一部を、移動速度を算出するための画像として利用し、さらに、別の一部をビューイングに用いるようにしたマルチコプタ11と遠隔操作部12との構成例を示している。   FIG. 10 shows a multi-copter 11 in which a single super wide-angle image is captured, a part of which is used as an image for calculating the moving speed, and another part is used for viewing. The example of a structure with the remote control part 12 is shown.

尚、図10のマルチコプタ11、および遠隔操作部12において、図1のマルチコプタ11、および遠隔操作部12における構成と同一の機能を備えた構成については、同一の符号、および同一の名称を付しており、その説明は適宜省略するものとする。   In the multicopter 11 and the remote operation unit 12 in FIG. 10, the same reference numerals and the same names are assigned to the configurations having the same functions as those in the multicopter 11 and the remote operation unit 12 in FIG. 1. The description thereof will be omitted as appropriate.

すなわち、図10のマルチコプタ11および遠隔操作部12において、図1のマルチコプタ11、および遠隔操作部12と異なる点は、レンズ51および広角レンズ59に代えて超広角レンズ131が設けられ、高解像度高速部分読み出しセンサ52および高解像度低速読み出しセンサ60に代えて、高解像度高速部分読み出し像面位相差画素センサ132が設けられている点である。   That is, the multicopter 11 and the remote operation unit 12 in FIG. 10 are different from the multicopter 11 and the remote operation unit 12 in FIG. Instead of the partial readout sensor 52 and the high resolution low speed readout sensor 60, a high resolution high speed partial readout image plane phase difference pixel sensor 132 is provided.

また、超音波測距センサ54および画像送信部61に代えて、画像-高度変換部133および画像送信部135が設けられ、さらに投光部134が新たに設けられている。   Further, an image-altitude conversion unit 133 and an image transmission unit 135 are provided instead of the ultrasonic distance measuring sensor 54 and the image transmission unit 61, and a light projecting unit 134 is newly provided.

さらに、遠隔操作部12には、画像処理部151が新たに設けられている。   Further, the remote operation unit 12 is newly provided with an image processing unit 151.

超広角レンズ131は、広角レンズ59よりも、さらに広角のレンズであり、マルチコプタ11の機体の下部に設けられているが、全方位について、鉛直方向から水平方向に近い範囲までの広範囲を撮像領域とすることができるレンズである。   The super-wide-angle lens 131 is a wider-angle lens than the wide-angle lens 59 and is provided at the lower part of the body of the multicopter 11. However, the imaging area covers a wide range from the vertical direction to the range close to the horizontal direction in all directions. It is a lens that can be.

高解像度高速部分読み出し像面位相差画素センサ132は、基本的には、高解像度高速部分読み出しセンサ52と同様の機能を備えているが、さらに、像面位相差画素を備えており、像面位相差画素の画素信号を画像-高度変換部133に供給する。画像-高度変換部133は、像面位相差画素の画素信号を用いることで、撮像領域内の被写体である地上までの距離を高度情報として求め、慣性航法装置55および投光部134に供給する。   The high-resolution high-speed partial readout image plane phase difference pixel sensor 132 basically has the same function as the high-resolution high-speed partial readout pixel sensor 52, but further includes image plane phase difference pixels. The pixel signal of the phase difference pixel is supplied to the image-altitude conversion unit 133. The image-altitude conversion unit 133 obtains the distance to the ground, which is the subject in the imaging area, as altitude information by using the pixel signal of the image plane phase difference pixel, and supplies it to the inertial navigation device 55 and the light projecting unit 134. .

このため、地上面を撮像することで、自らの高度を求めることが可能となり、超音波測距センサ54を設ける必要がなくなるので、マルチコプタ11の小型化、および軽量化を実現することが可能となる。尚、以降において、高解像度高速部分読み出し像面位相差画素センサ132は、単に、センサ132とも称するものとする。   For this reason, it becomes possible to obtain its own altitude by imaging the ground surface, and it is not necessary to provide the ultrasonic distance measuring sensor 54. Therefore, the multicopter 11 can be reduced in size and weight. Become. Hereinafter, the high-resolution and high-speed partial readout image plane phase difference pixel sensor 132 is also simply referred to as a sensor 132.

センサ132は、超広角レンズ131と組み合わせて撮像されることにより、これまで、高解像度低速撮像センサ60により撮像されていたビューイング用の画像、移動速度を求めるための画像、および高度を求めるための像面位相差画素による像面位相差信号を同時に撮像することができる。   The sensor 132 is imaged in combination with the super-wide-angle lens 131 to obtain an image for viewing, an image for determining a moving speed, and an altitude that have been captured by the high-resolution low-speed imaging sensor 60 so far. The image plane phase difference signals from the image plane phase difference pixels can be simultaneously imaged.

そこで、図10においては、センサ132より出力されるストリームSt1は、移動速度を求めるための画像の流れを示しており、画像-速度変換部53に供給されることを示している。また、センサ132より出力されるストリームSt2は、ビューイング画像の流れを示しており、画像送信部135に供給されることを示している。さらに、ストリームSt3は、像面位相差画素の画素信号の流れを示しており、画像-高度変換部133に供給されることを示している。   Therefore, in FIG. 10, the stream St <b> 1 output from the sensor 132 indicates the flow of the image for obtaining the moving speed, and indicates that it is supplied to the image-speed converting unit 53. A stream St2 output from the sensor 132 indicates the flow of the viewing image and indicates that the stream is supplied to the image transmission unit 135. Furthermore, the stream St3 indicates the flow of the pixel signal of the image plane phase difference pixel and indicates that the stream is supplied to the image-altitude conversion unit 133.

投光部134は、画像-高度変換部133より供給されてくる高度情報に基づいて、地上面を十分に投光できる場合には、補助光を発光させる。投光部134が発光する光は、可視光であってもよいし、赤外光や紫外光等であってもよいものである。ただし、赤外光や紫外光等を用いる場合については、センサ132において、対応する波長の光を受光できる構成とする必要がある。   Based on the altitude information supplied from the image-altitude conversion unit 133, the light projecting unit 134 emits auxiliary light when it can sufficiently project the ground surface. The light emitted from the light projecting unit 134 may be visible light, infrared light, ultraviolet light, or the like. However, in the case of using infrared light, ultraviolet light, or the like, the sensor 132 needs to be configured to receive light with a corresponding wavelength.

画像送信部135は、センサ132より供給されてくるビューイング用の画像と、その画像を撮像したタイミングで慣性航法装置55より供給されてくる機体の姿勢情報とを対応付けて遠隔操作部12に送信する。   The image transmission unit 135 associates the viewing image supplied from the sensor 132 with the attitude information of the aircraft supplied from the inertial navigation device 55 at the timing of capturing the image to the remote control unit 12. Send.

遠隔操作部12の画像処理部151は、姿勢情報が対応付けられた画像より、例えば、送信されてきた画像のうち、進行方向の領域の画像を抽出するような画像処理を施して、表示部74に表示させる。   The image processing unit 151 of the remote operation unit 12 performs, for example, image processing such as extracting an image of a region in the traveling direction out of the transmitted images from the image associated with the posture information, and the display unit 74.

<図10の飛行制御部による飛行制御処理>
次に、図11のフローチャートを参照して、図10のマルチコプタ11と遠隔操作部12とによる飛行制御処理について説明する。尚、図11のフローチャートにおけるステップS51乃至S54,S56,S57、および、ステップS71乃至S74,S76乃至S81,S83,S84の処理は、図4のフローチャートにおけるステップS11乃至S16、およびステップS21乃至S24,S26乃至S33の処理と同様であるので、その説明は省略する。
<Flight control processing by the flight control unit of FIG. 10>
Next, the flight control process by the multicopter 11 and the remote control unit 12 of FIG. 10 will be described with reference to the flowchart of FIG. Note that the processes of steps S51 to S54, S56, and S57 and steps S71 to S74, S76 to S81, S83, and S84 in the flowchart of FIG. 11 are the same as steps S11 to S16 and steps S21 to S24 in the flowchart of FIG. Since it is the same as the process of S26 thru | or S33, the description is abbreviate | omitted.

すなわち、ステップS75において、センサ132は、読み出された画素信号のうち、像面位相差画素の画素信号を画像-高度変換部133に供給する。画像-高度変換部133は、像面位相差画素の画素信号に基づいて、被写体である地上面までの距離を高度として求める。   That is, in step S <b> 75, the sensor 132 supplies the pixel signal of the image plane phase difference pixel among the read pixel signals to the image-altitude conversion unit 133. The image-altitude conversion unit 133 obtains the distance to the ground surface, which is the subject, as the altitude based on the pixel signal of the image plane phase difference pixel.

すなわち、センサ132における像面位相差画素により撮像された画素信号のみで、超音波測距センサ54等の別のセンサを用いることなく高度を求めることが可能となる。   That is, the altitude can be obtained using only the pixel signal imaged by the image plane phase difference pixel in the sensor 132 without using another sensor such as the ultrasonic distance measuring sensor 54.

また、ステップS82において、画像送信部135は、ステップS79,S81の処理により全画素により撮像された画像と、ステップS71において更新された慣性航法装置55における現在の姿勢情報とを対応付けて格納し、ステップS83の処理で、姿勢情報が対応付けられている画像を遠隔操作部12に送信する。   In step S82, the image transmission unit 135 stores the image captured by all the pixels by the processing in steps S79 and S81 and the current posture information in the inertial navigation device 55 updated in step S71 in association with each other. In step S83, the image associated with the posture information is transmitted to the remote operation unit 12.

これに応じて、ステップS54において、画像受信部73は、姿勢情報が対応付けられた画像を受信すると画像処理部151に供給する。   In response to this, in step S54, the image receiving unit 73 receives the image associated with the posture information and supplies it to the image processing unit 151.

ステップS55において、画像処理部151は、画像処理を実行して、送信されてきた画像のうち、進行方向に対応する画像のみを抽出して表示部74に供給する。   In step S55, the image processing unit 151 performs image processing, extracts only the image corresponding to the traveling direction from the transmitted images, and supplies the extracted image to the display unit 74.

<画像処理>
ここで、図12のフローチャートを参照して、画像処理部151における画像処理について説明する。
<Image processing>
Here, the image processing in the image processing unit 151 will be described with reference to the flowchart of FIG.

ステップS101において、画像処理部151は、供給されてきた全ての画素の画素値をスフィアマップ(球状マップ)にマッピングする。すなわち、例えば、センサ132は、マルチコプタ11の下面に設けられ、超広角レンズ131を介して入射する画像を撮像するので、実質的に、図13で示される半球面SH上の画素からなる画像として撮像されることになる。しかしながら、送信されてくる画像は、平面状の画像として送信されてくることになるので、画像処理部151は、図13の半球面SH上の画素(スフィアマップ)にマッピングしなおす。   In step S101, the image processing unit 151 maps the pixel values of all the supplied pixels to a sphere map (spherical map). That is, for example, the sensor 132 is provided on the lower surface of the multicopter 11 and picks up an image incident through the super-wide-angle lens 131, so that the sensor 132 is substantially an image composed of pixels on the hemispherical surface SH shown in FIG. It will be imaged. However, since the transmitted image is transmitted as a planar image, the image processing unit 151 remaps it to the pixel (sphere map) on the hemispherical surface SH in FIG.

ステップS102において、画像処理部151は、姿勢情報に基づいて、このスフィアマップ上の所定の領域を構成する窓状の範囲、例えば、進行方向に対応する範囲の画素を抽出して画像を生成する。   In step S <b> 102, the image processing unit 151 extracts a window-shaped range constituting a predetermined area on the sphere map, for example, a pixel in a range corresponding to the traveling direction based on the posture information, and generates an image. .

すなわち、図13における半球面SHには、マルチコプタ11の下面全体の画像が撮像されていることになるので、姿勢方向に基づいて、例えば、進行方向に対応する窓状の範囲Wの画素を抽出して、平面画像を生成する。   That is, since the entire image of the lower surface of the multicopter 11 is captured on the hemispherical surface SH in FIG. 13, for example, pixels in the window-shaped range W corresponding to the traveling direction are extracted based on the orientation direction. Then, a plane image is generated.

例えば、図13においては、進行方向に対応するベクトルとしてVD(中心に対して、(水平角θ,仰角φ,距離VD)、または、(x,y,z))が設定されており、ベクトル[VD]が法線となる半球面SH上に接する平面に対応する窓状の範囲Wを設定する。ここでは、窓状の範囲Wが、半球面SH上の点p1,p2,p3,p4により囲まれる方形状の範囲であって、かつ、その平面の法線がベクトル[VD]であるものとして、画像処理部151は、この範囲W内の画素の画素値を抽出して、方形状の画像を生成し、進行方向の画像として表示部74に供給し表示させる。   For example, in FIG. 13, VD ((horizontal angle θ, elevation angle φ, distance VD) or (x, y, z) with respect to the center) is set as a vector corresponding to the traveling direction. A window-shaped range W corresponding to a plane in contact with the hemispherical surface SH where [VD] is a normal line is set. Here, it is assumed that the window-shaped range W is a rectangular range surrounded by the points p1, p2, p3, and p4 on the hemisphere SH, and the normal line of the plane is the vector [VD]. The image processing unit 151 extracts the pixel values of the pixels in the range W, generates a square image, and supplies the image to the display unit 74 for display as an image in the traveling direction.

以上の処理により、遠隔操作部12の表示部74に、供給されてくる全方向の画像のうち、進行方向に対応する方向の画像を、常に表示することが可能となる。また、姿勢情報がわかっているので、図13においては、進行方向以外の方向であっても、姿勢情報に基づいて指定することで適切に表示することが可能となる。   With the above processing, it is possible to always display an image in a direction corresponding to the traveling direction among the supplied omnidirectional images on the display unit 74 of the remote operation unit 12. Further, since the posture information is known, even in a direction other than the traveling direction in FIG. 13, it is possible to display appropriately by designating based on the posture information.

<投光制御処理>
次に、図14のフローチャートを参照して、図10のマルチコプタ11による投光制御処理について説明する。
<Light emission control processing>
Next, the light projection control process by the multicopter 11 of FIG. 10 will be described with reference to the flowchart of FIG.

ステップS121において、画像-高度変換部133は、像面位相画素により撮像された画素信号に基づいて、地上までの距離、すなわち、高度情報を測定する。尚、この処理は、図11のフローチャートを参照して説明したステップS75の処理により、直近で求められた値をそのまま使用するようにしてもよい。   In step S121, the image-altitude conversion unit 133 measures the distance to the ground, that is, altitude information, based on the pixel signal captured by the image plane phase pixel. In this process, the value obtained most recently by the process of step S75 described with reference to the flowchart of FIG. 11 may be used as it is.

ステップS122において、画像-高度変換部133は、測定した高度情報を投光部134に供給する。投光部134は、所定の高度よりも低く、投光することにより十分に補助光としての効果を得ることが可能であるか否かを判定する。ステップS122において、補助光としての効果を得ることが可能であるとみなした場合、処理は、ステップS123に進む。   In step S122, the image-altitude converting unit 133 supplies the measured altitude information to the light projecting unit 134. The light projecting unit 134 determines whether or not the effect as auxiliary light can be sufficiently obtained by projecting light, which is lower than a predetermined altitude. If it is determined in step S122 that an effect as auxiliary light can be obtained, the process proceeds to step S123.

ステップS123において、投光部134は、補助光として投光する。   In step S123, the light projecting unit 134 projects light as auxiliary light.

一方、ステップS122において、所定の高度よりも高く、補助光としての効果が得られないとみなされた場合、ステップS124において、投光部134は、消灯する(投光しない)。   On the other hand, when it is determined in step S122 that the effect is not higher than the predetermined altitude and the auxiliary light is not obtained, the light projecting unit 134 is turned off (not projected) in step S124.

ステップS125において、投光部134は、動作の終了が指示さているか否かを判定し、終了が指示されていない場合、処理は、ステップS121に戻る。すなわち、終了が指示されるまで、画像-高度変換部133より供給されてくる高度情報に基づいて、補助光としての効果が得られるか否かを判定し、効果があれば投光し、なければ消灯する処理を繰り返す。そして、ステップS125において、終了が指示されたとみなされた場合、処理は、終了する。   In step S125, the light projecting unit 134 determines whether or not the end of the operation is instructed. If the end is not instructed, the process returns to step S121. That is, until termination is instructed, it is determined whether or not an effect as auxiliary light is obtained based on altitude information supplied from the image-altitude conversion unit 133, and if there is an effect, light is projected. If so, repeat the process of turning off. Then, if it is determined in step S125 that termination has been instructed, the process ends.

すなわち、以上の処理により、高度が十分に低いときには、常に、補助光として投光部134を投光させることが可能となる。このような処理により、オプティカルフロータイプのアルゴリズムを用いるような場合、特に、高速フレームレートで撮像された画像が利用されることが多くなるため、補助光として投光部134が投光することで、算出される移動速度の精度を向上させることが可能となる。また、投光部134により投光される補助光は可視光でもよいし、赤外光や紫外光などの非可視光であってもよい。ただし、非可視光を用いる場合については、センサ132において、対応する波長の光を受光可能な構成とする必要があり、例えば、赤外光や紫外光を用いるときには、対応するフィルタを装着する必要がある。   That is, by the above processing, it is possible to always project the light projecting unit 134 as auxiliary light when the altitude is sufficiently low. With such a process, when an optical flow type algorithm is used, an image captured at a high frame rate is often used. Therefore, the light projecting unit 134 projects light as auxiliary light. The accuracy of the calculated moving speed can be improved. Further, the auxiliary light projected by the light projecting unit 134 may be visible light or invisible light such as infrared light or ultraviolet light. However, when using invisible light, the sensor 132 needs to be configured to receive light of a corresponding wavelength. For example, when using infrared light or ultraviolet light, it is necessary to attach a corresponding filter. There is.

<<3.第1の変形例>>
尚、以上においては、オプティカルフロータイプのアルゴリズムにおいて、最新の撮像画像を利用して、次の画像を用いた移動速度の算出に必要な撮像領域を特定する例について説明してきたが、次の画像を撮像するまでにマルチコプタ11は移動していることになるので、移動に伴って適切な撮像領域はずれていることが予想される。
<< 3. First Modification >>
In the above, in the optical flow type algorithm, an example has been described in which the latest captured image is used to specify an imaging region necessary for calculating the moving speed using the next image. Since the multicopter 11 has moved before the image is captured, it is expected that the appropriate imaging area is shifted with the movement.

そこで、例えば、図15で示されるように、直前の画像では、撮像面P上の点c1を中心とした円状の領域を利用し、最新の画像では、点c2を中心とした円状の領域を利用していた場合、この点c1,c2より、次の撮像時における中心位置を点c3と予測して、この点c3を中心とした円状の領域P1を領域情報として設定するようにしてもよい。   Therefore, for example, as shown in FIG. 15, the previous image uses a circular region centered on the point c1 on the imaging surface P, and the latest image has a circular shape centered on the point c2. When an area is used, the center position at the time of the next imaging is predicted as a point c3 from these points c1 and c2, and a circular area P1 centered on this point c3 is set as the area information. May be.

この場合、例えば、以下の式(1)を利用して求めるようにしてもよい。   In this case, for example, the following equation (1) may be used.

Figure 2017081246
・・・(1)
Figure 2017081246
... (1)

ここで、ベクトルxの添字t+1,t,t−1,t−2,・・・t0は、時間方向の添字であり、関数fが、これまでの領域の中心位置を示すベクトルxより、時刻(t+1)で指定される次回の中心位置を予測する関数であることを示している。さらに、右項は、最新の撮像時刻tの中心位置と、直前の撮像時刻t−1の中心位置の差分を、最新の撮像時刻tの中心位置に加算することで、次回の中心位置を予測することができることが示されている。   Here, the subscripts t + 1, t, t-1, t-2,..., T0 of the vector x are subscripts in the time direction, and the function f is determined from the vector x indicating the center position of the previous area. This indicates that the function predicts the next center position specified by (t + 1). Further, the right term predicts the next center position by adding the difference between the center position of the latest imaging time t and the center position of the latest imaging time t-1 to the center position of the latest imaging time t. It has been shown that you can.

<<4.第2の変形例>>
第2の実施の形態における図10のマルチコプタ11においては、移動速度を算出するための画像と、ビューイング用の画像とを1個のセンサ132により撮像し、読み出す必要があるが、例えば、図16で示されるように、画素アレー92に対応する画素アレー171に加えて、メモリアレー172を設けて、高速部分読み出しをする際には、一部であって、比較的狭い領域の一部、例えば、1/16の範囲の画素信号を960fpsで読み出し(図10のストリームSt1)、低速で一部であって、比較的広い領域を読み出す際には、例えば、全範囲を60fpsで読み出す(図10のストリームSt2)ようにしてもよい。
<< 4. Second Modification >>
In the multicopter 11 of FIG. 10 according to the second embodiment, an image for calculating the moving speed and an image for viewing need to be captured and read by one sensor 132. For example, FIG. 16, in addition to the pixel array 171 corresponding to the pixel array 92, a memory array 172 is provided to perform high-speed partial reading, which is a part of a relatively narrow area, For example, when reading out a pixel signal in a range of 1/16 at 960 fps (stream St1 in FIG. 10) and reading out a relatively wide area at a low speed, for example, the entire range is read out at 60 fps (see FIG. 10 streams St2).

すなわち、図16においては、画素アレー171より画素信号は、常に、高速でAD変換器171aがデジタル信号として読み出し、メモリアレー172に格納させ、加算合成回路172aが、領域と、読み出しタイミングを制御して、読み出し領域が一部であって、比較的広い領域であるときは、比較的広い領域の画素信号をメモリアレー172から読み出し、一部であって、比較的狭い領域であるときは、指定された一部の領域の画素信号をメモリアレー172から読み出す。   That is, in FIG. 16, the pixel signal from the pixel array 171 is always read as a digital signal by the AD converter 171a at a high speed and stored in the memory array 172, and the adder / synthesizer circuit 172a controls the area and the read timing. When the readout area is a part and a relatively wide area, the pixel signal of the comparatively wide area is read from the memory array 172, and when it is a part and a comparatively narrow area, it is designated. The pixel signal of the partial area thus read is read out from the memory array 172.

また、図16のような画素アレー171に対してメモリアレー172を構成するような場合については、異なるプロセスで、積層構造とするようにしてもよい。   Further, in the case where the memory array 172 is configured with respect to the pixel array 171 as shown in FIG. 16, a stacked structure may be formed by a different process.

さらに、この他にも、Binningされた低解像度の領域と、非Binningされた高解像度の領域とを複数のストリームとして読み出すようにしてもよい。   In addition to this, the binned low-resolution area and the non-binned high-resolution area may be read out as a plurality of streams.

また、RGBの3チャンネルのうち、全チャンネルを読み出す領域と、RGBのいずれか1個を読み出す領域とを設定して、複数のストリームとして読み出すようにしてもよい。   In addition, an area for reading all channels out of the three RGB channels and an area for reading any one of RGB may be set and read as a plurality of streams.

さらに、比較的高解像度の低速用のイメージセンサと、比較的低解像度の高速用のイメージセンサとを併用したヘテロな構成のセンサーモジュールを用いるようにしてもよい。この時、低解像度側は狭視野角になりがちなので、これを補うために、例えば、メカニカルなジンバル装置を用いて撮像方向を調整させるようにしても良い。ジンバル装置は、慣性航法装置55により求められる姿勢情報に基づいて制御させるようにしてもよい。   Furthermore, a sensor module having a hetero configuration using a relatively high resolution low speed image sensor and a relatively low resolution high speed image sensor may be used. At this time, since the low resolution side tends to have a narrow viewing angle, in order to compensate for this, for example, the imaging direction may be adjusted using a mechanical gimbal device. The gimbal device may be controlled based on the posture information obtained by the inertial navigation device 55.

<<5.第3の変形例>>
以上においては、センサ132の構成として、通常のイメージセンサにより構成される例について説明してきたが、マルチストリームとしては、様々な構造のものが考えられる。
<< 5. Third modification >>
In the above description, an example in which the sensor 132 is configured by a normal image sensor has been described. However, multi-streams may have various structures.

例えば、赤外光により移動速度を求める画像を撮像し、RGBからなる可視光により、ビューイング用の画像を撮像する場合、図17で示されるような各種の構成としてもよい。尚、図17は、4種類のイメージセンサ132の構成が示されており、図中の左下部は、画素アレーに対向する方向からみた上面図であり、それ以外は、図中の上部から下部に向けて、入射光が入射するときの側面断面図が示されている。   For example, when an image for obtaining a moving speed is captured with infrared light, and an image for viewing is captured with RGB visible light, various configurations as shown in FIG. 17 may be used. FIG. 17 shows the configuration of four types of image sensors 132. The lower left part in the figure is a top view as viewed from the direction facing the pixel array, and the rest are from the upper part to the lower part in the figure. A side cross-sectional view when incident light enters is shown.

すなわち、図17の左上部のセンサ132においては、超広角レンズ131を介して入射した光を図中の右方向に可視光を反射させ、赤外光を図中の下方向に透過させることで分離するスプリッタ191が設けられている。さらに、スプリッタ191の下には、透過した赤外光を受光して、画素信号に変換する赤外光受光層192が設けられており、赤外光受光層192より出力される画素信号を赤外光高速部分読出部193に供給する。赤外光高速部分読出部193は、ストリームSt1として赤外光の画素信号を部分的に高速で読み出す。また、スプリッタ191の右側には、可視光を受光して、RGBからなる画素信号に変換する可視光受光層194が設けられており、可視光受光層194は、受光した光量に応じた画素信号を可視光読出部195に出力する。可視光読出部195は、ストリームSt2として比較的低速で可視光を読み出す。   That is, in the upper left sensor 132 in FIG. 17, the light incident through the super-wide-angle lens 131 reflects visible light in the right direction in the figure and transmits infrared light in the lower direction in the figure. A splitter 191 for separation is provided. Furthermore, an infrared light receiving layer 192 that receives the transmitted infrared light and converts it into a pixel signal is provided under the splitter 191. The pixel signal output from the infrared light receiving layer 192 is red. This is supplied to the external light high-speed partial reading unit 193. The infrared light high-speed partial reading unit 193 partially reads out the infrared light pixel signal as the stream St1. Also, a visible light receiving layer 194 that receives visible light and converts it into a pixel signal composed of RGB is provided on the right side of the splitter 191. The visible light receiving layer 194 has a pixel signal corresponding to the received light amount. Is output to the visible light reading unit 195. The visible light reading unit 195 reads visible light at a relatively low speed as the stream St2.

また、図17の左下部のセンサ132においては、画素アレー201(画素アレー92と同様)の一方の側面には、比較的高速で部分的に赤外光の画素信号を、ストリームSt1として読み出す赤外光高速部分読出部203が設けられ、対向する側面には、比較的低速で全画素の可視光の画素信号をストリームSt2として読み出す可視光読出部202が設けられている。尚、赤外光高速部分読出部203および可視光読出部202の画素アレーに対する配置は、図17の左下部以外のいずれでもよく、画素アレー201から画素信号の転送が可能であれば、その他の配置であってもよい。また、この場合、画素アレー201は、例えば、図中で示されるようにBayer配列におけるいずれか一方のG画素をIR画素として、赤外光を受光するための画素とする。さらに、2×2画素のBayer配列の一つの画素をIR画素に置き換える事にこだわることなく、撮像面全体に対して規則的または不規則にIR画素をまばらに配置してもよい。この場合、可視光は高解像度で赤外光画像は低解像度で撮像される。   In addition, in the sensor 132 at the lower left in FIG. 17, on one side of the pixel array 201 (similar to the pixel array 92), a red pixel signal is read as a stream St1 at a relatively high speed. An external light high-speed partial readout unit 203 is provided, and a visible light readout unit 202 that reads out pixel signals of visible light of all pixels as a stream St2 at a relatively low speed is provided on the opposite side surfaces. The arrangement of the infrared light high-speed partial reading unit 203 and the visible light reading unit 202 with respect to the pixel array may be any other than the lower left part of FIG. 17, and other pixel signals can be transferred as long as the pixel signal can be transferred from the pixel array 201. It may be an arrangement. In this case, the pixel array 201 is, for example, one of the G pixels in the Bayer array as an IR pixel and a pixel for receiving infrared light as shown in the figure. Furthermore, the IR pixels may be sparsely or regularly arranged on the entire imaging surface without sticking to replacing one pixel of the 2 × 2 pixel Bayer array with the IR pixel. In this case, the visible light is captured at a high resolution and the infrared light image is captured at a low resolution.

さらに、図17の右上部のセンサ132においては、超広角レンズ131を透過した入射光を波長が短い順に図中の上から、青色の光を受光する青色受光層221、緑色の光を受光する緑色受光層222、赤色の光を受光する赤色受光層223が設けられており、最下層に、赤外光を受光する赤外光受光層224が設けられている。さらに、赤外光受光層224より読み出される赤外光の信号をストリームSt1として、部分的に高速で読み出す赤外光高速部分読出部226が設けられている。また、青色受光層221、緑色受光層222、および赤色受光層223よりそれぞれ可視光として読み出されるRGBの画素信号をストリームSt2として読み出す可視光読出部225が設けられている。   Further, in the sensor 132 in the upper right part of FIG. 17, the blue light receiving layer 221 that receives blue light from the top in the figure in order of short wavelength of incident light that has passed through the super-wide-angle lens 131 receives green light. A green light receiving layer 222 and a red light receiving layer 223 that receives red light are provided, and an infrared light receiving layer 224 that receives infrared light is provided in the lowermost layer. Further, an infrared light high-speed partial reading unit 226 that reads the infrared light signal read from the infrared light receiving layer 224 as a stream St1 and partially reads at high speed is provided. Further, a visible light reading unit 225 that reads RGB pixel signals read as visible light from the blue light receiving layer 221, the green light receiving layer 222, and the red light receiving layer 223, respectively, as a stream St2 is provided.

また、図17の右下部のセンサ132においては、超広角レンズ131を透過した入射光のうち、赤外光のみを吸収し、可視光を透過する赤外光吸収有機センサ241が設けられており、その下に可視光であるRGBの光を受光するRGB受光半導体センサ243が設けられている。また、赤外光吸収有機センサ241の右側には、赤外光吸収有機センサ241より読み出される赤外光の信号をストリームSt1として、部分的に高速で読み出す赤外光高速部分読出部242が設けられている。さらに、RGB受光半導体センサ243の右側には、可視光として読み出されるRGBの全画素信号をストリームSt2として読み出す可視光読出部244が設けられている。   In addition, in the sensor 132 in the lower right part of FIG. 17, an infrared light absorbing organic sensor 241 that absorbs only infrared light out of incident light transmitted through the super-wide-angle lens 131 and transmits visible light is provided. An RGB light receiving semiconductor sensor 243 for receiving RGB light which is visible light is provided thereunder. In addition, on the right side of the infrared light absorbing organic sensor 241, an infrared light high-speed partial reading unit 242 that partially reads the infrared light signal read from the infrared light absorbing organic sensor 241 as a stream St1 at high speed is provided. It has been. Further, on the right side of the RGB light receiving semiconductor sensor 243, a visible light reading unit 244 that reads all RGB pixel signals read as visible light as a stream St2 is provided.

<<6.第4の変形例>>
以上においては、センサ132により撮像された全領域の画像を読み出して、姿勢情報と対応付けて遠隔操作部12に送信し、遠隔操作部12において、姿勢情報に基づいて、特定の方向の画像を生成し、表示する例について説明してきたが、表示に必要な画像は、マルチコプタ11より送信されてくる画像の極一部のみであるため、マルチコプタ11から送信する画像を予め必要なサイズにして送信するようにすることで、送信に係る負荷を低減させるようにしてもよい。
<< 6. Fourth Modification >>
In the above, the image of the entire region imaged by the sensor 132 is read out and transmitted to the remote operation unit 12 in association with the posture information. In the remote operation unit 12, an image in a specific direction is obtained based on the posture information. Although an example of generating and displaying has been described, since the image necessary for display is only a very small part of the image transmitted from the multicopter 11, the image transmitted from the multicopter 11 is transmitted in a necessary size in advance. By doing so, you may make it reduce the load which concerns on transmission.

すなわち、例えば、図18で示されるように撮像面Pにおける、図13における窓状の範囲Wに対応する点p1,p2,p3,p4からなる四辺形からなる範囲のみを読み出すようにしてもよいし、範囲Wを凡そ囲む図中の一点鎖線で囲まれる矩形上の範囲のみを読み出して送信するようにしてもよい。   That is, for example, as shown in FIG. 18, only the range of the quadrilateral formed by the points p1, p2, p3, and p4 corresponding to the window-shaped range W in FIG. Then, only the range on the rectangle surrounded by the alternate long and short dash line in the drawing that roughly surrounds the range W may be read and transmitted.

以上のような処理により、送信負荷を低減させることが可能になると共に、表示部74に表示するための画像処理に係る負荷をも低減させることも可能となる。   Through the processing as described above, it is possible to reduce the transmission load and also reduce the load related to the image processing for displaying on the display unit 74.

<<7.応用例>>
<ソフトウェアにより実行させる例>
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
<< 7. Application example >>
<Example executed by software>
By the way, the series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software may execute various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a recording medium in a general-purpose personal computer or the like.

図19は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタ-フェイス1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。   FIG. 19 shows a configuration example of a general-purpose personal computer. This personal computer incorporates a CPU (Central Processing Unit) 1001. An input / output interface 1005 is connected to the CPU 1001 via a bus 1004. A ROM (Read Only Memory) 1002 and a RAM (Random Access Memory) 1003 are connected to the bus 1004.

入出力インタ-フェイス1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。   The input / output interface 1005 includes an input unit 1006 including an input device such as a keyboard and a mouse for a user to input an operation command, an output unit 1007 for outputting a processing operation screen and an image of the processing result to a display device, programs, and various types. A storage unit 1008 including a hard disk drive for storing data, a LAN (Local Area Network) adapter, and the like, and a communication unit 1009 for performing communication processing via a network represented by the Internet are connected. Also, a magnetic disk (including a flexible disk), an optical disk (including a CD-ROM (Compact Disc-Read Only Memory), a DVD (Digital Versatile Disc)), a magneto-optical disk (including an MD (Mini Disc)), or a semiconductor A drive 1010 for reading / writing data from / to a removable medium 1011 such as a memory is connected.

CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011ら読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。   The CPU 1001 is read from a program stored in the ROM 1002 or a removable medium 1011 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, installed in the storage unit 1008, and loaded from the storage unit 1008 to the RAM 1003. Various processes are executed according to the program. The RAM 1003 also appropriately stores data necessary for the CPU 1001 to execute various processes.

以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。   In the computer configured as described above, the CPU 1001 loads the program stored in the storage unit 1008 to the RAM 1003 via the input / output interface 1005 and the bus 1004 and executes the program, for example. Is performed.

コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。   The program executed by the computer (CPU 1001) can be provided by being recorded on the removable medium 1011 as a package medium, for example. The program can be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.

コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。   In the computer, the program can be installed in the storage unit 1008 via the input / output interface 1005 by attaching the removable medium 1011 to the drive 1010. Further, the program can be received by the communication unit 1009 via a wired or wireless transmission medium and installed in the storage unit 1008. In addition, the program can be installed in advance in the ROM 1002 or the storage unit 1008.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。   The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。   In this specification, the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Accordingly, a plurality of devices housed in separate housings and connected via a network and a single device housing a plurality of modules in one housing are all systems. .

なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present disclosure is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present disclosure.

例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。   For example, the present disclosure can take a configuration of cloud computing in which one function is shared by a plurality of apparatuses via a network and is jointly processed.

また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。   In addition, each step described in the above flowchart can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.

さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。   Further, when a plurality of processes are included in one step, the plurality of processes included in the one step can be executed by being shared by a plurality of apparatuses in addition to being executed by one apparatus.

尚、本開示は、以下のような構成も取ることができる。
<1> 画像を撮像し、前記画像の一部の領域の画素信号を高速に読み出す撮像部と、
機体の姿勢情報に基づいて、前記撮像部において、前記画素信号を高速に読み出す、前記画像の一部の領域を決定する姿勢領域変換部と
を含む飛行制御装置。
<2> 前記撮像部により読み出された画素信号に基づいて、前記機体の移動速度を算出する画像速度変換部と、
前記機体の前記移動速度に基づいて、前記機体の前記姿勢情報を検出する姿勢検出部とをさらに含む
<1>に記載の飛行制御装置。
<3> 前記機体から地上面までの距離を高度情報として測定する高度測定部をさらに含み、
前記画像速度変換部は、前記撮像部により読み出された画素信号、および高度情報に基づいて、前記機体の前記移動速度を算出する
<2>に記載の飛行制御装置。
<4> 前記高度測定部は、超音波を利用して、前記機体から地上面までの距離を高度情報として測定し、
前記画像速度変換部は、前記撮像部により読み出された画素信号、および前記高度情報に基づいて、前記機体の前記移動速度を算出する
<3>に記載の飛行制御装置。
<5> 前記撮像部は、像面位相差画素を含み、
前記高度測定部は、前記像面位相差画素より読み出される画素信号に基づいて、前記機体から地上面までの距離を高度情報として測定し、
前記画像速度変換部は、前記撮像部により読み出された画素信号、および前記高度情報に基づいて、前記機体の前記移動速度を算出する
<3>に記載の飛行制御装置。
<6> 前記撮像部の撮像方向を投光する投光部をさらに含み、
前記投光部は、前記高度情報に基づいて、前記撮像方向を投光する
<3>に記載の飛行制御装置。
<7> 前記投光部は、前記高度情報が、所定の高度よりも低く、十分に地上面を投光できる場合、前記撮像方向を投光する
<6>に記載の飛行制御装置。
<8> 前記画像速度変換部は、前記撮像部により読み出された画素信号に基づいて、時間解像度を優先する第1のタイプのアルゴリズム、または、空間解像度を優先する第2のタイプのアルゴリズムのいずれかで前記機体の移動速度を算出し、
前記画像速度変換部が前記時間解像度を優先する第1のタイプのアルゴリズムで前記機体の移動速度を算出する場合、前記姿勢領域変換部は、前記姿勢検出部により検出された姿勢情報に基づいて、前記撮像部において、前記画素信号を高速に読み出す、前記画像の一部の第1の領域を決定し、
前記画像速度変換部が前記空間解像度を優先する第2のタイプのアルゴリズムで前記機体の移動速度を算出する場合、前記姿勢領域変換部は、前記撮像部において、前記画像の一部であって、前記第1の領域よりも広い第2の領域を決定する
<1>乃至<7>のいずれかに記載の飛行制御装置。
<9> 前記画像速度変換部が前記時間解像度を優先する第1のタイプのアルゴリズムで前記機体の移動速度を算出する場合、前記姿勢領域変換部により決定される、前記画素信号が高速に読み出される前記画像の一部の前記第1の領域は、前記撮像部における撮像視点から撮像面までの法線ベクトルと、前記撮像視点から鉛直方向であって、撮像面との交点に応じて設定される領域である
<8>に記載の飛行制御装置。
<10> 前記撮像視点から鉛直方向であって、前記撮像面との交点に応じて設定される前記第1の領域は、前記交点を中心とした前記撮像面上の所定の半径からなる円状、または、楕円状の領域である
<9>に記載の飛行制御装置。
<11> 前記撮像視点から鉛直方向であって、前記撮像面との交点に応じて設定される前記第1の領域は、前記交点を中心とした前記撮像面上の所定の半径からなる円状、または、楕円状の範囲を囲む方形状の領域である
<10>に記載の飛行制御装置。
<12> 前記撮像部により撮像された画像を送信する送信部と、
前記機体を遠隔から操作すると共に、前記送信部より送信されてくる画像を受信し表示する遠隔操作部とをさらに含む
<1>乃至<11>のいずれかに記載の飛行制御装置。
<13> 前記送信部は、前記撮像部により撮像された画像を、前記画像が撮像されたときの前記機体の姿勢情報と対応付けて送信し、
前記遠隔操作部は、前記送信部より送信されてきた前記姿勢情報が対応付けられた前記画像を受信し、前記画像のうち、前記姿勢情報に基づいて特定される所定の範囲の画像を抽出し、抽出された画像を表示する
<12>に記載の飛行制御装置。
<14> 画像を撮像し、前記画像の一部の領域の画素信号を高速に読み出す撮像部を備えた飛行制御装置の飛行制御方法であって、
前記撮像部において、前記画素信号を高速に読み出す、前記画像の一部の領域を決定するステップを含む
飛行制御方法。
<15> 画像を撮像し、前記画像の一部の領域の画素信号を高速に読み出す撮像部と、
前記撮像部において、前記画素信号を高速に読み出す、前記画像の一部の領域を決定する姿勢領域変換部としてコンピュータを機能させる
プログラム。
<16> 画像を撮像し、前記画像の一部の領域の画素信号を高速に読み出す撮像部と、
前記撮像部において、前記画素信号を高速に読み出す、前記画像の一部の領域を決定する姿勢領域変換部と
を含むマルチコプタ。
In addition, this indication can also take the following structures.
<1> An imaging unit that captures an image and reads pixel signals of a partial region of the image at high speed;
A flight control apparatus comprising: a posture region conversion unit that determines a partial region of the image, in which the pixel signal is read out at high speed in the imaging unit based on posture information of a body.
<2> An image speed conversion unit that calculates a moving speed of the airframe based on the pixel signal read by the imaging unit;
The flight control device according to <1>, further including an attitude detection unit that detects the attitude information of the aircraft based on the moving speed of the aircraft.
<3> An altitude measuring unit that measures the distance from the aircraft to the ground surface as altitude information,
The flight control device according to <2>, wherein the image speed conversion unit calculates the moving speed of the aircraft based on a pixel signal read by the imaging unit and altitude information.
<4> The altitude measurement unit uses ultrasonic waves to measure the distance from the aircraft to the ground surface as altitude information,
The flight control device according to <3>, wherein the image speed conversion unit calculates the moving speed of the aircraft based on the pixel signal read by the imaging unit and the altitude information.
<5> The imaging unit includes an image plane phase difference pixel,
The altitude measuring unit measures the distance from the aircraft to the ground surface as altitude information based on the pixel signal read from the image plane phase difference pixel,
The flight control device according to <3>, wherein the image speed conversion unit calculates the moving speed of the aircraft based on the pixel signal read by the imaging unit and the altitude information.
<6> Further includes a light projecting unit that projects the image capturing direction of the image capturing unit,
The flight control device according to <3>, wherein the light projecting unit projects the imaging direction based on the altitude information.
<7> The flight control device according to <6>, wherein the light projecting unit projects the imaging direction when the altitude information is lower than a predetermined altitude and can sufficiently project the ground surface.
<8> The image speed conversion unit may be a first type algorithm that prioritizes temporal resolution or a second type algorithm that prioritizes spatial resolution based on the pixel signal read by the imaging unit. Calculate the moving speed of the aircraft with either
When the image speed conversion unit calculates the moving speed of the aircraft with a first type algorithm that prioritizes the time resolution, the attitude region conversion unit is based on the attitude information detected by the attitude detection unit, In the imaging unit, a first region of a part of the image that reads the pixel signal at high speed is determined,
When the image speed conversion unit calculates the moving speed of the aircraft with a second type algorithm that prioritizes the spatial resolution, the posture region conversion unit is a part of the image in the imaging unit, The flight control device according to any one of <1> to <7>, wherein a second region wider than the first region is determined.
<9> When the image speed conversion unit calculates the moving speed of the aircraft by a first type algorithm that prioritizes the time resolution, the pixel signal determined by the attitude region conversion unit is read at high speed. The first region of a part of the image is set according to a normal vector from an imaging viewpoint to an imaging surface in the imaging unit and a vertical direction from the imaging viewpoint and an intersection with the imaging surface. The flight control device according to <8>, which is a region.
<10> The first region that is set in a vertical direction from the imaging viewpoint and that is set according to the intersection with the imaging surface is a circle having a predetermined radius on the imaging surface with the intersection as the center Or the flight control apparatus as described in <9> which is an elliptical area | region.
<11> The first region that is set in a vertical direction from the imaging viewpoint and that is set according to the intersection with the imaging surface is a circle having a predetermined radius on the imaging surface with the intersection as the center. Or the flight control apparatus as described in <10> which is a square area | region surrounding an elliptical range.
<12> a transmission unit that transmits an image captured by the imaging unit;
The flight control device according to any one of <1> to <11>, further including a remote operation unit that operates the aircraft remotely and receives and displays an image transmitted from the transmission unit.
<13> The transmission unit transmits an image captured by the imaging unit in association with posture information of the aircraft when the image is captured,
The remote control unit receives the image associated with the posture information transmitted from the transmission unit, and extracts an image in a predetermined range specified based on the posture information from the image. The flight control device according to <12>, wherein the extracted image is displayed.
<14> A flight control method of a flight control apparatus including an imaging unit that captures an image and reads out pixel signals of a partial region of the image at high speed,
The flight control method includes a step of determining a partial region of the image in which the pixel signal is read at a high speed in the imaging unit.
<15> An imaging unit that captures an image and reads out pixel signals of a partial region of the image at high speed;
A program that causes the computer to function as an attitude region conversion unit that reads out the pixel signal at a high speed and determines a partial region of the image in the imaging unit.
<16> An imaging unit that captures an image and reads pixel signals of a partial region of the image at high speed;
A multi-copter, comprising: an attitude region conversion unit that reads out the pixel signal at high speed and determines a partial region of the image.

11 マルチコプタ, 12 遠隔操作部, 31 飛行制御部, 32 動力装置, 51 レンズ, 52 高解像度高速部分読み出し部, 53 画像-速度変換部, 54 超音波測距センサ, 55 慣性航法装置, 56 PID制御装置, 57 遠隔操作受信部, 58 姿勢-領域変換部, 59 広角レンズ, 60 高解像度低速撮像センサ, 61 画像送信部, 71 操作UI部, 72 遠隔操作送信部, 73 画像受信部, 74 表示部, 91 全体制御部, 92 画素アレー, 93 垂直制御部, 94−1,94−2 比較器カラム, 95−1,95−2 カウンタカラム, 96−1,96−2 水平制御部, 97 出力制御部, 131 超広角レンズ, 132 高解像度高速部分読み出し像面位相差画素センサ, 133 画像-高度変換部, 134 投光部, 135 画像送信部, 151 画像処理部   11 Multi-copter, 12 Remote control unit, 31 Flight control unit, 32 Power unit, 51 Lens, 52 High-resolution high-speed partial readout unit, 53 Image-speed conversion unit, 54 Ultrasonic ranging sensor, 55 Inertial navigation device, 56 PID control Device, 57 Remote operation reception unit, 58 Posture-region conversion unit, 59 Wide-angle lens, 60 High-resolution low-speed imaging sensor, 61 Image transmission unit, 71 Operation UI unit, 72 Remote operation transmission unit, 73 Image reception unit, 74 Display unit 91 control unit, 92 pixel array, 93 vertical control unit, 94-1, 94-2 comparator column, 95-1, 95-2 counter column, 96-1, 96-2 horizontal control unit, 97 output control , 131 super wide-angle lens, 132 high-resolution high-speed partial readout image plane phase difference pixel sensor, 133 image- Degree converting unit, 134 light projecting unit, 135 image transmitting section, 151 image processing unit

Claims (16)

画像を撮像し、前記画像の一部の領域の画素信号を高速に読み出す撮像部と、
機体の姿勢情報に基づいて、前記撮像部において、前記画素信号を高速に読み出す、前記画像の一部の領域を決定する姿勢領域変換部と
を含む飛行制御装置。
An imaging unit that captures an image and reads out pixel signals of a partial region of the image at a high speed;
A flight control apparatus comprising: a posture region conversion unit that determines a partial region of the image, in which the pixel signal is read out at high speed in the imaging unit based on posture information of a body.
前記撮像部により読み出された画素信号に基づいて、前記機体の移動速度を算出する画像速度変換部と、
前記機体の前記移動速度に基づいて、前記機体の前記姿勢情報を検出する姿勢検出部とをさらに含む
請求項1に記載の飛行制御装置。
An image speed conversion unit that calculates a moving speed of the airframe based on the pixel signal read by the imaging unit;
The flight control device according to claim 1, further comprising an attitude detection unit that detects the attitude information of the aircraft based on the moving speed of the aircraft.
前記機体から地上面までの距離を高度情報として測定する高度測定部をさらに含み、
前記画像速度変換部は、前記撮像部により読み出された画素信号、および高度情報に基づいて、前記機体の前記移動速度を算出する
請求項2に記載の飛行制御装置。
An altitude measuring unit that measures the distance from the aircraft to the ground as altitude information;
The flight control device according to claim 2, wherein the image speed conversion unit calculates the moving speed of the aircraft based on pixel signals read by the imaging unit and altitude information.
前記高度測定部は、超音波を利用して、前記機体から地上面までの距離を高度情報として測定し、
前記画像速度変換部は、前記撮像部により読み出された画素信号、および前記高度情報に基づいて、前記機体の前記移動速度を算出する
請求項3に記載の飛行制御装置。
The altitude measurement unit uses ultrasonic waves to measure the distance from the aircraft to the ground level as altitude information,
The flight control device according to claim 3, wherein the image speed conversion unit calculates the moving speed of the aircraft based on the pixel signal read by the imaging unit and the altitude information.
前記撮像部は、像面位相差画素を含み、
前記高度測定部は、前記像面位相差画素より読み出される画素信号に基づいて、前記機体から地上面までの距離を高度情報として測定し、
前記画像速度変換部は、前記撮像部により読み出された画素信号、および前記高度情報に基づいて、前記機体の前記移動速度を算出する
請求項3に記載の飛行制御装置。
The imaging unit includes an image plane phase difference pixel,
The altitude measuring unit measures the distance from the aircraft to the ground surface as altitude information based on the pixel signal read from the image plane phase difference pixel,
The flight control device according to claim 3, wherein the image speed conversion unit calculates the moving speed of the aircraft based on the pixel signal read by the imaging unit and the altitude information.
前記撮像部の撮像方向を投光する投光部をさらに含み、
前記投光部は、前記高度情報に基づいて、前記撮像方向を投光する
請求項3に記載の飛行制御装置。
A light projecting unit that projects the image capturing direction of the image capturing unit;
The flight control device according to claim 3, wherein the light projecting unit projects the imaging direction based on the altitude information.
前記投光部は、前記高度情報が、所定の高度よりも低く、十分に地上面を投光できる場合、前記撮像方向を投光する
請求項6に記載の飛行制御装置。
The flight control device according to claim 6, wherein the light projecting unit projects the imaging direction when the altitude information is lower than a predetermined altitude and can sufficiently project the ground surface.
前記画像速度変換部は、前記撮像部により読み出された画素信号に基づいて、時間解像度を優先する第1のタイプのアルゴリズム、または、空間解像度を優先する第2のタイプのアルゴリズムのいずれかで前記機体の移動速度を算出し、
前記画像速度変換部が前記時間解像度を優先する第1のタイプのアルゴリズムで前記機体の移動速度を算出する場合、前記姿勢領域変換部は、前記姿勢検出部により検出された姿勢情報に基づいて、前記撮像部において、前記画素信号を高速に読み出す、前記画像の一部の第1の領域を決定し、
前記画像速度変換部が前記空間解像度を優先する第2のタイプのアルゴリズムで前記機体の移動速度を算出する場合、前記姿勢領域変換部は、前記撮像部において、前記画像の一部であって、前記第1の領域よりも広い第2の領域を決定する
請求項1に記載の飛行制御装置。
The image speed conversion unit is either a first type algorithm that prioritizes temporal resolution or a second type algorithm that prioritizes spatial resolution based on the pixel signal read by the imaging unit. Calculate the moving speed of the aircraft,
When the image speed conversion unit calculates the moving speed of the aircraft with a first type algorithm that prioritizes the time resolution, the attitude region conversion unit is based on the attitude information detected by the attitude detection unit, In the imaging unit, a first region of a part of the image that reads the pixel signal at high speed is determined,
When the image speed conversion unit calculates the moving speed of the aircraft with a second type algorithm that prioritizes the spatial resolution, the posture region conversion unit is a part of the image in the imaging unit, The flight control apparatus according to claim 1, wherein a second area wider than the first area is determined.
前記画像速度変換部が前記時間解像度を優先する第1のタイプのアルゴリズムで前記機体の移動速度を算出する場合、前記姿勢領域変換部により決定される、前記画素信号が高速に読み出される前記画像の一部の前記第1の領域は、前記撮像部における撮像視点から撮像面までの法線ベクトルと、前記撮像視点から鉛直方向であって、撮像面との交点に応じて設定される領域である
請求項8に記載の飛行制御装置。
When the image speed conversion unit calculates the moving speed of the aircraft with a first type of algorithm that prioritizes the time resolution, the pixel signal determined by the attitude region conversion unit is read out at high speed. The part of the first region is a region that is set in accordance with a normal vector from the imaging viewpoint to the imaging surface in the imaging unit and a vertical direction from the imaging viewpoint and an intersection with the imaging surface. The flight control apparatus according to claim 8.
前記撮像視点から鉛直方向であって、前記撮像面との交点に応じて設定される前記第1の領域は、前記交点を中心とした前記撮像面上の所定の半径からなる円状、または、楕円状の領域である
請求項9に記載の飛行制御装置。
The first region that is set in a vertical direction from the imaging viewpoint and that corresponds to the intersection with the imaging surface is a circle having a predetermined radius on the imaging surface with the intersection as the center, or The flight control device according to claim 9, wherein the flight control device is an elliptical region.
前記撮像視点から鉛直方向であって、前記撮像面との交点に応じて設定される前記第1の領域は、前記交点を中心とした前記撮像面上の所定の半径からなる円状、または、楕円状の範囲を囲む方形状の領域である
請求項10に記載の飛行制御装置。
The first region that is set in a vertical direction from the imaging viewpoint and that corresponds to the intersection with the imaging surface is a circle having a predetermined radius on the imaging surface with the intersection as the center, or The flight control device according to claim 10, wherein the flight control device is a rectangular region surrounding an elliptical range.
前記撮像部により撮像された画像を送信する送信部と、
前記機体を遠隔から操作すると共に、前記送信部より送信されてくる画像を受信し表示する遠隔操作部とをさらに含む
請求項1に記載の飛行制御装置。
A transmission unit that transmits an image captured by the imaging unit;
The flight control device according to claim 1, further comprising: a remote control unit that operates the aircraft remotely and receives and displays an image transmitted from the transmission unit.
前記送信部は、前記撮像部により撮像された画像を、前記画像が撮像されたときの前記機体の姿勢情報と対応付けて送信し、
前記遠隔操作部は、前記送信部より送信されてきた前記姿勢情報が対応付けられた前記画像を受信し、前記画像のうち、前記姿勢情報に基づいて特定される所定の範囲の画像を抽出し、抽出された画像を表示する
請求項12に記載の飛行制御装置。
The transmission unit transmits an image captured by the imaging unit in association with posture information of the aircraft when the image is captured,
The remote control unit receives the image associated with the posture information transmitted from the transmission unit, and extracts an image in a predetermined range specified based on the posture information from the image. The flight control apparatus according to claim 12, wherein the extracted image is displayed.
画像を撮像し、前記画像の一部の領域の画素信号を高速に読み出す撮像部を備えた飛行制御装置の飛行制御方法であって、
前記撮像部において、前記画素信号を高速に読み出す、前記画像の一部の領域を決定するステップを含む
飛行制御方法。
A flight control method for a flight control apparatus including an imaging unit that captures an image and reads out pixel signals of a partial region of the image at high speed,
The flight control method includes a step of determining a partial region of the image in which the pixel signal is read out at a high speed in the imaging unit.
画像を撮像し、前記画像の一部の領域の画素信号を高速に読み出す撮像部と、
前記撮像部において、前記画素信号を高速に読み出す、前記画像の一部の領域を決定する姿勢領域変換部としてコンピュータを機能させる
プログラム。
An imaging unit that captures an image and reads out pixel signals of a partial region of the image at a high speed;
A program that causes the computer to function as an attitude region conversion unit that reads out the pixel signal at a high speed and determines a partial region of the image in the imaging unit.
画像を撮像し、前記画像の一部の領域の画素信号を高速に読み出す撮像部と、
前記撮像部において、前記画素信号を高速に読み出す、前記画像の一部の領域を決定する姿勢領域変換部と
を含むマルチコプタ。
An imaging unit that captures an image and reads out pixel signals of a partial region of the image at a high speed;
A multi-copter, comprising: an attitude region conversion unit that reads out the pixel signal at high speed and determines a partial region of the image in the imaging unit.
JP2015209062A 2015-10-23 2015-10-23 Flight control device, flight control method, multicopter, and program Pending JP2017081246A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015209062A JP2017081246A (en) 2015-10-23 2015-10-23 Flight control device, flight control method, multicopter, and program
PCT/JP2016/079895 WO2017068998A1 (en) 2015-10-23 2016-10-07 Flight control device, flight control method, multicopter, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015209062A JP2017081246A (en) 2015-10-23 2015-10-23 Flight control device, flight control method, multicopter, and program

Publications (1)

Publication Number Publication Date
JP2017081246A true JP2017081246A (en) 2017-05-18

Family

ID=58557577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015209062A Pending JP2017081246A (en) 2015-10-23 2015-10-23 Flight control device, flight control method, multicopter, and program

Country Status (2)

Country Link
JP (1) JP2017081246A (en)
WO (1) WO2017068998A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018013949A (en) * 2016-07-21 2018-01-25 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Mobile body, method for detecting obstacle of mobile body, and program for detecting obstacle of mobile body
JP2020019371A (en) * 2018-08-01 2020-02-06 三菱ロジスネクスト株式会社 Automated guided vehicle system using unmanned flight body
JPWO2021019679A1 (en) * 2019-07-30 2021-02-04
JP2021179957A (en) * 2019-07-25 2021-11-18 株式会社プロドローン Remote operation system and operation device thereof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190389575A1 (en) 2018-06-22 2019-12-26 The Boeing Company Extended Duration Regenerative Powered Unmanned Aerial Vehicle (UAV) Platform
CN109947096B (en) * 2019-02-25 2022-06-21 广州极飞科技股份有限公司 Controlled object control method and device and unmanned system
CN117826879A (en) * 2022-09-29 2024-04-05 影石创新科技股份有限公司 Method and device for monitoring speed of aircraft, storage medium and aircraft

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2927262B1 (en) * 2008-02-13 2014-11-28 Parrot METHOD FOR CONTROLLING A ROTARY WING DRONE
FR2961601B1 (en) * 2010-06-22 2012-07-27 Parrot METHOD FOR EVALUATING THE HORIZONTAL SPEED OF A DRONE, IN PARTICULAR A DRONE SUITABLE FOR AUTOPILOT STATIONARY FLIGHT

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018013949A (en) * 2016-07-21 2018-01-25 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Mobile body, method for detecting obstacle of mobile body, and program for detecting obstacle of mobile body
JP2020019371A (en) * 2018-08-01 2020-02-06 三菱ロジスネクスト株式会社 Automated guided vehicle system using unmanned flight body
JP2021179957A (en) * 2019-07-25 2021-11-18 株式会社プロドローン Remote operation system and operation device thereof
JP2021179956A (en) * 2019-07-25 2021-11-18 株式会社プロドローン Remote operation system and operation device thereof
JPWO2021019679A1 (en) * 2019-07-30 2021-02-04
WO2021019679A1 (en) * 2019-07-30 2021-02-04 株式会社エアロネクスト Flight vehicle flying system and method for flying flight vehicle using flight vehicle flying system

Also Published As

Publication number Publication date
WO2017068998A1 (en) 2017-04-27

Similar Documents

Publication Publication Date Title
WO2017068998A1 (en) Flight control device, flight control method, multicopter, and program
US10761182B2 (en) Star tracker for multiple-mode detection and tracking of dim targets
US11722647B2 (en) Unmanned aerial vehicle imaging control method, unmanned aerial vehicle imaging method, control terminal, unmanned aerial vehicle control device, and unmanned aerial vehicle
US10356301B2 (en) Imaging system, angle-of-view adjustment method, and angle-of-view adjustment program
WO2017197651A1 (en) Systems and methods for rolling shutter correction
US20100245571A1 (en) Global hawk image mosaic
US9117271B2 (en) Apparatus, method and recording medium for image processing
US20210208283A1 (en) Efficient algorithm for projecting world points to a rolling shutter image
US20150177383A1 (en) System for laser detection with enhanced field of view
US11122215B2 (en) Imaging apparatus, unmanned moving object, imaging method, system, and program
JP6526955B2 (en) Sensor information integration method and device thereof
GB2483224A (en) Imaging device with measurement and processing means compensating for device motion
US11968448B2 (en) Imaging support device, imaging apparatus, imaging system, imaging support system, imaging support method, and program
JP2011130328A (en) Image processing apparatus, method and program
WO2021006227A1 (en) Image processing device and image processing method
JP2008233899A (en) Projection finder for camera with tilt sensor
CN112154480B (en) Positioning method and device for movable platform, movable platform and storage medium
JP2019009643A (en) Image processing apparatus, image processing method and program
CN113654528B (en) Method and system for estimating target coordinates through unmanned aerial vehicle position and cradle head angle
US20220286613A1 (en) Imaging support device, imaging apparatus, imaging system, imaging support method, and program
WO2019239460A1 (en) Camera calibration device
JP6813046B2 (en) Image flow correction device, image flow correction method and program
JPH10173978A (en) Tracking error detecting device
CN112313941A (en) Control device, imaging device, control method, and program
CA3063007A1 (en) Human-aided geo-rectification of geospatial metadata in video using a graphical interface