JP2021047738A - Moving object, flight path control method and program - Google Patents

Moving object, flight path control method and program Download PDF

Info

Publication number
JP2021047738A
JP2021047738A JP2019170898A JP2019170898A JP2021047738A JP 2021047738 A JP2021047738 A JP 2021047738A JP 2019170898 A JP2019170898 A JP 2019170898A JP 2019170898 A JP2019170898 A JP 2019170898A JP 2021047738 A JP2021047738 A JP 2021047738A
Authority
JP
Japan
Prior art keywords
flight
moving body
movement
flight path
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019170898A
Other languages
Japanese (ja)
Inventor
象 村越
Taka Murakoshi
象 村越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aerosense Inc
Original Assignee
Aerosense Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aerosense Inc filed Critical Aerosense Inc
Priority to JP2019170898A priority Critical patent/JP2021047738A/en
Publication of JP2021047738A publication Critical patent/JP2021047738A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To control a flight path of a moving object which performs aerial photography, and shoot for SLAM with a monaural camera.SOLUTION: A moving object is comprised of: a flight device for autonomously flying on a specified flight path; an imaging device for automatically taking images continuously during autonomous flight on the flight path; and a control device for controlling the flight device during autonomous flight so as to perform cross-movement for moving the flight path in a direction that intersects a direction of travel, while the control device estimates a self-position and creates an environmental map using the images taken by the imaging device taken during the cross-movement.SELECTED DRAWING: Figure 1

Description

本開示は、移動体、飛行経路制御方法及びプログラムに関する。 The present disclosure relates to moving objects, flight path control methods and programs.

無人航空機(UAV:Unmanned Aerial Vehicle)等の移動体では、移動体の撮像装置により取得された複数の画像を用いて三次元表示を実現することができる(特許文献1参照)。また、このような移動体が三次元地図を効率的に作成するために、自己位置推定と環境地図作成を同時に行うSLAM(Simultaneous Localization and Mapping)という技術が提案されている。 In a moving body such as an unmanned aerial vehicle (UAV), a three-dimensional display can be realized by using a plurality of images acquired by an imaging device of the moving body (see Patent Document 1). Further, in order for such a moving body to efficiently create a three-dimensional map, a technique called SLAM (Simultaneous Localization and Mapping) has been proposed in which self-position estimation and environment map creation are performed at the same time.

特表2018−530949号公報Special Table 2018-530949

しかしながら、上記の従来技術では、SLAMを実施する際に移動体がステレオカメラ(両眼カメラ)を搭載している場合には同時に複数の画像が撮影可能であるが、機体の制約からモノラルカメラ(単眼カメラ)しか搭載していない場合には同時に複数の画像が撮影できない。そのため、モノラルカメラのみを用いてSLAMのための撮影を行うことができる技術が要求されている。 However, in the above-mentioned conventional technique, when the moving body is equipped with a stereo camera (binocular camera) when performing SLAM, a plurality of images can be taken at the same time, but due to the limitation of the machine body, a monaural camera (monaural camera) If only a monocular camera is installed, multiple images cannot be taken at the same time. Therefore, there is a demand for a technique capable of shooting for SLAM using only a monaural camera.

そこで、本開示では、モノラルカメラでSLAMのための撮影を行うことができる移動体、飛行経路制御方法及びプログラムを提案する。 Therefore, the present disclosure proposes a moving body, a flight path control method, and a program capable of photographing for SLAM with a monaural camera.

本開示によれば、指定された飛行経路を自律飛行するための飛行装置と、前記飛行経路を自律飛行中に連続して画像を自動撮影する撮像装置と、前記飛行経路を自律飛行中に前記飛行装置を制御して進行方向と交差する方向に移動させる交差移動を実施し、交差移動の実施中に撮影した前記撮像装置の撮影画像を用いて自己位置推定と環境地図作成とを行う制御装置と、を備える移動体が提供される。 According to the present disclosure, a flight device for autonomously flying on a designated flight path, an imaging device for automatically taking images continuously during autonomous flight of the flight path, and the above-mentioned flight path during autonomous flight. A control device that controls a flight device to perform cross-movement to move in a direction intersecting the direction of travel, and performs self-position estimation and environmental map creation using images taken by the image pickup device taken during the cross-movement. And a moving body comprising.

また、本開示によれば、指定された飛行経路に沿って移動体を自律飛行させることと、前記飛行経路を自律飛行中に前記移動体に搭載された撮像装置を用いて連続して画像を自動撮影することと、前記飛行経路を自律飛行中に前記移動体を進行方向と交差する方向に移動させる交差移動を実施することと、交差移動の実施中に撮影した前記撮像装置の撮影画像を用いて自己位置推定と環境地図作成とを行うことと、を含む移動体の飛行経路制御方法が提供される。 Further, according to the present disclosure, the moving body is made to fly autonomously along the designated flight path, and the image is continuously captured by using the image pickup device mounted on the moving body during the autonomous flight of the flight path. Automatically photographing, performing crossing movement to move the moving body in a direction intersecting the traveling direction during autonomous flight of the flight path, and capturing an image taken by the imaging device during the crossing movement. A method for controlling the flight path of a moving body including self-position estimation and environment mapping is provided.

また、本開示によれば、指定された飛行経路に沿って移動体を自律飛行させるステップと、前記飛行経路を自律飛行中に前記移動体に搭載された撮像装置を用いて連続して画像を自動撮影するステップと、前記飛行経路を自律飛行中に前記移動体を進行方向と交差する方向に移動させる交差移動を実施するステップと、交差移動の実施中に撮影した前記撮像装置の撮影画像を用いて自己位置推定と環境地図作成とを行うステップと、をコンピュータに実行させるためのプログラムが提供される。 Further, according to the present disclosure, an image is continuously captured by using a step of autonomously flying a moving body along a designated flight path and an imaging device mounted on the moving body during autonomous flight of the flight path. The step of automatically photographing, the step of performing the crossing movement of moving the moving body in the direction intersecting the traveling direction during the autonomous flight of the flight path, and the step of performing the crossing movement, and the captured image of the imaging device taken during the crossing movement are taken. A program is provided to allow a computer to perform the steps of self-position estimation and environment mapping using it.

本開示の実施形態に係る移動体の構成例を示すブロック図である。It is a block diagram which shows the structural example of the moving body which concerns on embodiment of this disclosure. 本開示の実施形態に係る移動体の全体動作を説明するためのフローチャートである。It is a flowchart for demonstrating the whole operation of the moving body which concerns on embodiment of this disclosure. 本開示の実施形態に係る移動体のSLAM撮影時の動作を説明するためのフローチャートである。It is a flowchart for demonstrating the operation at the time of SLAM photography of the moving body which concerns on embodiment of this disclosure. SLAMのための視差について説明するための概念図である。It is a conceptual diagram for explaining the parallax for SLAM. 本開示の実施形態に係る移動体のSLAM用の横ずれ移動について説明するための概念図である。It is a conceptual diagram for demonstrating the lateral shift movement for SLAM of the moving body which concerns on embodiment of this disclosure. 本開示の実施形態に係る移動体の機体が正弦波を描いて飛行するパターンの例を示すイメージ図である。It is an image diagram which shows the example of the pattern which the body of the moving body which concerns on embodiment of this disclosure flies in a sine wave. 本開示の実施形態に係る移動体の機体が矩形波(方形波)を描いて飛行するパターンの例を示すイメージ図である。It is an image diagram which shows the example of the pattern which the body of the moving body which concerns on embodiment of this disclosure flies in a rectangular wave (square wave). 本開示の実施形態に係る移動体の機体が三角波を描いて飛行するパターンの例を示すイメージ図である。It is an image diagram which shows the example of the pattern in which the body of the moving body which concerns on embodiment of this disclosure flies in a triangular wave. 本開示の実施形態に係る移動体の機体が鋸歯状波(のこぎり波)を描いて飛行するパターンの例を示すイメージ図である。It is an image diagram which shows the example of the pattern in which the body of the moving body which concerns on embodiment of this disclosure flies while drawing a sawtooth wave (sawtooth wave).

以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。 Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings. In the following embodiments, the same parts are designated by the same reference numerals, so that duplicate description will be omitted.

また、以下に示す項目順序に従って本開示を説明する。
1.実施形態
1.1.移動体の概要
1.2.移動体の動作
1.2.1.移動体の全体動作
1.2.2.移動体のSLAM撮影時の動作
1.2.3.例外処理
1.3.SLAM用の横ずれ移動
1.4.ステレオカメラを用いたSLAMとの差異
1.5.変形例
2.むすび
In addition, the present disclosure will be described according to the order of items shown below.
1. 1. Embodiment 1.1. Outline of mobile 1.2. Movement of moving object 1.2.1. Overall operation of the moving body 1.2.2. Operation of moving object during SLAM shooting 1.2.3. Exception handling 1.3. Lateral movement for SLAM 1.4. Difference from SLAM using a stereo camera 1.5. Modification example 2. Conclusion

1.実施形態
まず、本開示の実施形態に係る移動体について、以下に図面を参照して詳細に説明する。
1. 1. Embodiment First, the moving body according to the embodiment of the present disclosure will be described in detail with reference to the drawings below.

1.1.移動体の概要
図1は、本開示の実施形態に係る移動体1の構成例を示すブロック図である。移動体1は、例えば無人航空機(UAV)等の自律飛行を行う小型の飛行体(いわゆるドローン)である。図1に示すように、移動体1は、飛行制御部2と、飛行装置3と、飛行経路格納部4と、位置情報取得部5と、障害物検出用カメラ6と、空撮用カメラ7と、カメラ制御部8と、横滑り信号生成部9と、通信部10を備える。
1.1. Outline of the Moving Body FIG. 1 is a block diagram showing a configuration example of the moving body 1 according to the embodiment of the present disclosure. The mobile body 1 is a small vehicle (so-called drone) that performs autonomous flight, such as an unmanned aerial vehicle (UAV). As shown in FIG. 1, the moving body 1 includes a flight control unit 2, a flight device 3, a flight path storage unit 4, a position information acquisition unit 5, an obstacle detection camera 6, and an aerial photography camera 7. A camera control unit 8, a skid signal generation unit 9, and a communication unit 10 are provided.

飛行制御部2(フライトコントローラ)は、例えばCPU(Central Processing Unit)等のプロセッサ、マイクロコントローラ、又はASIC(application specific integrated circuit)やFPGA(field-programmable gate array)等の集積回路等であり、内部のメモリに格納されたプログラムに従って飛行装置3を制御し、飛行経路格納部4に格納された飛行経路の情報に従って飛行経路に沿った自律飛行を行わせる。また、飛行制御部2は、移動体1の機体に搭載された各種センサにより測定された移動体1の位置や姿勢の状態に基づいて、目標の状態になるようにフィードバック制御を行う。 The flight control unit 2 (flight controller) is, for example, a processor such as a CPU (Central Processing Unit), a microcontroller, or an integrated circuit such as an ASIC (application specific integrated circuit) or an FPGA (field-programmable gate array). The flight device 3 is controlled according to the program stored in the memory of the above, and autonomous flight along the flight path is performed according to the flight path information stored in the flight path storage unit 4. Further, the flight control unit 2 performs feedback control so as to reach the target state based on the state of the position and attitude of the moving body 1 measured by various sensors mounted on the body of the moving body 1.

飛行装置3は、例えば動翼とサーボモータにより、あるいはプロペラとモータと制御回路により構成されている。このような飛行装置3を有する移動体1の機体の例として、マルチコプター(MC:MultiCopter)、固定翼機(FW:Fixed Wing)、及び垂直離着陸機(VTOL:Vertical Take-Off and Landing Aircraft)等がある。 The flight device 3 is composed of, for example, a moving blade and a servomotor, or a propeller, a motor, and a control circuit. Examples of the aircraft of the moving body 1 having such a flight device 3 are a multicopter (MC: MultiCopter), a fixed-wing aircraft (FW: Fixed Wing), and a vertical take-off and landing aircraft (VTOL: Vertical Take-Off and Landing Aircraft). And so on.

飛行経路格納部4は、例えばRAM(Random Access Memory)等のメモリであり、オペレータ等により予め決められた飛行経路の情報及びその他の各種情報を格納する。飛行経路格納部4は、フラッシュメモリ、SSD(Solid State Drive)やHDD(ハードディスク)等のストレージ、光ディスク等の記憶媒体(メディア)とその読み書きを行う駆動装置(ドライブ)等であってもよい。 The flight path storage unit 4 is, for example, a memory such as a RAM (Random Access Memory), and stores flight path information and various other information predetermined by an operator or the like. The flight path storage unit 4 may be a flash memory, a storage such as an SSD (Solid State Drive) or an HDD (hard disk), a storage medium (media) such as an optical disk, and a drive device (drive) for reading and writing the same.

位置情報取得部5は、例えばGPS(Global Positioning System)受信機等であり、GPSを利用して、移動体1の現在位置に関する情報を取得する。なお、GPSは、GNSS(Global Navigation Satellite System)の1つである。すなわち、GPS以外のGNSSを利用することも可能である。また、GPSを用いずに、SLAMにより移動体1の現在位置を特定してもよい。 The position information acquisition unit 5 is, for example, a GPS (Global Positioning System) receiver or the like, and uses GPS to acquire information regarding the current position of the mobile body 1. GPS is one of GNSS (Global Navigation Satellite System). That is, it is also possible to use GNSS other than GPS. Further, the current position of the moving body 1 may be specified by SLAM without using GPS.

障害物検出用カメラ6は、例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等からなるイメージセンサであり、移動体1の自律飛行中に連続して画像を自動撮影する撮像装置である。障害物検出用カメラ6は、飛行経路上の障害物等を検出するために使用される。飛行経路上の障害物とは、例えば地形、生物、自然物、構造物、飛行体、飛来物等である。具体的には、山や崖、人や鳥、樹木、建設機械、建物、橋(高架橋)、鉄塔、電柱及び電線、他の無人航空機(UAV)等が障害物となり得る。少なくとも飛行経路上にあって移動体1と同じ高度に達し、移動体1の自律飛行の妨げとなる対象物は、障害物となる。また、予め存在がわかっている場合には飛行経路の設定により接近しないことも可能であるが、事故や災害等による崩壊や倒木等で飛行経路上に予期せぬ障害物が発生することもある。障害物検出用カメラ6の撮影画像は、画像処理により地形や構造物等が判別可能であれば十分であるため、白黒/モノクロ(グレースケール)でもよい。本実施形態では、障害物検出用カメラ6は、白黒画像のモノラルカメラ(単眼カメラ)である。 The obstacle detection camera 6 is an image sensor made of, for example, a CCD (Charge Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), or the like, and is an imaging device that automatically continuously captures images during autonomous flight of the moving body 1. is there. The obstacle detection camera 6 is used to detect an obstacle or the like on the flight path. Obstacles on the flight path are, for example, terrain, living things, natural objects, structures, flying objects, flying objects, and the like. Specifically, mountains and cliffs, people and birds, trees, construction machinery, buildings, bridges (viaducts), steel towers, utility poles and electric wires, and other unmanned aerial vehicles (UAVs) can be obstacles. An object that is at least on the flight path and reaches the same altitude as the moving body 1 and interferes with the autonomous flight of the moving body 1 becomes an obstacle. In addition, if the existence is known in advance, it is possible to stay away from the flight by setting the flight path, but unexpected obstacles may occur on the flight path due to collapse or fallen trees due to an accident or disaster. .. The image captured by the obstacle detection camera 6 may be black-and-white / monochrome (grayscale) because it is sufficient if the terrain, structures, and the like can be identified by image processing. In the present embodiment, the obstacle detection camera 6 is a black-and-white image monaural camera (monocular camera).

障害物検出用カメラ6には、すべての画素のシャッターが同時におりるグローバルシャッターを採用する。障害物検出用カメラ6にグローバルシャッターを採用する理由は、画素ごと、例えば撮影画像の左上の画素と右下の画素のように離れた場所の画素でそれぞれシャッターのタイミングが異なると、異なる時刻の風景を見ていることになるので、移動体1の機体が移動していると障害物検出アルゴリズムの精度が低下するためである。したがって、画像内の画素間に時間のずれが生じないようにグローバルシャッターを用いる。但し、移動体1の速度が低速であれば、ローリングシャッターのカメラも利用可能である。 The obstacle detection camera 6 employs a global shutter in which shutters of all pixels are simultaneously activated. The reason for adopting the global shutter for the obstacle detection camera 6 is that if the shutter timing is different for each pixel, for example, the upper left pixel and the lower right pixel of the captured image, the shutter timing is different. This is because the accuracy of the obstacle detection algorithm is lowered when the moving body 1 is moving because the scenery is being viewed. Therefore, the global shutter is used so that there is no time lag between the pixels in the image. However, if the speed of the moving body 1 is low, a camera with a rolling shutter can also be used.

障害物検出用カメラ6の搭載例について説明する。例えば移動体1の機体が垂直離着陸機(VTOL)である場合には、障害物検出用カメラ6は機首付近に搭載する。障害物検出用カメラ6の向きは、トラッキングのため地面が見えるようにわずかに下向きにする。 An example of mounting the obstacle detection camera 6 will be described. For example, when the body of the moving body 1 is a vertical take-off and landing aircraft (VTOL), the obstacle detection camera 6 is mounted near the nose. The direction of the obstacle detection camera 6 is slightly downward so that the ground can be seen for tracking.

空撮用カメラ7は、例えばCCDやCMOS等からなるイメージセンサであり、移動体1の自律飛行中に自動的に又はオペレータ操作に応じて空撮を行う撮像装置である。空撮用カメラ7の撮影画像は人間が見るものであるため、色情報があるほうがよい。但し、空撮の品質を問わなければ、障害物検出用カメラ6の出力(白黒画像)を空撮用カメラ7の撮影画像として利用することも可能である。空撮用カメラ7には、撮影画素と撮影時刻について障害物検出用カメラ6ほどの精度を求められないので、グローバルシャッターよりも低価格なローリングシャッターを使用する。その代わりに解像度を上げる。 The aerial photography camera 7 is an image sensor made of, for example, a CCD or CMOS, and is an imaging device that automatically or in response to an operator operation during autonomous flight of the moving body 1. Since the captured image of the aerial camera 7 is viewed by humans, it is preferable to have color information. However, regardless of the quality of aerial photography, the output (black and white image) of the obstacle detection camera 6 can be used as an image taken by the aerial photography camera 7. Since the aerial photography camera 7 is not required to have the same accuracy as the obstacle detection camera 6 in terms of shooting pixels and shooting time, a rolling shutter that is cheaper than the global shutter is used. Instead, increase the resolution.

障害物検出用カメラ6及び空撮用カメラ7の各々と、カメラ制御部8とは、例えばUSB(Universal Serial Bus)により接続されている。障害物検出用カメラ6及び空撮用カメラ7の各々は、USB通信規格(通信プロトコル)であるPTP(Picture Transfer Protocol)に従って、カメラ制御部8から画像の撮影開始、撮影停止、撮影設定等の様々な撮影制御コマンド(指令)を受信する。 Each of the obstacle detection camera 6 and the aerial photography camera 7 and the camera control unit 8 are connected by, for example, USB (Universal Serial Bus). Each of the obstacle detection camera 6 and the aerial photography camera 7 is subjected to image shooting start, shooting stop, shooting setting, etc. from the camera control unit 8 in accordance with PTP (Picture Transfer Protocol), which is a USB communication standard (communication protocol). Receives various shooting control commands (commands).

カメラ制御部8は、例えばCPU等のプロセッサ、マイクロコントローラ、又はASICやFPGA等の集積回路等であり、内部のメモリに格納されたプログラムに従って、上記撮影制御コマンドを障害物検出用カメラ6及び空撮用カメラ7の各々に出力する。例えば、カメラ制御部8は、位置情報取得部5から移動体1の現在位置に関する情報(GPS信号等)を受信し、上記プログラムに従って、飛行経路の情報に記録された撮影開始位置と、GPS信号に基づく現在位置とが一致した場合に、撮影開始コマンドを空撮用カメラ7に出力する。また、飛行経路の情報に記録された撮影停止位置と、GPS信号に基づく現在位置とが一致した場合に、撮影停止コマンドを空撮用カメラ7に出力する。なお、カメラ制御部8は、飛行制御部2と一体化していてもよい。 The camera control unit 8 is, for example, a processor such as a CPU, a microcontroller, or an integrated circuit such as an ASIC or FPGA, and issues the above-mentioned shooting control command to the obstacle detection camera 6 and the sky according to a program stored in the internal memory. It is output to each of the photographing cameras 7. For example, the camera control unit 8 receives information (GPS signal, etc.) about the current position of the moving body 1 from the position information acquisition unit 5, and according to the above program, the shooting start position recorded in the flight path information and the GPS signal. When the current position based on is the same, a shooting start command is output to the aerial shooting camera 7. Further, when the shooting stop position recorded in the flight path information and the current position based on the GPS signal match, a shooting stop command is output to the aerial shooting camera 7. The camera control unit 8 may be integrated with the flight control unit 2.

また、カメラ制御部8は、障害物検出用カメラ6の撮影画像に基づいて、飛行経路上の障害物の有無について判定する。すなわち、カメラ制御部8は、障害物検出部としても機能する。本実施形態では、カメラ制御部8は、障害物検出用カメラ6を用いてSLAMのための撮影(以下、SLAM撮影)を行う。 Further, the camera control unit 8 determines the presence or absence of an obstacle on the flight path based on the captured image of the obstacle detection camera 6. That is, the camera control unit 8 also functions as an obstacle detection unit. In the present embodiment, the camera control unit 8 uses the obstacle detection camera 6 to perform shooting for SLAM (hereinafter referred to as SLAM shooting).

また、カメラ制御部8は、空撮用カメラ7に出力した指令及び/又は空撮用カメラ7の撮影画像等に基づいて、空撮用カメラ7が撮影中か否かについて判定する。カメラ制御部8は、空撮用カメラ7が撮影中である場合には、障害物検出用カメラ6でのSLAM撮影を中止する。例えば、カメラ制御部8は、空撮用カメラ7が撮影中である場合には、飛行制御部2や横滑り信号生成部9に対して、SLAM撮影に関する処理を中止する旨の指令を出力する。なお、カメラ制御部8は、障害物検出用カメラ6でのSLAM撮影を中止した場合でも、障害物を検出するために障害物検出用カメラ6での撮影自体は継続する。 Further, the camera control unit 8 determines whether or not the aerial camera 7 is shooting based on the command output to the aerial camera 7 and / or the captured image of the aerial camera 7. When the aerial camera 7 is shooting, the camera control unit 8 stops SLAM shooting with the obstacle detection camera 6. For example, when the aerial camera 7 is shooting, the camera control unit 8 outputs a command to the flight control unit 2 and the skid signal generation unit 9 to stop the processing related to SLAM shooting. Even if the camera control unit 8 stops the SLAM shooting with the obstacle detection camera 6, the camera control unit 8 continues the shooting itself with the obstacle detection camera 6 in order to detect the obstacle.

横滑り信号生成部9は、例えばCPU等のプロセッサ、マイクロコントローラ、又はASICやFPGA等の集積回路等であり、内部のメモリに格納されたプログラムに従って、飛行経路格納部4に格納されたパラメータから、飛行経路に横滑りを加える横滑り信号を生成する。横滑りとは、飛行経路の進行方向に対して交差(例えば直交)する方向へ移動させる交差移動のうち、小刻みな旋回等により飛行経路の進行方向に対して水平(左右)に交差する方向へ移動させる横ずれ移動のことである。飛行経路に横滑りを加える理由は、モノラルカメラでSLAM撮影するために「視差」を利用するためである。視差の詳細については、後述する「1.3.SLAM用の横ずれ移動」で説明する。なお、横滑り信号生成部9は、飛行制御部2と一体化していてもよい。 The skid signal generation unit 9 is, for example, a processor such as a CPU, a microcontroller, or an integrated circuit such as an ASIC or FPGA, and is based on parameters stored in the flight path storage unit 4 according to a program stored in an internal memory. Generates a skid signal that adds skidding to the flight path. Sideslip is a cross movement that moves in a direction that intersects (for example, orthogonally) with the direction of travel of the flight path, and moves in a direction that intersects horizontally (left and right) with respect to the direction of travel of the flight path due to small turns or the like. It is a lateral shift movement that causes the vehicle to move. The reason for adding skidding to the flight path is to use "parallax" for SLAM shooting with a monaural camera. The details of the parallax will be described later in "1.3. Lateral movement for SLAM". The skid signal generation unit 9 may be integrated with the flight control unit 2.

パラメータは、例えば横ずれ幅SW(Sideslip Width)、横ずれ時間ST(Sideslip Time)、及び横ずれパターンSP(Sideslip Pattern)に関する情報である。横ずれパターンSPは、移動体1の飛行中に移動体1を垂直方向(上下方向)から見たときに移動体1の機体が水平方向(前後左右方向)に描く軌跡のパターンを表す。横ずれパターンSPは、例えば正弦波、矩形波(方形波)、三角波、又は鋸歯状波(のこぎり波)である。横ずれパターンSPの波形は、飛行中の横ずれ移動における現実の機体の挙動を考慮して、パルス波よりもステップ波(エッジが斜め)であると好ましく、角が丸みを帯びていてもよい。例えば、矩形波は台形波やS字波でもよい。本実施形態では、横ずれパターンSPの波形として、正弦波を例に説明する。また、横ずれ幅SWは中心軸(本来の飛行経路)から波形の片側のピーク位置(最高点)に達するまでのずれ幅であり、横ずれ時間STは中心軸(本来の飛行経路)から横ずれ幅SWの分だけ移動するのに要する時間である。例えば、横ずれパターンSPの波形が正弦波の場合には、横ずれ幅SWは振幅を表す。また、横ずれ時間STを4倍した値は単位時間を表し、その逆数は周波数を表す。 The parameters are, for example, information regarding a strike-slip width SW (Sideslip Width), a strike-slip time ST (Sideslip Time), and a strike-slip pattern SP (Sideslip Pattern). The strike-slip pattern SP represents a pattern of a trajectory drawn by the body of the moving body 1 in the horizontal direction (front-back, left-right direction) when the moving body 1 is viewed from the vertical direction (vertical direction) during the flight of the moving body 1. The strike-slip pattern SP is, for example, a sine wave, a square wave (square wave), a triangular wave, or a sawtooth wave (sawtooth wave). The waveform of the strike-slip pattern SP is preferably a step wave (diagonal edge) rather than a pulse wave in consideration of the actual behavior of the airframe during the strike-slip movement during flight, and the corners may be rounded. For example, the square wave may be a trapezoidal wave or an S-shaped wave. In the present embodiment, a sine wave will be described as an example of the waveform of the strike-slip pattern SP. The lateral displacement SW is the displacement width from the central axis (original flight path) to the peak position (highest point) on one side of the waveform, and the lateral displacement time ST is the lateral displacement SW from the central axis (original flight path). It is the time required to move by the amount of. For example, when the waveform of the strike-slip pattern SP is a sine wave, the strike-slip width SW represents the amplitude. Further, a value obtained by multiplying the strike-slip time ST by 4 represents a unit time, and the reciprocal thereof represents a frequency.

飛行制御部2は、カメラ制御部8から障害物の方向と障害物までの距離に関する情報を受信し、横滑り信号生成部9から飛行経路に横滑りを加える横滑り信号を受信する。飛行制御部2は、横滑り信号に基づいて、移動体1が飛行経路を飛行中に進行方向に対して水平(左右)に交差する方向に横ずれ移動するように飛行装置3を制御する。これにより、移動体1は、垂直方向から見た場合に機体が水平方向に横ずれパターンSPを描くように飛行する。なお、飛行制御部2は、移動体1の軌跡が所定の横ずれ幅SW/横ずれパターンSPになるように、GPSと慣性センサを用いて生成した軌跡情報からフィードバックをかけてもよい。 The flight control unit 2 receives information on the direction of the obstacle and the distance to the obstacle from the camera control unit 8, and receives a skid signal from the skid signal generation unit 9 to add skidding to the flight path. Based on the skid signal, the flight control unit 2 controls the flight device 3 so that the moving body 1 shifts laterally in the direction of crossing the flight path horizontally (left and right) with respect to the traveling direction during flight. As a result, the moving body 1 flies so that the airframe draws a lateral displacement pattern SP in the horizontal direction when viewed from the vertical direction. The flight control unit 2 may give feedback from the trajectory information generated by using the GPS and the inertial sensor so that the trajectory of the moving body 1 has a predetermined lateral displacement width SW / lateral displacement pattern SP.

また、カメラ制御部8は、横滑り信号生成部9が横滑り信号を生成してから一定時間が経過した際に、その時点の障害物検出用カメラ6の撮影画像にSLAM用画像フラグを立てる。SLAM用画像フラグは、例えば「0」か「1」かの2値で表され、障害物検出用カメラ6の撮影画像のうちSLAMに使用される撮影画像に立てるフラグ(flag)である。この一定時間は、例えば、一方向の横ずれ移動に要する時間に、一方向の横ずれ移動が終了してから撮影画像にSLAM用画像フラグを立てるまでの時間(数ミリ秒から数十ミリ秒程度)を加味した値である。なお、一方向の横ずれ移動に要する時間は、最初は中心軸(本来の飛行経路)から波形の片側のピーク位置までの移動であるため、横ずれ時間STと同値であるが、2回目以降は波形の両側のピーク位置間を移動するため、横ずれ時間STを2倍した値となる。横滑り信号生成部9は、横滑り信号を生成してから一方向の横ずれ移動に要する時間が経過した時点で、SLAM用画像フラグをカメラ制御部8に出力する。カメラ制御部8は、横滑り信号生成部9からSLAM用画像フラグの指示を受信し、SLAM用画像フラグの指示に応じて、その時点の障害物検出用カメラ6の撮影画像にSLAM用画像フラグを立てる。 Further, when a certain time elapses after the skid signal generation unit 9 generates the skid signal, the camera control unit 8 sets the SLAM image flag on the captured image of the obstacle detection camera 6 at that time. The SLAM image flag is represented by, for example, a binary value of "0" or "1", and is a flag set on the captured image used for SLAM among the captured images of the obstacle detection camera 6. This fixed time is, for example, the time required for one-way lateral movement, from the end of one-way lateral movement to the setting of the SLAM image flag on the captured image (about several milliseconds to several tens of milliseconds). It is a value that takes into account. The time required for one-way strike-slip movement is the same as the strike-slip time ST because it is the movement from the central axis (original flight path) to the peak position on one side of the waveform at first, but the waveform after the second time. Since it moves between the peak positions on both sides of the above, the value is obtained by doubling the strike-slip time ST. The skid signal generation unit 9 outputs the SLAM image flag to the camera control unit 8 when the time required for the lateral slip movement in one direction elapses after the skid signal is generated. The camera control unit 8 receives an instruction of the SLAM image flag from the skid signal generation unit 9, and in response to the instruction of the SLAM image flag, sets the SLAM image flag to the captured image of the obstacle detection camera 6 at that time. Stand up.

障害物検出用カメラ6の撮影画像は横ずれ移動とは関係なく一定周期で撮影されており、例えば1秒で30枚撮影される。その中で横ずれ移動が3秒おきに発生したとすると、3×30=90枚の撮影画像のうち1枚にSLAM用画像フラグが立つことになる。ここでは、一方向の横ずれ移動が中止されることなく正常に終了した時点又は直後(少なくとも横ずれパターンSPが逆位相に反転する前)の撮影画像にSLAM用画像フラグを立てる。例えば、横ずれパターンSPの波形のピーク位置での撮影画像にSLAM用画像フラグを立てる。以降、横ずれ移動が正常に終了するごとに、撮影画像にSLAM用画像フラグを立てる。そして、カメラ制御部8は、SLAM用画像フラグが立っている撮影画像を使ってSLAMを実施する。なお、SLAMを実施するのは、リアルタイムでもよいし、飛行終了後でもよい。 The captured image of the obstacle detection camera 6 is captured at a fixed cycle regardless of the lateral shift movement, and for example, 30 images are captured in 1 second. Assuming that the lateral shift occurs every 3 seconds, the SLAM image flag is set on one of the 3 × 30 = 90 captured images. Here, the SLAM image flag is set for the captured image at the time when the lateral displacement movement in one direction is normally completed without being stopped or immediately after (at least before the lateral displacement pattern SP is inverted in the opposite phase). For example, an image flag for SLAM is set in the captured image at the peak position of the waveform of the strike-slip pattern SP. After that, every time the lateral shift movement is completed normally, the SLAM image flag is set in the captured image. Then, the camera control unit 8 executes SLAM using the captured image in which the SLAM image flag is set. The SLAM may be carried out in real time or after the flight is completed.

通信部10は、例えば無線通信用のアンテナ等であり、撮影画像及び各種データの外部送信や、外部からの制御信号等の受信に使用される。通信部10は、インターネットを介して通信するための通信装置でもよい。例えば、飛行制御部2は、通信部10を介して、地上のリモートコントローラからの指示(制御信号)を受信し、この指示に基づいて飛行制御を行うこともできる。また、カメラ制御部8は、通信部10を介して、地上のリモートコントローラからの指示を受信し、この指示に基づいて撮影制御コマンドをカメラに出力することもできる。また、カメラ制御部8は、通信部10を介して、カメラによる撮影画像を地上のPC(パソコン)等の通信装置に送信することもできる。地上のリモートコントローラは、移動体1に対し、オペレータの操作に応じて指示を送信してもよいし、プログラム制御により自動的に指示を送信してもよい。 The communication unit 10 is, for example, an antenna for wireless communication, and is used for external transmission of captured images and various data, and reception of control signals and the like from the outside. The communication unit 10 may be a communication device for communicating via the Internet. For example, the flight control unit 2 may receive an instruction (control signal) from a remote controller on the ground via the communication unit 10 and perform flight control based on the instruction. Further, the camera control unit 8 can receive an instruction from the remote controller on the ground via the communication unit 10 and output a shooting control command to the camera based on the instruction. Further, the camera control unit 8 can also transmit the image captured by the camera to a communication device such as a PC (personal computer) on the ground via the communication unit 10. The remote controller on the ground may send an instruction to the moving body 1 according to the operation of the operator, or may automatically send the instruction by program control.

1.2.移動体の動作
1.2.1.移動体の全体動作
次に、本開示の実施形態に係る移動体の動作について説明する。図2は、本開示の実施形態に係る移動体1の全体動作を説明するためのフローチャートである。
1.2. Movement of moving object 1.2.1. Overall operation of the moving body Next, the operation of the moving body according to the embodiment of the present disclosure will be described. FIG. 2 is a flowchart for explaining the overall operation of the moving body 1 according to the embodiment of the present disclosure.

図2に示すように、オペレータは、移動体1の電源を投入し(ステップS101)、移動体1にパラメータ(ステップS102)と飛行経路(ステップS103)を設定する。これにより、移動体1は、パラメータと、飛行経路の情報を飛行経路格納部4に格納する。 As shown in FIG. 2, the operator turns on the power of the moving body 1 (step S101), and sets the parameter (step S102) and the flight path (step S103) in the moving body 1. As a result, the moving body 1 stores the parameters and the flight route information in the flight path storage unit 4.

飛行制御部2は、飛行装置3を制御し、飛行経路格納部4に格納された飛行経路の情報に従って飛行経路に沿った自律飛行を行わせる(ステップS104)。 The flight control unit 2 controls the flight device 3 and causes autonomous flight along the flight path according to the flight path information stored in the flight path storage unit 4 (step S104).

飛行制御部2は、移動体1の自律飛行の開始に伴い、横滑り信号生成部9に指令を出力し、障害物検出用カメラ6でのSLAM撮影を実施する(ステップS105)。 The flight control unit 2 outputs a command to the skid signal generation unit 9 with the start of the autonomous flight of the moving body 1, and performs SLAM imaging with the obstacle detection camera 6 (step S105).

飛行制御部2は、飛行経路格納部4に格納された飛行経路の情報と、位置情報取得部5からの移動体1の現在位置に関する情報とに基づいて、目的地に到着したか否かを判定する(ステップS106)。なお、目的地は出発地と同一でもよい。飛行制御部2は、目的地に到着していないと判定した場合には(ステップS106でNo)、飛行制御を継続し、障害物検出用カメラ6でのSLAM撮影を継続する(ステップS105に戻る)。 The flight control unit 2 determines whether or not the vehicle has arrived at the destination based on the flight route information stored in the flight path storage unit 4 and the information regarding the current position of the moving body 1 from the position information acquisition unit 5. Determine (step S106). The destination may be the same as the departure point. If the flight control unit 2 determines that it has not arrived at the destination (No in step S106), the flight control unit 2 continues flight control and continues SLAM imaging with the obstacle detection camera 6 (returns to step S105). ).

飛行制御部2は、目的地に到着したと判定した場合には(ステップS106でYes)、横滑り信号生成部9に指令を出力して障害物検出用カメラ6でのSLAM撮影を終了し、飛行制御を終了する(ステップS107)。 When the flight control unit 2 determines that the aircraft has arrived at the destination (Yes in step S106), the flight control unit 2 outputs a command to the skid signal generation unit 9, ends SLAM shooting with the obstacle detection camera 6, and flies. The control ends (step S107).

1.2.2.移動体のSLAM撮影時の動作
次に、図2のステップS105に示したSLAM撮影時の動作の詳細について説明する。図3は、本開示の実施形態に係る移動体1のSLAM撮影時の動作を説明するためのフローチャートである。
1.2.2. Operation of the moving body during SLAM imaging Next, the details of the operation during SLAM imaging shown in step S105 of FIG. 2 will be described. FIG. 3 is a flowchart for explaining the operation of the moving body 1 according to the embodiment of the present disclosure at the time of SLAM photographing.

図3に示すように、飛行制御部2は、移動体1の自律飛行の開始(図2のステップS104)に伴い、横滑り信号生成部9に指令を出力し、障害物検出用カメラ6でのSLAM撮影を開始する(ステップS201)。 As shown in FIG. 3, the flight control unit 2 outputs a command to the skid signal generation unit 9 with the start of the autonomous flight of the moving body 1 (step S104 in FIG. 2), and the obstacle detection camera 6 is used. SLAM shooting is started (step S201).

横滑り信号生成部9は、飛行経路格納部4に格納されたパラメータから、飛行経路に横滑りを加える横滑り信号を生成し、飛行制御部2に出力する(ステップS202)。 The skid signal generation unit 9 generates a skid signal that adds skidding to the flight path from the parameters stored in the flight path storage unit 4, and outputs the skid signal to the flight control unit 2 (step S202).

飛行制御部2は、横滑り信号生成部9から横滑り信号を受信し、横滑り信号に基づいて、移動体1が飛行経路を飛行中に進行方向に対して水平に交差する方向に横ずれ移動するように飛行装置3を制御する(ステップS203)。 The flight control unit 2 receives the skid signal from the skid signal generation unit 9, and based on the skid signal, causes the moving body 1 to laterally move in a direction horizontally intersecting the traveling direction during flight. The flight device 3 is controlled (step S203).

飛行制御部2及び/又はカメラ制御部8は、例外処理が発生したか否かを判定する(ステップS204)。例外処理の詳細については、後述する「1.2.3.例外処理」で説明する。例外処理が発生したと判定されなかった場合には(ステップS204でNo)、飛行制御部2及び/又はカメラ制御部8は、現在の動作を継続する(ステップS205へ移行)。 The flight control unit 2 and / or the camera control unit 8 determines whether or not exception handling has occurred (step S204). The details of exception handling will be described in "12.3. Exception handling" described later. If it is not determined that the exception handling has occurred (No in step S204), the flight control unit 2 and / or the camera control unit 8 continues the current operation (shift to step S205).

カメラ制御部8は、横滑り信号生成部9からSLAM用画像フラグの指示を受信したか判定する(ステップS205)。例えば、横滑り信号生成部9は、横滑り信号を生成してから一方向の横ずれ移動に要する時間が経過した場合には、SLAM用画像フラグの指示をカメラ制御部8に出力する。カメラ制御部8は、横滑り信号生成部9からSLAM用画像フラグの指示を受信していない場合には(ステップS205でNo)、SLAM用画像フラグの指示を受信するまで現在の動作を継続する(ステップS203に戻る)。 The camera control unit 8 determines whether or not the instruction of the SLAM image flag has been received from the skid signal generation unit 9 (step S205). For example, the skid signal generation unit 9 outputs an instruction of the SLAM image flag to the camera control unit 8 when the time required for the lateral slip movement in one direction elapses after the skid signal is generated. If the camera control unit 8 has not received the SLAM image flag instruction from the skid signal generation unit 9 (No in step S205), the camera control unit 8 continues the current operation until it receives the SLAM image flag instruction (No). Return to step S203).

カメラ制御部8は、横滑り信号生成部9からSLAM用画像フラグの指示を受信した場合には(ステップS205でYes)、SLAM用画像フラグの指示に応じて、その時点の障害物検出用カメラ6の撮影画像にSLAM用画像フラグを立てる(ステップS206)。これにより、カメラ制御部8は、横滑り信号生成部9が横滑り信号を生成してから一定時間が経過した際に、その時点の障害物検出用カメラ6の撮影画像にSLAM用画像フラグを立てる。 When the camera control unit 8 receives the instruction of the SLAM image flag from the skid signal generation unit 9 (Yes in step S205), the camera control unit 8 responds to the instruction of the SLAM image flag and determines the obstacle detection camera 6 at that time. An image flag for SLAM is set in the captured image of (step S206). As a result, the camera control unit 8 sets the SLAM image flag on the captured image of the obstacle detection camera 6 at that time when a certain time elapses after the skid signal generation unit 9 generates the skid signal.

横滑り信号生成部9は、SLAM用画像フラグの指示をカメラ制御部8に出力した後、飛行経路格納部4に格納されたパラメータから、現在の横滑り信号とは逆位相の横滑り信号を生成し、飛行制御部2に出力する(ステップS207)。飛行制御部2は、横滑り信号生成部9から逆位相の横滑り信号を受信し、逆位相の横滑り信号に基づいて、これまでとは逆方向に横ずれ移動するように飛行装置3を制御する(ステップS203に戻る)。 After outputting the instruction of the image flag for SLAM to the camera control unit 8, the skid signal generation unit 9 generates a skid signal having a phase opposite to the current skid signal from the parameters stored in the flight path storage unit 4. Output to the flight control unit 2 (step S207). The flight control unit 2 receives the skid signal of the opposite phase from the skid signal generation unit 9, and controls the flight device 3 so as to laterally move in the opposite direction to the conventional one based on the skid signal of the opposite phase (step). Return to S203).

また、例外処理が発生したと判定された場合には(ステップS204でYes)、飛行制御部2及び/又はカメラ制御部8は、横滑り信号生成部9に指令を出力して障害物検出用カメラ6でのSLAM撮影を終了する(ステップS208)。また、飛行制御部2は、横ずれ移動を終了して移動体1に通常飛行を行わせる(ステップS209)。そして、飛行制御部2及び/又はカメラ制御部8は、発生した例外処理に応じた動作を行う。 If it is determined that exception handling has occurred (Yes in step S204), the flight control unit 2 and / or the camera control unit 8 outputs a command to the skid signal generation unit 9 to detect obstacles. The SLAM shooting in step 6 is finished (step S208). Further, the flight control unit 2 ends the lateral slip movement and causes the moving body 1 to perform a normal flight (step S209). Then, the flight control unit 2 and / or the camera control unit 8 performs an operation according to the exception handling that has occurred.

飛行制御部2及び/又はカメラ制御部8は、例外処理が完了したか否かを判定する(ステップS210)。例外処理が完了したと判定されなかった場合には(ステップS210でNo)、飛行制御部2は移動体1に通常飛行を継続させる(ステップS209に戻る)。例外処理が完了したと判定された場合には(ステップS210でYes)、飛行制御部2及び/又はカメラ制御部8は、横滑り信号生成部9に指令を出力し、障害物検出用カメラ6でのSLAM撮影を再び開始する(ステップS201に戻る)。 The flight control unit 2 and / or the camera control unit 8 determines whether or not the exception handling is completed (step S210). If it is not determined that the exception handling is completed (No in step S210), the flight control unit 2 causes the moving body 1 to continue the normal flight (returns to step S209). When it is determined that the exception handling is completed (Yes in step S210), the flight control unit 2 and / or the camera control unit 8 outputs a command to the skid signal generation unit 9, and the obstacle detection camera 6 displays a command. SLAM shooting is started again (returning to step S201).

1.2.3.例外処理
次に、図3のステップS204等に示した例外処理の詳細について説明する。本実施形態における例外処理とは、例えば障害物検出用カメラ6による障害物の検出(例外処理1)、空撮用カメラ7による空撮(例外処理2)、通信部10を介したオペレータの指示の受信(例外処理3)等である。図3のステップS204以降を参照して、それぞれの場合について、以下に詳述する。
1.2.3. Exception handling Next, the details of the exception handling shown in step S204 of FIG. 3 and the like will be described. The exception processing in the present embodiment is, for example, detection of an obstacle by the obstacle detection camera 6 (exception processing 1), aerial photography by the aerial photography camera 7 (exception processing 2), and an operator's instruction via the communication unit 10. (Exception handling 3) and the like. Each case will be described in detail below with reference to step S204 and subsequent steps in FIG.

[例外処理1:障害物検出用カメラ6による障害物の検出]
カメラ制御部8は、障害物検出用カメラ6の撮影画像に基づいて、飛行経路上の障害物の有無を判定する(ステップS204)。例えば、カメラ制御部8は、横ずれ移動を始める前から終わった後までの画像が入力されると、何枚かに1回(毎回の場合もあり)の割合で検出アルゴリズムを実行し、障害物が存在する場合には障害物を検出する。検出アルゴリズムを実行してから障害物を検出までに要する時間は1秒未満である。障害物があると判定されなかった場合には(ステップS204でNo)、飛行制御部2及びカメラ制御部8は、現在の動作を継続する(ステップS205へ移行)。
[Exception handling 1: Obstacle detection by obstacle detection camera 6]
The camera control unit 8 determines the presence or absence of an obstacle on the flight path based on the captured image of the obstacle detection camera 6 (step S204). For example, the camera control unit 8 executes a detection algorithm once every few images (sometimes every time) when an image is input from before the start of the lateral shift movement to after the end, and an obstacle. Detects obstacles if is present. The time required from executing the detection algorithm to detecting the obstacle is less than 1 second. If it is not determined that there is an obstacle (No in step S204), the flight control unit 2 and the camera control unit 8 continue the current operation (shift to step S205).

障害物があると判定された場合には(ステップS204でYes)、カメラ制御部8は、横滑り信号生成部9に指令を出力して障害物検出用カメラ6でのSLAM撮影を終了する(ステップS208)。また、飛行制御部2は、横ずれ移動を終了して移動体1に通常飛行を行わせる(ステップS209)。このとき、カメラ制御部8は、障害物の方向と障害物までの距離に関する情報を生成して、飛行制御部2に出力する。飛行制御部2は、障害物の方向と障害物までの距離に関する情報に基づいて、飛行装置3を制御し、障害物を回避する。障害物があった場合にSLAM撮影や横ずれ移動を終了して通常飛行に戻す理由は、横ずれ移動中は移動体1の挙動が制限され、障害物の回避が困難になるので、通常飛行中に障害物の回避動作を行うためである。また、横ずれ移動をしない通常飛行中は、有効なSLAM撮影ができないので、SLAM撮影を中止するためである。 If it is determined that there is an obstacle (Yes in step S204), the camera control unit 8 outputs a command to the skid signal generation unit 9 to end the SLAM shooting with the obstacle detection camera 6 (step). S208). Further, the flight control unit 2 ends the lateral slip movement and causes the moving body 1 to perform a normal flight (step S209). At this time, the camera control unit 8 generates information regarding the direction of the obstacle and the distance to the obstacle, and outputs the information to the flight control unit 2. The flight control unit 2 controls the flight device 3 based on the information regarding the direction of the obstacle and the distance to the obstacle, and avoids the obstacle. The reason for ending SLAM shooting and lateral movement and returning to normal flight when there is an obstacle is that the behavior of the moving body 1 is restricted during lateral movement, making it difficult to avoid obstacles, so during normal flight. This is to avoid obstacles. In addition, since effective SLAM imaging cannot be performed during normal flight without lateral shift movement, SLAM imaging is stopped.

カメラ制御部8は、障害物検出用カメラ6の撮影画像に基づいて、飛行経路上の障害物を回避したか否かを判定する(ステップS210)。飛行経路上の障害物を回避したと判定されなかった場合には(ステップS210でNo)、飛行制御部2は移動体1に通常飛行を継続させる(ステップS209に戻る)。飛行経路上の障害物を回避したと判定された場合には(ステップS210でYes)、カメラ制御部8は、横滑り信号生成部9に指令を出力し、障害物検出用カメラ6でのSLAM撮影を再び開始する(ステップS201に戻る)。 The camera control unit 8 determines whether or not the obstacle on the flight path has been avoided based on the captured image of the obstacle detection camera 6 (step S210). If it is not determined that the obstacle on the flight path has been avoided (No in step S210), the flight control unit 2 causes the moving body 1 to continue the normal flight (returns to step S209). When it is determined that the obstacle on the flight path has been avoided (Yes in step S210), the camera control unit 8 outputs a command to the skid signal generation unit 9, and SLAM shooting is performed by the obstacle detection camera 6. Is started again (returning to step S201).

[例外処理2:空撮用カメラ7による空撮]
カメラ制御部8は、空撮用カメラ7に出力した指令及び/又は空撮用カメラ7の撮影画像等に基づいて、空撮用カメラ7が撮影中か否かについて判定する(ステップS204)。空撮用カメラ7が撮影中であると判定されなかった場合には(ステップS204でNo)、飛行制御部2及びカメラ制御部8は、現在の動作を継続する(ステップS205へ移行)。
[Exception handling 2: Aerial photography with aerial photography camera 7]
The camera control unit 8 determines whether or not the aerial camera 7 is shooting based on the command output to the aerial camera 7 and / or the captured image of the aerial camera 7 (step S204). If it is not determined that the aerial camera 7 is shooting (No in step S204), the flight control unit 2 and the camera control unit 8 continue the current operation (shift to step S205).

空撮用カメラ7が撮影中であると判定された場合には(ステップS204でYes)、カメラ制御部8は、横滑り信号生成部9に指令を出力して障害物検出用カメラ6でのSLAM撮影を終了する(ステップS208)。また、飛行制御部2は、横ずれ移動を終了して移動体1に通常飛行を行わせる(ステップS209)。空撮用カメラ7が撮影中である場合にSLAM撮影や横ずれ移動を終了して通常飛行に戻す理由は、横ずれ移動中は移動体1の挙動が不安定であり、空撮用カメラ7による空撮が困難になるので、通常飛行中に空撮用カメラ7による空撮を行うためである。また、横ずれ移動をしない通常飛行中は、有効なSLAM撮影ができないので、SLAM撮影を中止するためである。 When it is determined that the aerial camera 7 is shooting (Yes in step S204), the camera control unit 8 outputs a command to the skid signal generation unit 9 and SLAM in the obstacle detection camera 6. Shooting is finished (step S208). Further, the flight control unit 2 ends the lateral slip movement and causes the moving body 1 to perform a normal flight (step S209). The reason for ending SLAM shooting and lateral movement and returning to normal flight when the aerial camera 7 is shooting is that the behavior of the moving body 1 is unstable during the lateral movement, and the sky by the aerial camera 7 This is because aerial photography is performed by the aerial photography camera 7 during normal flight because it becomes difficult to take pictures. In addition, since effective SLAM imaging cannot be performed during normal flight without lateral shift movement, SLAM imaging is stopped.

カメラ制御部8は、空撮用カメラ7に出力した指令及び/又は空撮用カメラ7の撮影画像等に基づいて、空撮用カメラ7による空撮が完了したか否かを判定する(ステップS210)。空撮用カメラ7による空撮が完了したと判定されなかった場合には(ステップS210でNo)、飛行制御部2は移動体1に通常飛行を継続させる(ステップS209に戻る)。空撮用カメラ7による空撮が完了したと判定された場合には(ステップS210でYes)、カメラ制御部8は、横滑り信号生成部9に指令を出力し、障害物検出用カメラ6でのSLAM撮影を再び開始する(ステップS201に戻る)。 The camera control unit 8 determines whether or not the aerial photography by the aerial photography camera 7 is completed based on the command output to the aerial photography camera 7 and / or the captured image of the aerial photography camera 7 (step). S210). If it is not determined that the aerial photography by the aerial photography camera 7 is completed (No in step S210), the flight control unit 2 causes the moving body 1 to continue the normal flight (returns to step S209). When it is determined that the aerial photography by the aerial photography camera 7 is completed (Yes in step S210), the camera control unit 8 outputs a command to the skid signal generation unit 9, and the obstacle detection camera 6 is used. SLAM shooting is started again (returning to step S201).

[例外処理3:通信部10を介したオペレータの指示の受信]
飛行制御部2及び/又はカメラ制御部8は、通信部10を介して、地上のリモートコントローラからオペレータの指示(制御信号)を受信したか否かを判定する(ステップS204)。オペレータの指示の内容は、例えばオペレータの操作に応じた飛行制御や、オペレータの操作に応じた手動撮影等である。オペレータの指示を受信したと判定されなかった場合には(ステップS204でNo)、飛行制御部2及びカメラ制御部8は、現在の動作を継続する(ステップS205へ移行)。本実施形態では、地上のリモートコントローラからの指示であっても、自律飛行の飛行経路の設定変更等、移動体1に対するオペレータのマニュアル操作が生じない場合には、現在の動作を継続する。飛行経路の設定変更とは、例えば行先の場所の変更、複数の行先の一部の削除/追加等である。行先とは、例えば、目的地やWP(ウェイポイント)等である。
[Exception handling 3: Reception of operator's instruction via communication unit 10]
The flight control unit 2 and / or the camera control unit 8 determines whether or not an operator instruction (control signal) has been received from the remote controller on the ground via the communication unit 10 (step S204). The contents of the operator's instructions are, for example, flight control according to the operator's operation, manual shooting according to the operator's operation, and the like. If it is not determined that the operator's instruction has been received (No in step S204), the flight control unit 2 and the camera control unit 8 continue the current operation (shift to step S205). In the present embodiment, even if the instruction is given from the remote controller on the ground, the current operation is continued when the operator does not manually operate the moving body 1 such as changing the setting of the flight path for autonomous flight. The flight route setting change is, for example, a change in the location of a destination, a deletion / addition of a part of a plurality of destinations, or the like. The destination is, for example, a destination, a WP (waypoint), or the like.

オペレータの指示を受信したと判定された場合には(ステップS204でYes)、飛行制御部2及び/又はカメラ制御部8は、横滑り信号生成部9に指令を出力して障害物検出用カメラ6でのSLAM撮影を終了する(ステップS208)。また、飛行制御部2は、横ずれ移動を終了して移動体1に通常飛行を行わせる(ステップS209)。このとき、飛行制御部2及び/又はカメラ制御部8は、自動モードからマニュアルモードに切り替える。オペレータの指示があった場合にSLAM撮影や横ずれ移動を終了して通常飛行に戻す理由は、オペレータがマニュアル操作により移動体1の操縦やカメラ撮影を行おうとするときに移動体1が横ずれ移動をしていると、オペレータの操作が上手く反映されなかったり、意図せぬ挙動にオペレータが違和感を覚えたりするためである。 When it is determined that the operator's instruction has been received (Yes in step S204), the flight control unit 2 and / or the camera control unit 8 outputs a command to the skid signal generation unit 9, and the obstacle detection camera 6 SLAM shooting in (step S208) is completed. Further, the flight control unit 2 ends the lateral slip movement and causes the moving body 1 to perform a normal flight (step S209). At this time, the flight control unit 2 and / or the camera control unit 8 switches from the automatic mode to the manual mode. The reason for ending SLAM shooting and lateral movement and returning to normal flight when instructed by the operator is that the moving body 1 moves laterally when the operator attempts to control the moving body 1 or take a camera image by manual operation. This is because the operator's operation is not reflected well, or the operator feels uncomfortable with unintended behavior.

飛行制御部2及び/又はカメラ制御部8は、受信したオペレータの指示を完了したか否かを判定する(ステップS210)。受信したオペレータの指示を完了したと判定されなかった場合には(ステップS210でNo)、飛行制御部2は移動体1に通常飛行を継続させる(ステップS209に戻る)。受信したオペレータの指示を完了したと判定された場合には(ステップS210でYes)、飛行制御部2及び/又はカメラ制御部8は、横滑り信号生成部9に指令を出力し、障害物検出用カメラ6でのSLAM撮影を再び開始する(ステップS201に戻る)。このとき、飛行制御部2及び/又はカメラ制御部8は、マニュアルモードから自動モードに切り替える。 The flight control unit 2 and / or the camera control unit 8 determines whether or not the received operator's instruction has been completed (step S210). If it is not determined that the received operator's instruction is completed (No in step S210), the flight control unit 2 causes the moving body 1 to continue the normal flight (returns to step S209). When it is determined that the received operator's instruction is completed (Yes in step S210), the flight control unit 2 and / or the camera control unit 8 outputs a command to the skid signal generation unit 9 for obstacle detection. SLAM shooting with the camera 6 is started again (returning to step S201). At this time, the flight control unit 2 and / or the camera control unit 8 switches from the manual mode to the automatic mode.

1.3.SLAM用の横ずれ移動
本開示の実施形態に係る移動体1は、飛行経路を制御して、モノラルカメラでSLAMを実施する。図4は、SLAMのための視差について説明するための概念図である。図5は、本開示の実施形態に係る移動体1のSLAM用の横ずれ移動について説明するための概念図である。図4に示すように、移動体1は、SLAMにおいて対象物OBJ(Object)を撮影する場合、第1の撮影ポイントP1と、第2の撮影ポイントP2との2点で撮影し、2点間の視差を利用して対象物OBJの位置及び姿勢と、対象物OBJまでの奥行D(Depth)とを求める。ここでは、2点間を基線長L(Baseline Length)で表す。また、視差を角度θで表す。奥行Dは、対象物OBJまでの距離を表す。例えば角度θを一定とすると、基線長Lが長いほど奥行Dも長くなり、SLAMで遠くの対象物OBJまで認識することができる。
1.3. Lateral movement for SLAM The moving body 1 according to the embodiment of the present disclosure controls the flight path and carries out SLAM with a monaural camera. FIG. 4 is a conceptual diagram for explaining parallax for SLAM. FIG. 5 is a conceptual diagram for explaining the lateral displacement movement of the moving body 1 according to the embodiment of the present disclosure for SLAM. As shown in FIG. 4, when the moving body 1 shoots an object OBJ (Object) in SLAM, it shoots at two points, a first shooting point P1 and a second shooting point P2, and between the two points. The position and orientation of the object OBJ and the depth D (Depth) to the object OBJ are obtained by using the parallax of. Here, the distance between two points is represented by the baseline length L (Baseline Length). The parallax is represented by an angle θ. Depth D represents the distance to the object OBJ. For example, if the angle θ is constant, the longer the baseline length L, the longer the depth D, and SLAM can recognize even a distant object OBJ.

SLAMを実施する際に、移動体1にステレオカメラ(両眼カメラ)を搭載している場合には同時に複数の視点での撮影が可能であるが、機体の制約からモノラルカメラ(単眼カメラ)しか搭載していない場合には、同時に複数の視点での撮影ができない。 When performing SLAM, if the moving body 1 is equipped with a stereo camera (binocular camera), it is possible to shoot from multiple viewpoints at the same time, but due to the restrictions of the aircraft, only a monaural camera (monocular camera) is available. If it is not installed, you cannot shoot from multiple viewpoints at the same time.

ステレオカメラを用いずに、モノラルカメラでSLAMを実施する場合には、図4に示した視差を取得するために、図5に示すように、例えば移動体1が、前方に直線で進む飛行経路の進行方向に対してある程度左右にずれた経路を交互にとることで、視差に相当する位置のずれを作り、正確なSLAMを可能とするように飛行する。例えば、移動体1の自律飛行時には、飛行経路に沿って直進飛行している場合でも、SLAM用に1mから2mの幅(横ずれ幅SW)をもって横にずれながら移動する。図5に示すように、横ずれ幅SWは中心軸(本来の飛行経路)から片側だけのずれ幅であり、横ずれ幅SWを2倍した値が基線長Lとなる。また、空撮用カメラ7での撮影時(空撮時)は空撮用カメラ7の画角(画質)に影響するため、空撮用カメラ7の撮影中か否かのステータスを継続的に判断し、空撮用カメラ7の撮影中ではないことを検知して、横ずれ移動の制御をする。 When SLAM is performed with a monaural camera without using a stereo camera, for example, as shown in FIG. 5, the moving body 1 travels in a straight line forward in order to acquire the parallax shown in FIG. By alternately taking paths that are shifted to the left and right with respect to the direction of travel, a shift in position corresponding to parallax is created, and the flight is made so as to enable accurate SLAM. For example, during autonomous flight of the moving body 1, even if the moving body 1 is flying straight along the flight path, it moves laterally with a width of 1 m to 2 m (lateral shift width SW) for SLAM. As shown in FIG. 5, the lateral displacement width SW is the deviation width of only one side from the central axis (original flight path), and the value obtained by doubling the lateral displacement width SW is the baseline length L. In addition, since the angle of view (image quality) of the aerial camera 7 is affected during shooting with the aerial camera 7 (aerial shooting), the status of whether or not the aerial camera 7 is shooting is continuously displayed. Judgment is made, it is detected that the aerial photography camera 7 is not shooting, and the lateral shift movement is controlled.

モノラルカメラを用いたSLAMでは、連続してカメラでとらえた画像に対してそれぞれの画像内で特徴を有する画素を求め、時間上連続した画像上の当該画素(複数の画素)の各々に対して相関を計算することで、画像間の対象物OBJの位置及び姿勢を求めると同時に、三角測量の原理により画素が表す対象物OBJまでの奥行Dを相対的に求めることができる。 In SLAM using a monaural camera, pixels having features in each image are obtained for images captured by the camera continuously, and for each of the pixels (plurality of pixels) on the images that are continuous in time. By calculating the correlation, the position and orientation of the object OBJ between the images can be obtained, and at the same time, the depth D to the object OBJ represented by the pixels can be relatively obtained by the principle of triangulation.

三角測量に基づくため、対象物に対して交差する方向に、画像から画像までの距離が十分にとれないと、奥行Dの精度が悪くなる。そこで、飛行中に進行方向に対して水平に交差する方向に移動することで対象物までの奥行Dをより正確に取得できるようになり、対象物が障害物であった場合は十分な距離をもって回避運動をとることができるようになる。 Since it is based on triangulation, if the distance from the image to the image is not sufficient in the direction intersecting the object, the accuracy of the depth D deteriorates. Therefore, by moving in a direction that intersects the direction of travel horizontally during flight, the depth D to the object can be obtained more accurately, and if the object is an obstacle, have a sufficient distance. You will be able to take evasive movements.

また、本開示の実施形態に係る移動体1は、リアルタイムで横滑り信号を生成して飛行制御用の出力信号に印加する。リアルタイムで横滑り信号を生成する理由は、横滑りパターンを予め飛行経路の形で生成する場合には、横ずれ発生の頻度が飛行経路のWP(ウェイポイント)の数よりもはるかに大きいと思われるので、飛行経路の情報のファイルサイズが大きくなり、管理の手間も増えるためである。例えば、2mの横ずれを10秒間隔で常に行うとすると、飛行時間10分では60回発生し、すべてをWPで表すとすると、WPは60個必要となる。また、突風など外乱の影響に対応しにくい。 Further, the moving body 1 according to the embodiment of the present disclosure generates a skid signal in real time and applies it to an output signal for flight control. The reason for generating the skid signal in real time is that when the skid pattern is generated in advance in the form of a flight path, the frequency of strike slip occurrence seems to be much higher than the number of WPs (waypoints) of the flight path. This is because the file size of flight route information becomes large and the management effort increases. For example, if a strike-slip of 2 m is always performed at intervals of 10 seconds, 60 times occur in a flight time of 10 minutes, and if all of them are represented by WP, 60 WPs are required. In addition, it is difficult to deal with the effects of disturbances such as gusts.

また、本開示の実施形態に係る移動体1は、想定している飛行速度が得られない場合、飛行中、横ずれ幅SWと横ずれパターンSPと飛行速度とから横滑り信号を生成し、飛行制御用の出力信号に印加する。すなわち、横滑り信号は、入力パラメータに速度を加味して生成する。例えば、速度が非常に低い場合には、可能な限り急激に横滑りしても設定された横ずれ時間ST内で横ずれ幅SWを達成できない場合もあり得る。なお、この場合、パラメータを低速度域と高速度域とに分けて、低速度域と高速度域とのそれぞれに横ずれ幅SW、横ずれ時間ST、及び横ずれパターンSPを設定するようにしてもよい。また、所定の速度ごとに横ずれ幅SW、横ずれ時間ST、及び横ずれパターンSPを設定するようにしてもよい。 Further, when the assumed flight speed cannot be obtained, the moving body 1 according to the embodiment of the present disclosure generates a skid signal from the strike-slip width SW, the strike-slip pattern SP, and the flight speed during flight, and is used for flight control. It is applied to the output signal of. That is, the skid signal is generated by adding the velocity to the input parameter. For example, when the speed is very low, it may not be possible to achieve the strike-slip width SW within the set strike-slip time ST even if the side slips as rapidly as possible. In this case, the parameters may be divided into a low speed range and a high speed range, and the strike-slip width SW, the strike-slip time ST, and the strike-slip pattern SP may be set for each of the low-speed range and the high-speed range. .. Further, the strike-slip width SW, the strike-slip time ST, and the strike-slip pattern SP may be set for each predetermined speed.

ここで、図6Aから図6Dを参照して、移動体1の機体が水平方向に描く横ずれパターンSPの例について説明する。図6Aは、移動体1の機体が正弦波を描いて飛行するパターンの例を示すイメージ図である。図6Bは、移動体1の機体が矩形波(方形波)を描いて飛行するパターンの例を示すイメージ図である。図6Cは、移動体1の機体が三角波を描いて飛行するパターンの例を示すイメージ図である。図6Dは、移動体1の機体が鋸歯状波(のこぎり波)を描いて飛行するパターンの例を示すイメージ図である。なお、横ずれパターンSPの波形は、パルス波よりもステップ波(エッジが斜め)であると好ましく、角が丸みを帯びていてもよい。例えば、矩形波は台形波やS字波でもよい。 Here, with reference to FIGS. 6A to 6D, an example of a lateral displacement pattern SP drawn by the body of the moving body 1 in the horizontal direction will be described. FIG. 6A is an image diagram showing an example of a pattern in which the body of the moving body 1 flies in a sine wave. FIG. 6B is an image diagram showing an example of a pattern in which the body of the moving body 1 flies in a rectangular wave (square wave). FIG. 6C is an image diagram showing an example of a pattern in which the body of the moving body 1 flies in a triangular wave. FIG. 6D is an image diagram showing an example of a pattern in which the body of the moving body 1 flies in a sawtooth wave (sawtooth wave). The waveform of the strike-slip pattern SP is preferably a step wave (diagonal edge) rather than a pulse wave, and may have rounded corners. For example, the square wave may be a trapezoidal wave or an S-shaped wave.

1.4.ステレオカメラを用いたSLAMとの差異
次に、ステレオカメラを用いたSLAMとの差異について説明する。移動体1の機体に搭載可能なステレオカメラの基線長に比べ、横方向の移動(横ずれ移動)で実現可能な基線長は長さに制約がないため、対象物(障害物)までの検出可能距離はステレオカメラよりも遠くすることが可能である。すなわち、ステレオカメラの基線長はカメラ間(レンズ間)の幅という制約があるが、横ずれ移動の場合にはステレオカメラのカメラ間の幅よりも自由度が高い。
1.4. Differences from SLAM using a stereo camera Next, the differences from SLAM using a stereo camera will be described. Compared to the baseline length of the stereo camera that can be mounted on the body of the moving body 1, the baseline length that can be achieved by lateral movement (lateral movement) is not limited in length, so it is possible to detect objects (obstacles). The distance can be farther than that of a stereo camera. That is, the baseline length of the stereo camera is limited to the width between the cameras (between the lenses), but in the case of lateral shift movement, the degree of freedom is higher than the width between the cameras of the stereo camera.

また、ステレオカメラを用いたSLAMにも、機体の制約が存在する。障害物を検出するのに必要となるステレオカメラの基線長(カメラ間の距離)は、障害物が10m先なら2.5cm必要となり、100m先なら25cm必要となり、それ以上先なら数m必要(例えば1km先なら2.5m必要)となる。機体の軽量化が求められ、屋外で風に煽られながら時速数十kmで飛ぶ移動体で数m離れたカメラ同士の位置及び姿勢を保ち続けるのは難しい。また、例えばプラットフォームとしての物流用固定翼ドローンのサイズは、飛行時間と最高速度にもよるが、ペイロードが1kgの場合には、翼の幅は2m程度である。したがって、ステレオカメラの基線長(カメラ間の距離)は、翼の幅以下に制限される。本開示の実施形態に係る移動体1及びその飛行経路制御方法を採用すれば、このような機体の制約から解放される。 In addition, SLAM using a stereo camera also has restrictions on the airframe. The baseline length (distance between cameras) of a stereo camera required to detect an obstacle is 2.5 cm if the obstacle is 10 m away, 25 cm if it is 100 m away, and several meters beyond that (a few meters away). For example, 2.5m is required for 1km ahead). There is a need to reduce the weight of the aircraft, and it is difficult to maintain the position and attitude of cameras that are several meters apart with a moving object that flies at a speed of several tens of kilometers per hour while being blown by the wind outdoors. Further, for example, the size of a fixed-wing drone for logistics as a platform depends on the flight time and the maximum speed, but when the payload is 1 kg, the wingspan is about 2 m. Therefore, the baseline length (distance between cameras) of a stereo camera is limited to the wingspan or less. If the mobile body 1 and the flight path control method thereof according to the embodiment of the present disclosure are adopted, the restrictions of the airframe can be released.

1.5.変形例
通常飛行中(飛行経路に沿った直進飛行中)の移動体においてステレオカメラを用いたSLAMを実施することは、上記の通り制約が存在するが、ステレオカメラの片方のカメラ、あるいは両方のカメラから近距離の対象物によって生じた差異を除く等の操作により合成された画像をモノラルカメラで撮影した画像とみなして、本開示において説明した手法を適用してもよい。すなわち、ステレオカメラを疑似的なモノラルカメラとして使用してもよい。この場合、障害物検出用カメラ6にステレオカメラを使用することができる。
1.5. Modification example Performing SLAM using a stereo camera on a moving object during normal flight (during straight flight along the flight path) has restrictions as described above, but one or both of the stereo cameras The method described in the present disclosure may be applied by regarding an image synthesized by an operation such as removing a difference caused by an object at a short distance from the camera as an image taken by a monaural camera. That is, the stereo camera may be used as a pseudo monaural camera. In this case, a stereo camera can be used as the obstacle detection camera 6.

また、本開示の実施形態に係る移動体1の機体が垂直離着陸機(VTOL)である場合には、直進中のみならず、離陸直後の垂直上昇中やホバリング状態においても、SLAMの初期化/再初期化のために機首方向(カメラ方向)に対して左右方向に横ずれ移動してもよい。 Further, when the aircraft of the moving body 1 according to the embodiment of the present disclosure is a vertical takeoff and landing aircraft (VTOL), the SLAM is initialized not only during straight-ahead travel but also during vertical ascent immediately after takeoff and in a hovering state. It may be laterally displaced in the left-right direction with respect to the nose direction (camera direction) for reinitialization.

また、上記の説明では、横滑り信号生成部9が、横滑り信号を生成してから一定時間が経過した場合に、SLAM用画像フラグをカメラ制御部8に出力している。但し、実際には、カメラ制御部8も、飛行制御部2と同時に横滑り信号生成部9から横滑り信号を受信し、横滑り信号を受信してから一定時間が経過した場合に、その時点の障害物検出用カメラ6の撮影画像にSLAM用画像フラグを立てるようにしてもよい。すなわち、カメラ制御部8が一定時間をカウントしてもよい。 Further, in the above description, the skid signal generation unit 9 outputs the SLAM image flag to the camera control unit 8 when a certain time has elapsed since the skid signal was generated. However, in reality, the camera control unit 8 also receives the skid signal from the skid signal generation unit 9 at the same time as the flight control unit 2, and when a certain time elapses after receiving the skid signal, the obstacle at that time is present. The SLAM image flag may be set in the captured image of the detection camera 6. That is, the camera control unit 8 may count a certain period of time.

また、上記の説明では、飛行経路を自律飛行中に移動体1を進行方向に対して水平に交差する方向に横ずれ移動させているが、同様に、移動体1を進行方向に対して上下に交差する方向に「縦ずれ移動」させてもよい。例えば、一定期間ごとに横ずれ移動と縦ずれ移動とを交互に行うようにしてもよい。また、横ずれ移動の途中で中心軸(本来の飛行経路)を通過する際に縦ずれ移動を行うようにしてもよい。なお、横ずれ移動は必須であるが、縦ずれ移動は実施の有無を選択可能にしてもよい。縦ずれ移動の場合のパラメータは、例えば縦ずれ幅DW(Dip-slip Width)、縦ずれ時間DT(Dip-slip Time)、及び縦ずれパターンDP(Dip-slip Pattern)に関する情報である。縦ずれパターンDPは、横ずれパターンSPの場合と同様に、例えば正弦波、矩形波、三角波、又は鋸歯状波である。したがって、移動体1は、自律飛行中に縦ずれ移動することで進行方向に対して上下方向に、図6Aから図6Dに示すようなパターンで飛行する。移動体1は縦ずれ移動によりSLAM撮影することで、対象物の高さや高低差を認識することができる。これにより、環境地図作成において、高精度な三次元地図を作成することができる。 Further, in the above description, the moving body 1 is laterally displaced in the direction horizontally intersecting the traveling direction during autonomous flight, but similarly, the moving body 1 is moved up and down with respect to the traveling direction. It may be "moved vertically" in the direction of intersection. For example, the lateral shift movement and the vertical shift movement may be alternately performed at regular intervals. Further, the vertical shift movement may be performed when passing through the central axis (original flight path) in the middle of the lateral shift movement. Although lateral displacement movement is indispensable, it may be possible to select whether or not vertical displacement movement is performed. The parameters in the case of the vertical shift movement are, for example, information regarding the vertical slip width DW (Dip-slip Width), the vertical slip time DT (Dip-slip Time), and the vertical slip pattern DP (Dip-slip Pattern). The vertical shift pattern DP is, for example, a sine wave, a rectangular wave, a triangular wave, or a sawtooth wave, as in the case of the lateral shift pattern SP. Therefore, the moving body 1 flies vertically with respect to the traveling direction in a pattern as shown in FIGS. 6A to 6D by moving vertically during autonomous flight. The height and height difference of the object can be recognized by taking a SLAM image of the moving body 1 by moving it vertically. This makes it possible to create a highly accurate three-dimensional map in creating an environmental map.

また、本開示の実施形態に係る移動体1のSLAMに関する動作は、プログラムに従って動作するコンピュータにより実行してもよい。例えば、移動体1に搭載されたCPU等がSLAMに関する動作を規定したプログラムを読み込んで実行することで、飛行制御部2、カメラ制御部8及び横滑り信号生成部9として機能するようにしてもよい。また、上記プログラムは、コンピュータ上で本開示の実施形態に係る移動体1のSLAMに関する動作を再現するフライトシミュレーション用のプログラムであってもよい。 Further, the operation related to SLAM of the mobile body 1 according to the embodiment of the present disclosure may be executed by a computer operating according to the program. For example, a CPU or the like mounted on the mobile body 1 may read and execute a program that defines operations related to SLAM to function as a flight control unit 2, a camera control unit 8, and a skid signal generation unit 9. .. Further, the above program may be a flight simulation program that reproduces the operation of the mobile body 1 according to the embodiment of the present disclosure regarding SLAM on a computer.

2.むすび
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
2. Conclusion Although the preferred embodiments of the present disclosure have been described in detail with reference to the accompanying drawings, the technical scope of the present disclosure is not limited to such examples. It is clear that a person having ordinary knowledge in the technical field of the present disclosure can come up with various modifications or modifications within the scope of the technical ideas described in the claims. Of course, it is understood that the above also belongs to the technical scope of the present disclosure.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 In addition, the effects described herein are merely explanatory or exemplary and are not limited. That is, the techniques according to the present disclosure may exhibit other effects apparent to those skilled in the art from the description herein, in addition to or in place of the above effects.

なお、本技術は以下のような構成も取ることができる。
(1)
指定された飛行経路を自律飛行するための飛行装置と、
前記飛行経路を自律飛行中に連続して画像を自動撮影する撮像装置と、
前記飛行経路を自律飛行中に前記飛行装置を制御して進行方向と交差する方向に移動させる交差移動を実施し、交差移動の実施中に撮影した前記撮像装置の撮影画像を用いて自己位置推定と環境地図作成とを行う制御装置と、
を備える移動体。
(2)
前記制御装置は、前記飛行装置を制御して前記飛行経路の進行方向に対して水平に交差する方向に横ずれ移動させ、左右にずれた経路を交互にとることで、前記撮像装置の視差に相当する位置のずれを作る、(1)に記載の移動体。
(3)
前記制御装置は、前記撮像装置の撮影画像に対してそれぞれの撮影画像内で特徴を有する画素を求め、時間上連続した撮影画像上の前記画素の各々に対して相関を計算し、撮影画像間の位置及び姿勢を求めると同時に、三角測量の原理により前記画素が表す対象物までの奥行を相対的に求める、(1)又は(2)に記載の移動体。
(4)
前記制御装置は、前記撮像装置の撮影画像に基づいて、前記飛行経路上に障害物を検出した場合、前記飛行装置による交差移動を中止する、(1)から(3)のいずれか一項に記載の移動体。
(5)
前記撮像装置とは別に空撮を行う空撮用撮像装置をさらに備え、
前記制御装置は、前記空撮用撮像装置が空撮を開始した場合、前記飛行装置による交差移動を中止する、(1)から(4)のいずれか一項に記載の移動体。
(6)
オペレータの指示を受信するための通信装置をさらに備え、
前記制御装置は、前記通信装置を介して前記オペレータの指示を受信した場合、前記飛行装置による交差移動を中止する、(1)から(5)のいずれか一項に記載の移動体。
(7)
前記制御装置は、前記オペレータの指示が前記飛行経路の設定変更の場合には前記飛行装置による交差移動を継続し、前記オペレータの指示がマニュアル操作の場合には前記飛行装置による交差移動を中止する、(6)に記載の移動体。
(8)
前記制御装置は、一方向の前記飛行装置による交差移動が中止されることなく正常に終了した場合には、その時点の前記撮像装置の撮影画像に対してフラグを立てる、(1)から(7)のいずれか一項に記載の移動体。
(9)
前記制御装置は、前記フラグを立てた前記撮像装置の撮影画像を用いて前記自己位置推定と前記環境地図作成とを行う、(8)に記載の移動体。
(10)
前記制御装置は、前記フラグを立てた後、前記飛行装置による交差移動の移動方向を逆方向に反転する、(8)又は(9)に記載の移動体。
(11)
前記制御装置は、移動幅SW、移動時間ST、及び移動パターンSPを規定したパラメータに基づいて、前記飛行装置による交差移動を制御する、(1)から(10)のいずれか一項に記載の移動体。
(12)
前記制御装置は、前記パラメータに前記飛行装置の飛行速度を加味した制御信号に従って、前記飛行装置による交差移動を制御する、(11)に記載の移動体。
(13)
前記移動パターンSPは、正弦波、矩形波、三角波、及び鋸歯状波のいずれかである、(11)又は(12)に記載の移動体。
(14)
前記制御装置は、前記飛行経路を自律飛行中に前記飛行装置を制御して進行方向に対して上下に交差する方向に縦ずれ移動させ、縦ずれ移動中に撮影した前記撮像装置の撮影画像を用いて前記環境地図作成を行う、(1)から(13)のいずれか一項に記載の移動体。
(15)
前記撮像装置は、単眼カメラである、(1)から(14)のいずれか一項に記載の移動体。
(16)
指定された飛行経路に沿って移動体を自律飛行させることと、
前記飛行経路を自律飛行中に前記移動体に搭載された撮像装置を用いて連続して画像を自動撮影することと、
前記飛行経路を自律飛行中に前記移動体を進行方向と交差する方向に移動させる交差移動を実施することと、
交差移動の実施中に撮影した前記撮像装置の撮影画像を用いて自己位置推定と環境地図作成とを行うことと、
を含む移動体の飛行経路制御方法。
(17)
指定された飛行経路に沿って移動体を自律飛行させるステップと、
前記飛行経路を自律飛行中に前記移動体に搭載された撮像装置を用いて連続して画像を自動撮影するステップと、
前記飛行経路を自律飛行中に前記移動体を進行方向と交差する方向に移動させる交差移動を実施するステップと、
交差移動の実施中に撮影した前記撮像装置の撮影画像を用いて自己位置推定と環境地図作成とを行うステップと、
をコンピュータに実行させるためのプログラム。
The present technology can also have the following configurations.
(1)
A flight device for autonomous flight on a specified flight path, and
An imaging device that automatically captures images continuously during autonomous flight on the flight path,
A cross movement is performed in which the flight path is controlled to move in a direction intersecting the traveling direction during autonomous flight, and self-position estimation is performed using an image captured by the image pickup device taken during the cross movement. And a control device that creates an environmental map,
A mobile body equipped with.
(2)
The control device controls the flight device to move it laterally in a direction that intersects the traveling direction of the flight path horizontally, and alternately takes a path shifted to the left and right, which corresponds to the parallax of the image pickup device. The moving body according to (1), which creates a displacement of the position to be operated.
(3)
The control device obtains pixels having features in each captured image with respect to the captured image of the imaging device, calculates a correlation for each of the pixels on the captured images that are continuous in time, and inter-captured images. The moving body according to (1) or (2), wherein at the same time as obtaining the position and orientation of the above, the depth to the object represented by the pixel is relatively obtained by the principle of triangular surveying.
(4)
When the control device detects an obstacle on the flight path based on the captured image of the image pickup device, the control device stops the crossing movement by the flight device, according to any one of (1) to (3). The described mobile body.
(5)
In addition to the imaging device, an imaging device for aerial photography that performs aerial photography is further provided.
The moving body according to any one of (1) to (4), wherein the control device stops the crossing movement by the flight device when the aerial photography imaging device starts aerial photography.
(6)
Further equipped with a communication device for receiving operator instructions,
The moving body according to any one of (1) to (5), wherein when the control device receives an instruction from the operator via the communication device, the crossing movement by the flight device is stopped.
(7)
The control device continues the cross-movement by the flight device when the operator's instruction changes the setting of the flight path, and stops the cross-movement by the flight device when the operator's instruction is a manual operation. , (6).
(8)
When the crossing movement by the flight device in one direction is normally completed without being stopped, the control device sets a flag for the captured image of the image pickup device at that time, from (1) to (7). ) Is described in any one of the paragraphs.
(9)
The moving body according to (8), wherein the control device performs the self-position estimation and the environment map creation using the captured image of the image pickup device with the flag set.
(10)
The moving body according to (8) or (9), wherein the control device reverses the moving direction of the crossing movement by the flying device after setting the flag.
(11)
The item according to any one of (1) to (10), wherein the control device controls crossing movement by the flight device based on parameters defining a movement width SW, a movement time ST, and a movement pattern SP. Mobile body.
(12)
The moving body according to (11), wherein the control device controls crossing movement by the flight device according to a control signal in which the flight speed of the flight device is added to the parameters.
(13)
The moving body according to (11) or (12), wherein the moving pattern SP is any one of a sine wave, a square wave, a triangular wave, and a sawtooth wave.
(14)
The control device controls the flight device during autonomous flight to move the flight path vertically in a direction intersecting the direction of travel, and captures an image taken by the image pickup device during the vertical shift movement. The moving body according to any one of (1) to (13), wherein the environmental map is created by using the moving body.
(15)
The moving body according to any one of (1) to (14), wherein the imaging device is a monocular camera.
(16)
To make a moving object autonomously fly along a specified flight path,
During autonomous flight of the flight path, continuous and automatic image capture using an imaging device mounted on the moving body, and
Performing cross-movement in which the moving body is moved in a direction intersecting the traveling direction during autonomous flight of the flight path, and
Self-position estimation and environment map creation are performed using the images taken by the image pickup device taken during the crossing movement, and
A method of controlling the flight path of a moving body including.
(17)
Steps to autonomously fly a moving object along a specified flight path,
A step of automatically continuously taking an image using an image pickup device mounted on the moving body during autonomous flight of the flight path, and a step of automatically taking an image.
A step of performing cross-movement in which the moving body is moved in a direction intersecting the traveling direction during autonomous flight of the flight path, and
A step of performing self-position estimation and environment map creation using the captured image of the imaging device taken during the crossing movement, and
A program that lets your computer run.

1 移動体
2 飛行制御部
3 飛行装置
4 飛行経路格納部
5 位置情報取得部
6 障害物検出用カメラ
7 空撮用カメラ
8 カメラ制御部
9 横滑り信号生成部
10 通信部
1 Mobile 2 Flight control unit 3 Flight equipment 4 Flight path storage unit 5 Position information acquisition unit 6 Obstacle detection camera 7 Aerial photography camera 8 Camera control unit 9 Side slip signal generation unit 10 Communication unit

Claims (17)

指定された飛行経路を自律飛行するための飛行装置と、
前記飛行経路を自律飛行中に連続して画像を自動撮影する撮像装置と、
前記飛行経路を自律飛行中に前記飛行装置を制御して進行方向と交差する方向に移動させる交差移動を実施し、交差移動の実施中に撮影した前記撮像装置の撮影画像を用いて自己位置推定と環境地図作成とを行う制御装置と、
を備える移動体。
A flight device for autonomous flight on a specified flight path, and
An imaging device that automatically captures images continuously during autonomous flight on the flight path,
A cross movement is performed in which the flight path is controlled to move in a direction intersecting the traveling direction during autonomous flight, and self-position estimation is performed using an image captured by the image pickup device taken during the cross movement. And a control device that creates an environmental map,
A mobile body equipped with.
前記制御装置は、前記飛行装置を制御して前記飛行経路の進行方向に対して水平に交差する方向に横ずれ移動させ、左右にずれた経路を交互にとることで、前記撮像装置の視差に相当する位置のずれを作る、請求項1に記載の移動体。 The control device controls the flight device to move it laterally in a direction that intersects the traveling direction of the flight path horizontally, and alternately takes a path shifted to the left and right, which corresponds to the parallax of the image pickup device. The moving body according to claim 1, which creates a displacement of the position to be operated. 前記制御装置は、前記撮像装置の撮影画像に対してそれぞれの撮影画像内で特徴を有する画素を求め、時間上連続した撮影画像上の前記画素の各々に対して相関を計算し、撮影画像間の位置及び姿勢を求めると同時に、三角測量の原理により前記画素が表す対象物までの奥行を相対的に求める、請求項1に記載の移動体。 The control device obtains pixels having features in each captured image with respect to the captured image of the imaging device, calculates a correlation for each of the pixels on the captured images that are continuous in time, and inter-captured images. The moving body according to claim 1, wherein the position and the orientation of the image are obtained, and at the same time, the depth to the object represented by the pixel is relatively obtained by the principle of triangulation. 前記制御装置は、前記撮像装置の撮影画像に基づいて、前記飛行経路上に障害物を検出した場合、前記飛行装置による交差移動を中止する、請求項1に記載の移動体。 The moving body according to claim 1, wherein when the control device detects an obstacle on the flight path based on the captured image of the imaging device, the crossing movement by the flight device is stopped. 前記撮像装置とは別に空撮を行う空撮用撮像装置をさらに備え、
前記制御装置は、前記空撮用撮像装置が空撮を開始した場合、前記飛行装置による交差移動を中止する、請求項1に記載の移動体。
In addition to the imaging device, an imaging device for aerial photography that performs aerial photography is further provided.
The moving body according to claim 1, wherein the control device stops the crossing movement by the flight device when the aerial photography imaging device starts aerial photography.
オペレータの指示を受信するための通信装置をさらに備え、
前記制御装置は、前記通信装置を介して前記オペレータの指示を受信した場合、前記飛行装置による交差移動を中止する、請求項1に記載の移動体。
Further equipped with a communication device for receiving operator instructions,
The moving body according to claim 1, wherein when the control device receives an instruction from the operator via the communication device, the crossing movement by the flight device is stopped.
前記制御装置は、前記オペレータの指示が前記飛行経路の設定変更の場合には前記飛行装置による交差移動を継続し、前記オペレータの指示がマニュアル操作の場合には前記飛行装置による交差移動を中止する、請求項6に記載の移動体。 The control device continues the cross-movement by the flight device when the operator's instruction changes the setting of the flight path, and stops the cross-movement by the flight device when the operator's instruction is a manual operation. , The moving body according to claim 6. 前記制御装置は、一方向の前記飛行装置による交差移動が中止されることなく正常に終了した場合には、その時点の前記撮像装置の撮影画像に対してフラグを立てる、請求項1に記載の移動体。 The control device according to claim 1, wherein when the crossing movement by the flight device in one direction is normally completed without being stopped, a flag is set for the captured image of the image pickup device at that time. Mobile body. 前記制御装置は、前記フラグを立てた前記撮像装置の撮影画像を用いて前記自己位置推定と前記環境地図作成とを行う、請求項8に記載の移動体。 The moving body according to claim 8, wherein the control device performs the self-position estimation and the environment map creation using the captured image of the image pickup device with the flag set. 前記制御装置は、前記フラグを立てた後、前記飛行装置による交差移動の移動方向を逆方向に反転する、請求項8に記載の移動体。 The moving body according to claim 8, wherein the control device reverses the moving direction of the crossing movement by the flying device after setting the flag. 前記制御装置は、移動幅、移動時間、及び移動パターンを規定したパラメータに基づいて、前記飛行装置による交差移動を制御する、請求項1に記載の移動体。 The moving body according to claim 1, wherein the control device controls crossing movement by the flight device based on parameters defining a movement width, a movement time, and a movement pattern. 前記制御装置は、前記パラメータに前記飛行装置の飛行速度を加味した制御信号に従って、前記飛行装置による交差移動を制御する、請求項11に記載の移動体。 The moving body according to claim 11, wherein the control device controls crossing movement by the flight device according to a control signal in which the flight speed of the flight device is added to the parameters. 前記移動パターンは、正弦波、矩形波、三角波、及び鋸歯状波のいずれかである、請求項11に記載の移動体。 The moving body according to claim 11, wherein the moving pattern is any one of a sine wave, a square wave, a triangular wave, and a sawtooth wave. 前記制御装置は、前記飛行経路を自律飛行中に前記飛行装置を制御して進行方向に対して上下に交差する方向に縦ずれ移動させ、縦ずれ移動中に撮影した前記撮像装置の撮影画像を用いて前記環境地図作成を行う、請求項1に記載の移動体。 The control device controls the flight device during autonomous flight to move the flight path vertically in a direction intersecting the direction of travel, and captures an image taken by the image pickup device during the vertical shift movement. The moving body according to claim 1, wherein the environmental map is created by using the moving body. 前記撮像装置は、単眼カメラである、請求項1に記載の移動体。 The moving body according to claim 1, wherein the imaging device is a monocular camera. 指定された飛行経路に沿って移動体を自律飛行させることと、
前記飛行経路を自律飛行中に前記移動体に搭載された撮像装置を用いて連続して画像を自動撮影することと、
前記飛行経路を自律飛行中に前記移動体を進行方向と交差する方向に移動させる交差移動を実施することと、
交差移動の実施中に撮影した前記撮像装置の撮影画像を用いて自己位置推定と環境地図作成とを行うことと、
を含む移動体の飛行経路制御方法。
To make a moving object autonomously fly along a specified flight path,
During autonomous flight of the flight path, continuous and automatic image capture using an imaging device mounted on the moving body, and
Performing cross-movement in which the moving body is moved in a direction intersecting the traveling direction during autonomous flight of the flight path, and
Self-position estimation and environment map creation are performed using the images taken by the image pickup device taken during the crossing movement, and
A method of controlling the flight path of a moving body including.
指定された飛行経路に沿って移動体を自律飛行させるステップと、
前記飛行経路を自律飛行中に前記移動体に搭載された撮像装置を用いて連続して画像を自動撮影するステップと、
前記飛行経路を自律飛行中に前記移動体を進行方向と交差する方向に移動させる交差移動を実施するステップと、
交差移動の実施中に撮影した前記撮像装置の撮影画像を用いて自己位置推定と環境地図作成とを行うステップと、
をコンピュータに実行させるためのプログラム。
Steps to autonomously fly a moving object along a specified flight path,
A step of automatically continuously taking an image using an image pickup device mounted on the moving body during autonomous flight of the flight path, and a step of automatically taking an image.
A step of performing cross-movement in which the moving body is moved in a direction intersecting the traveling direction during autonomous flight of the flight path, and
A step of performing self-position estimation and environment map creation using the captured image of the imaging device taken during the crossing movement, and
A program that lets your computer run.
JP2019170898A 2019-09-19 2019-09-19 Moving object, flight path control method and program Pending JP2021047738A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019170898A JP2021047738A (en) 2019-09-19 2019-09-19 Moving object, flight path control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019170898A JP2021047738A (en) 2019-09-19 2019-09-19 Moving object, flight path control method and program

Publications (1)

Publication Number Publication Date
JP2021047738A true JP2021047738A (en) 2021-03-25

Family

ID=74878548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019170898A Pending JP2021047738A (en) 2019-09-19 2019-09-19 Moving object, flight path control method and program

Country Status (1)

Country Link
JP (1) JP2021047738A (en)

Similar Documents

Publication Publication Date Title
US11914369B2 (en) Multi-sensor environmental mapping
US20220234733A1 (en) Aerial Vehicle Smart Landing
US11460844B2 (en) Unmanned aerial image capture platform
US20210065400A1 (en) Selective processing of sensor data
CN111448476B (en) Technique for sharing mapping data between unmanned aerial vehicle and ground vehicle
EP3783454B1 (en) Systems and methods for adjusting uav trajectory
JP7263630B2 (en) Performing 3D reconstruction with unmanned aerial vehicles
Saha et al. A real-time monocular vision-based frontal obstacle detection and avoidance for low cost UAVs in GPS denied environment
WO2023102911A1 (en) Data collection method, data presentation method, data processing method, aircraft landing method, data presentation system and storage medium
CN108450032B (en) Flight control method and device
WO2019106714A1 (en) Unmanned aircraft, unmanned aircraft flight control device, unmanned aircraft flight control method and program
WO2020225979A1 (en) Information processing device, information processing method, program, and information processing system
JP2021047738A (en) Moving object, flight path control method and program
JP2021103410A (en) Mobile body and imaging system
Sumetheeprasit Flexible Configuration Stereo Vision using Aerial Robots
JP2024088679A (en) Smart aircraft landing
JP2021086268A (en) Movable body, information processing device and imaging system

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20191111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20191111