JPWO2020100945A1 - Mobile - Google Patents

Mobile Download PDF

Info

Publication number
JPWO2020100945A1
JPWO2020100945A1 JP2020556141A JP2020556141A JPWO2020100945A1 JP WO2020100945 A1 JPWO2020100945 A1 JP WO2020100945A1 JP 2020556141 A JP2020556141 A JP 2020556141A JP 2020556141 A JP2020556141 A JP 2020556141A JP WO2020100945 A1 JPWO2020100945 A1 JP WO2020100945A1
Authority
JP
Japan
Prior art keywords
drone
module
landing
wall surface
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020556141A
Other languages
Japanese (ja)
Inventor
賢哉 金田
賢哉 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hongo Aerospace Inc
Original Assignee
Hongo Aerospace Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hongo Aerospace Inc filed Critical Hongo Aerospace Inc
Publication of JPWO2020100945A1 publication Critical patent/JPWO2020100945A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/08Control of attitude, i.e. control of roll, pitch, or yaw
    • G05D1/0808Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft
    • G05D1/0866Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for aircraft specially adapted to captive aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66CCRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
    • B66C13/00Other constructional features or details
    • B66C13/04Auxiliary devices for controlling movements of suspended loads, or preventing cable slack
    • B66C13/08Auxiliary devices for controlling movements of suspended loads, or preventing cable slack for depositing loads in desired attitudes or positions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66CCRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
    • B66C21/00Cable cranes, i.e. comprising hoisting devices running on aerial cable-ways
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66CCRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
    • B66C23/00Cranes comprising essentially a beam, boom, or triangular structure acting as a cantilever and mounted for translatory of swinging movements in vertical or horizontal planes or a combination of such movements, e.g. jib-cranes, derricks, tower cranes
    • B66C23/18Cranes comprising essentially a beam, boom, or triangular structure acting as a cantilever and mounted for translatory of swinging movements in vertical or horizontal planes or a combination of such movements, e.g. jib-cranes, derricks, tower cranes specially adapted for use in particular purposes
    • B66C23/20Cranes comprising essentially a beam, boom, or triangular structure acting as a cantilever and mounted for translatory of swinging movements in vertical or horizontal planes or a combination of such movements, e.g. jib-cranes, derricks, tower cranes specially adapted for use in particular purposes with supporting couples provided by walls of buildings or like structures

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

従来の壁面点検と比較して容易かつコストを低減した壁面点検を行うための飛行体及び方法を提供することを課題とする。空間を移動するためのプロペラ等の駆動手段を有する移動体であるドローン1は、所定のビルBの上部と前記移動体とを接続し前記移動体に対する重力を支持するワイヤ101を備える。更に、前記駆動手段は、前記移動体に対する前記重力が働く方向に対して軸Zの方向に前記移動体を移動する駆動力を発生する。これにより、上記課題を解決する。An object of the present invention is to provide an air vehicle and a method for performing a wall surface inspection that is easier and less costly than a conventional wall surface inspection. The drone 1, which is a moving body having a driving means such as a propeller for moving in space, includes a wire 101 that connects the upper part of a predetermined building B and the moving body and supports gravity with respect to the moving body. Further, the driving means generates a driving force for moving the moving body in the direction of the axis Z with respect to the direction in which the gravity acts on the moving body. This solves the above problem.

Description

本発明は、移動体に関する。 The present invention relates to a mobile body.

近年、小型無人飛行機(典型的にはドローン)の研究・開発が盛んに行われている(例えば特許文献1参照)。 In recent years, research and development of small unmanned aerial vehicles (typically drones) have been actively carried out (see, for example, Patent Document 1).

特開2017−081246号公報Japanese Unexamined Patent Publication No. 2017-081246

本出願書類では、小型の移動体であるドローンのうち、無人飛行機や無人走行車の制御装置及び制御方法等に関して、次の発明を開示する。この出願書類では、各発明に関する「背景技術」、発明の概要の「発明が解決しようとする課題」、「課題を解決するための手段」、「発明の効果」及び「発明を実施するための形態」を、夫々記載する。 The present application documents disclose the following inventions regarding control devices and control methods for unmanned aerial vehicles and unmanned vehicles among drones which are small mobile bodies. In this application document, "background technology" for each invention, "problems to be solved by the invention" in the outline of the invention, "means for solving the problems", "effects of the invention" and "for carrying out the invention" "Form" is described respectively.

本発明は、このような状況に鑑みてなされたものであり、小型の移動体であるドローンの新規な制御装置及び制御方法を提供することを目的とする。 The present invention has been made in view of such a situation, and an object of the present invention is to provide a novel control device and control method for a drone which is a small moving body.

[第1発明]壁面点検
[第2発明]本人確認
[第3発明]離着陸制御
[第4発明]対人位置制御
[1st invention] Wall surface inspection [2nd invention] Identity verification [3rd invention] Takeoff and landing control [4th invention] Interpersonal position control

本発明の一実施形態に係る移動体は、
空間を移動するための駆動手段を有する移動体において、
所定の構造物の上部と前記移動体とを接続し、前記移動体に対する重力を支持する重力支持手段、
を備え、
前記駆動手段は、前記移動体に対する前記重力に対して垂直方向に前記移動体を移動する駆動力を発生する。
The moving body according to the embodiment of the present invention is
In a moving body having a driving means for moving in space
A gravity supporting means that connects the upper part of a predetermined structure and the moving body and supports gravity with respect to the moving body.
With
The driving means generates a driving force for moving the moving body in a direction perpendicular to the gravity of the moving body.

本発明によれば、小型無人飛行機の新規な制御装置及び制御方法を提供することが出来る。 According to the present invention, it is possible to provide a novel control device and control method for a small unmanned aerial vehicle.

本発明の情報処理システムに含まれる移動体としてのドローンと、操縦者端末との間における飛行制御の概要を示すイメージ図である。It is an image diagram which shows the outline of the flight control between a drone as a moving body included in the information processing system of this invention, and a pilot terminal. 図1のドローンにおける、飛行制御に係る各種制御部の情報処理に係るハードウェア構成を示すブロック図である。FIG. 3 is a block diagram showing a hardware configuration related to information processing of various control units related to flight control in the drone of FIG. 図1のドローンが実行する、図4乃至図18に示す各種処理を実現するための機能的構成の一例を示す機能ブロック図である。6 is a functional block diagram showing an example of a functional configuration for realizing various processes shown in FIGS. 4 to 18 executed by the drone of FIG. 1. 第1実施形態に係る図1のドローンによる壁面点検の例を示す図である。It is a figure which shows the example of the wall surface inspection by the drone of FIG. 1 which concerns on 1st Embodiment. 図4の壁面点検の例を他の方向から示す図である。It is a figure which shows the example of the wall surface inspection of FIG. 4 from another direction. 図5の壁面点検におけるドローンの吊下げ方法の他の例を示す図である。It is a figure which shows another example of the method of suspending a drone in the wall surface inspection of FIG. 図5の壁面点検におけるドローンの吊下げ方法の他の更なる例を示す図である。It is a figure which shows another further example of the method of suspending a drone in the wall surface inspection of FIG. 図4のドローンの吊下げの状況において、ビルBが張出し部BHを有する場合を示した図である。It is a figure which showed the case where the building B has an overhanging portion BH in the situation of hanging the drone of FIG. 図4のドローンの吊下げの状況において、ドローンとビルとが所定の距離をとる場合の例を示した図である。It is a figure which showed the example of the case where the drone and the building take a predetermined distance in the situation of hanging the drone of FIG. 図2のドローンが、離着陸ポートを用いた離着陸を行う場合における補助部材の例を示す図である。It is a figure which shows the example of the auxiliary member in the case where the drone of FIG. 2 performs takeoff and landing using a takeoff and landing port. 図2のドローンが、着陸時に用いる着陸ポートの例を示す図である。The drone of FIG. 2 is a diagram showing an example of a landing port used at the time of landing. 図2のドローンの着陸時等において、補助部材の例である中継用ドローンRと連携した制御の例を示す図である。It is a figure which shows the example of the control in cooperation with the relay drone R which is an example of an auxiliary member at the time of landing of the drone of FIG. 図2のドローンを地上のカメラを用いて撮像して制御する例を示した図である。It is a figure which showed the example which image | image | controlled the drone of FIG. 2 using the camera on the ground. 図13の撮像されたドローンの映像に基づいて、操縦者端末で確認し操縦する例を示した図である。It is a figure which showed the example which confirms and operates with the operator terminal based on the image of the drone imaged in FIG. 図2のドローンが作業者と接触するのを防ぐためのモジュールの機能及び使用方法の例を示した図である。It is a figure which showed the example of the function and the usage of the module for preventing the drone of FIG. 2 from coming into contact with an operator. 棚がある倉庫内を作業者とドローンとが通行しており、棚により作業者とドローンとが相互に位置を視認できない状態において、モジュールにより衝突を回避する例を示す図である。It is a figure which shows an example which avoids a collision by a module in a state where a worker and a drone pass through a warehouse with a shelf, and the worker and the drone cannot visually recognize each other by the shelf. 作業者と複数のドローンが倉庫内を移動している場合の衝突回避に係る図である。It is a figure concerning collision avoidance when a worker and a plurality of drones are moving in a warehouse. 産業機械等の移動体である平面を移動する走行体であるドローンが、壁により構成される通路の手前で停止する例を示す図である。It is a figure which shows the example which a drone which is a traveling body moving in a plane which is a moving body of an industrial machine or the like stops in front of a passage formed by a wall. 工場内等を無人で走行する移動体であるドローンの位置制御において、補助部材を用いたドッキングの例を示す図である。It is a figure which shows the example of docking using an auxiliary member in the position control of a drone which is a moving body which travels unmanned in a factory or the like. 図2のドローンが着陸時に用いる着陸ポートの例のうち、図11と異なる例を示す図である。It is a figure which shows the example different from FIG. 11 among the example of the landing port used by the drone of FIG. 2 at the time of landing. 図2のドローンを地上のカメラを用いて撮像して制御する例のうち、図13と異なる例を示す図である。It is a figure which shows the example different from FIG. 13 among the example which image | image | controlled the drone of FIG. 2 using the camera on the ground. 産業機械等の移動体である平面を移動する走行体であるドローンが、壁により構成される通路の手前で停止する例のうち、図18と異なる例を示す図である。It is a figure which shows the example different from FIG. 18 among the examples in which a drone which is a traveling body moving on a plane which is a moving body of an industrial machine or the like stops in front of a passage formed by a wall.

以下、本発明に係る情報処理システムを実施形態に関し、3次元空間を移動可能な小型無人飛行機(以下「ドローン」と呼ぶ)1を含む情報処理システムについて、図面を用いて説明する。図中、同じ要素に対しては同じ参照符号を付して、重複する説明を省略する。なお、最初にドローン1の通信及び制御装置の全体的なイメージの説明を行い、次に、第1〜第4実施形態を順番に説明する。ただし、本発明における「ドローン」の用語の対象は、3次元空間を移動可能な小型無人飛行機に限らない。即ち例えば、2次元空間を移動可能な走行車であるドローン等も含む。 Hereinafter, the information processing system according to the present invention will be described with reference to the embodiment, and the information processing system including the small unmanned aerial vehicle (hereinafter referred to as “drone”) 1 capable of moving in three-dimensional space will be described with reference to the drawings. In the figure, the same reference numerals are given to the same elements, and duplicate description will be omitted. First, the overall image of the communication and control device of the drone 1 will be described, and then the first to fourth embodiments will be described in order. However, the subject of the term "drone" in the present invention is not limited to a small unmanned aerial vehicle that can move in three-dimensional space. That is, for example, a drone that is a traveling vehicle that can move in a two-dimensional space is also included.

なお、以下の説明では、特に断りのない限り、次のように定義する方向を用いるものとする。
即ち、以下、前述の特許文献1のような、単独で飛行する状態にあるプロペラ式のドローン1を仮定した場合において、主たるプロペラが回転することで重力に対抗する推力を発生させる方向であって、貨物等を除いたドローンの重心を通る軸を軸DZと呼ぶ。ここで、ドローン1が一定の位置でホバリングした状態から主たるプロペラの回転数を増やした場合、ドローンは高度を増し上昇する。この方向を「軸DZが正の方向」、その逆を「軸DZが負の方向」と適宜呼ぶ。従って、上述の定義によれば、軸DZはドローン1の姿勢によらずドローン1に対して固定される。
In the following description, unless otherwise specified, the directions defined as follows are used.
That is, hereinafter, in the case of assuming a propeller type drone 1 in a state of flying alone as in Patent Document 1 described above, the direction is such that the main propeller rotates to generate a thrust against gravity. The axis passing through the center of gravity of the drone excluding cargo etc. is called the axis DZ. Here, when the rotation speed of the main propeller is increased from the state where the drone 1 is hovering at a certain position, the drone increases in altitude and rises. This direction is appropriately referred to as "the direction in which the axis DZ is positive" and the opposite is appropriately referred to as "the direction in which the axis DZ is negative". Therefore, according to the above definition, the axis DZ is fixed to the drone 1 regardless of the posture of the drone 1.

図1は、本実施形態のドローン1と操縦者端末2との間における飛行制御の概要を示すイメージ図である。
図1に示すように、ドローン1は、GPS(Global Positioning System)衛星Gから位置情報を取得する。
ドローン1は、この位置情報と、ドローン1に搭載された各種センサから得られる情報と、を合わせて操縦者端末2に送信する。なお、各種センサから得られる情報とは、具体的に例えば、ドローン1の姿勢に関する情報や回転運動に関する情報等である。操縦者端末2は、スマートフォン等で構成され、操縦者Uがドローン1を操縦するために用いる端末である。
サーバ3は、パーソナルコンピュータ等で構成され、ドローン1から各種情報を取得して、様々な処理を実行するために用いられる装置である。
なお、ドローン1と、操縦者端末2と、サーバ3との夫々とはインターネット等の所定のネットワークNを介して相互に接続される。ネットワークNとは、インターネットや携帯キャリア網等は勿論、NFC((Near Field Communication)登録商標)やBlue tooth(登録商標)等の近距離無線通信等も含まれる。
具体的に例えば、このようなネットワークNの利用態様として、以下のような例が想定される。
即ち、ドローン1が、操縦者端末2の電波が到達するエリア内を飛行する際は、ドローン1と操縦者端末2とは、リアルタイムで直接通信を行うことができる。これに対して、ドローン1が、操縦者端末2の電波が到達するエリア外を飛行する際は、ドローン1と操縦者端末2との間で直接的な通信を行うことができないため、間接的な通信を行う。具体的には、操縦者端末2は、インターネットや携帯キャリア網等のネットワークNを介して、サーバ3からドローン1の位置情報や飛行情報等を取得し、これら情報を参考にしながら、ドローン1の飛行を制御するための情報を送信する。この場合において、サーバ3は、ドローン1と所定の無線通信規格の無線装置Wを介してドローン1と情報の授受を行う。
また、サーバ3は、上述のように操縦者端末2の指示により動作するのみならず、ドローン1と授受した情報等に基づいて、ドローン1に対して目的地の指示や制御に関する情報の授受等を行うこともできる。
FIG. 1 is an image diagram showing an outline of flight control between the drone 1 and the operator terminal 2 of the present embodiment.
As shown in FIG. 1, the drone 1 acquires position information from the GPS (Global Positioning System) satellite G.
The drone 1 transmits this position information and the information obtained from various sensors mounted on the drone 1 together to the operator terminal 2. The information obtained from the various sensors is, for example, information on the posture of the drone 1, information on the rotational movement, and the like. The operator terminal 2 is a terminal composed of a smartphone or the like and used by the operator U to operate the drone 1.
The server 3 is a device composed of a personal computer or the like and used to acquire various information from the drone 1 and execute various processes.
The drone 1, the operator terminal 2, and the server 3 are each connected to each other via a predetermined network N such as the Internet. The network N includes not only the Internet and mobile carrier networks, but also short-range wireless communications such as NFC ((Near Field Communication) registered trademark) and Bluetooth (registered trademark).
Specifically, for example, the following examples are assumed as usage modes of such a network N.
That is, when the drone 1 flies in the area where the radio waves of the driver terminal 2 reach, the drone 1 and the driver terminal 2 can directly communicate with each other in real time. On the other hand, when the drone 1 flies outside the area where the radio waves of the driver terminal 2 reach, it is not possible to directly communicate between the drone 1 and the driver terminal 2, so that it is indirect. Communicate. Specifically, the operator terminal 2 acquires the position information, flight information, etc. of the drone 1 from the server 3 via the network N such as the Internet or the mobile carrier network, and while referring to these information, the drone 1 Send information to control flight. In this case, the server 3 exchanges information with the drone 1 via the drone 1 and the wireless device W of a predetermined wireless communication standard.
Further, the server 3 not only operates according to the instruction of the operator terminal 2 as described above, but also exchanges information regarding the destination instruction and control to the drone 1 based on the information exchanged with the drone 1. Can also be done.

また、ドローン1は、第1乃至4実施形態におけるドローンの制御等に係る情報処理のため、以下に示すようなハードウェア構成を有する。
図2は、図1のドローンにおける、飛行制御に係る各種制御部の情報処理に係るハードウェア構成を示すブロック図である。
Further, the drone 1 has the following hardware configuration for information processing related to the control of the drone in the first to fourth embodiments.
FIG. 2 is a block diagram showing a hardware configuration related to information processing of various control units related to flight control in the drone of FIG.

ドローン1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、出力部16と、入力部17と、記憶部18と、通信部19と、ドライブ20と、を備えている。 The drone 1 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, an output unit 16, and an input unit 17. , A storage unit 18, a communication unit 19, and a drive 20.

CPU11は、ROM12に記録されているプログラム、又は、記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The CPU 11 executes various processes according to the program recorded in the ROM 12 or the program loaded from the storage unit 18 into the RAM 13.
Data and the like necessary for the CPU 11 to execute various processes are also appropriately stored in the RAM 13.

CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、出力部16、入力部17、記憶部18、通信部19及びドライブ20が接続されている。 The CPU 11, ROM 12 and RAM 13 are connected to each other via the bus 14. An input / output interface 15 is also connected to the bus 14. An output unit 16, an input unit 17, a storage unit 18, a communication unit 19, and a drive 20 are connected to the input / output interface 15.

出力部16は、ディスプレイやスピーカ等で構成され、各種情報を画像や音声として出力する。
入力部17は、キーボードやマウス等で構成され、各種情報を入力する。
The output unit 16 is composed of a display, a speaker, and the like, and outputs various information as images and sounds.
The input unit 17 is composed of a keyboard, a mouse, and the like, and inputs various information.

記憶部18は、ハードディスクやDRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部19は、インターネットを含むネットワークNを介して他の装置(図1の例では操縦者端末2等)との間で通信を行う。
The storage unit 18 is composed of a hard disk, a DRAM (Dynamic Random Access Memory), or the like, and stores various data.
The communication unit 19 communicates with another device (such as the operator terminal 2 in the example of FIG. 1) via the network N including the Internet.

ドライブ20には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ20によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。
また、リムーバブルメディア31は、記憶部18に記憶されている各種データも、記憶部18と同様に記憶することができる。
A removable media 31 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted on the drive 20. The program read from the removable media 31 by the drive 20 is installed in the storage unit 18 as needed.
Further, the removable media 31 can also store various data stored in the storage unit 18 in the same manner as the storage unit 18.

なお、図示はしないが、図1の操縦者端末2及びサーバ3は図2に示すハードウェア構成と基本的に同様の構成を有する。 Although not shown, the operator terminal 2 and the server 3 in FIG. 1 have basically the same configuration as the hardware configuration shown in FIG.

以下に説明する第1乃至第4実施形態は、上述の情報処理システムの下で実現することができる。 The first to fourth embodiments described below can be realized under the above-mentioned information processing system.

[第1実施形態]壁面点検
タイル張りの建造物の外壁が老朽化した場合、タイルが剥がれ落ち歩行者に危害を加える可能性がある。そのため、タイル等の落下により歩行者等に危害を加える恐れのある外壁の点検が法的に義務付けられている。また、法的に定められた外壁の点検の他、壁面を点検したいという要望がある。
外壁点検の方法としては、例えば、作業者が外壁のタイルを叩き、叩いた箇所の音の違いにより点検を行う打診調査を行がある。このため作業者の乗用のゴンドラを屋上から吊るすことや建造物の周囲に足場を組むことが行われる。他には例えば、壁面のひび割れ(クラック)の有無を目視や画像により調査する方法や、壁面を赤外線に感度のあるカメラにより撮影を行う調査がある。
[First Embodiment] Wall inspection When the outer wall of a tiled building becomes old, the tiles may peel off and cause harm to pedestrians. Therefore, it is legally obligatory to inspect the outer wall, which may cause harm to pedestrians or the like due to the fall of tiles or the like. In addition to the legally required inspection of the outer wall, there is a request to inspect the wall surface.
As a method of inspecting the outer wall, for example, there is a percussion survey in which an operator hits a tile on the outer wall and inspects the tile according to the difference in the sound of the hit portion. For this reason, the gondola for workers is hung from the roof and scaffolding is built around the building. Other methods include, for example, a method of visually or visually inspecting the presence or absence of cracks on the wall surface, and an investigation in which the wall surface is photographed with a camera sensitive to infrared rays.

しかし、従来の壁面点検方法では、乗用のゴンドラを屋上から吊るすために大がかりなクレーン設備が必要となり、工数や費用等のコストが多くかかる。そこで、比較的小型であるドローンやラジコンを用いて壁面を撮像し、点検することが考えられるが、例えばビルがある街中は法的に飛行禁止又は許可が必要な地域として指定されている場合が多く、許可されたとしても複雑で強いビル風がありドローンの安定性や周囲の安全性確保に対する懸念があった。
そこで、第1実施形態は、上記の問題を解決してドローンを用いて壁面を点検するための構造や方法を提供することを目的とする。即ち、第1実施形態は、ドローン1を用いて壁面を点検するための、ドローンの機構とその制御手段を提供し、従来の壁面点検と比較して容易かつコストを低減した壁面点検を行えるようにすることを目的とする。
However, the conventional wall surface inspection method requires a large-scale crane facility for suspending the passenger gondola from the roof, which requires a lot of man-hours and costs. Therefore, it is conceivable to image and inspect the wall surface using a relatively small drone or radio control, but for example, in the city where the building is located, it may be legally designated as an area where flight prohibition or permission is required. There were many, even if permitted, complicated and strong building winds, and there were concerns about the stability of the drone and ensuring the safety of the surroundings.
Therefore, an object of the first embodiment is to solve the above problem and provide a structure and a method for inspecting a wall surface using a drone. That is, the first embodiment provides a drone mechanism and its control means for inspecting the wall surface using the drone 1, so that the wall surface inspection can be performed easily and at a reduced cost as compared with the conventional wall surface inspection. The purpose is to.

本発明の一実施形態に係る移動体は、
空間を移動するための駆動手段を有する移動体において、
所定の構造物の上部と前記移動体とを接続し、前記移動体に対する重力を支持する重力支持手段、
を備え、
前記駆動手段は、前記移動体に対する前記重力に対して垂直方向に前記移動体を移動する駆動力を発生する。
The moving body according to the embodiment of the present invention is
In a moving body having a driving means for moving in space
A gravity supporting means that connects the upper part of a predetermined structure and the moving body and supports gravity with respect to the moving body.
With
The driving means generates a driving force for moving the moving body in a direction perpendicular to the gravity of the moving body.

本発明によれば、従来の壁面点検と比較して容易かつコストを低減した壁面点検を行うことができる。 According to the present invention, it is possible to perform a wall surface inspection that is easier and less costly than a conventional wall surface inspection.

第1実施形態のドローン1は、このような要望を実現するドローンである。このようなドローン1の機能的構成について図3を参照して説明する。ここで、本実施形態におけるドローン1は、3次元空間を移動可能な小型飛行体であるドローンを用いた例として説明する。
図3は、図1のドローン1が実行する、図4乃至図18に示す各種処理を実現するための機能的構成の一例を示す機能ブロック図である。
The drone 1 of the first embodiment is a drone that fulfills such a demand. Such a functional configuration of the drone 1 will be described with reference to FIG. Here, the drone 1 in the present embodiment will be described as an example using a drone which is a small flying object that can move in a three-dimensional space.
FIG. 3 is a functional block diagram showing an example of a functional configuration for realizing various processes shown in FIGS. 4 to 18 executed by the drone 1 of FIG.

図3に示すように、ドローン1は、駆動部41と、飛行制御部42と、撮像部43と、壁面点検センサ部44と、吊下制御部45と、貨物格納部46と、認証部47と、通信部19とを備える移動体である。
本発明における「移動体」とは、駆動部により空間を移動するあらゆる物体あり、第1乃至第4実施形態におけるドローン1は、駆動手段としての駆動部41が駆動することにより空間を飛行しながら移動する「移動体」の一例である。
第1実施形態のドローン1においては、上述の構成のうち、駆動部41乃至吊下制御部45が少なくとも機能する。
As shown in FIG. 3, the drone 1 includes a drive unit 41, a flight control unit 42, an image pickup unit 43, a wall surface inspection sensor unit 44, a suspension control unit 45, a cargo storage unit 46, and an authentication unit 47. And a mobile body including a communication unit 19.
The "moving body" in the present invention includes any object that moves in space by a driving unit, and the drone 1 in the first to fourth embodiments flies in space by being driven by a driving unit 41 as a driving means. This is an example of a moving "moving body".
In the drone 1 of the first embodiment, the drive unit 41 to the suspension control unit 45 function at least in the above configuration.

駆動部41は、供給されるエネルギーを用いて駆動する。駆動部41が駆動すること等により、ドローン1は空間を移動することができる。電気エネルギーを用いて駆動するモータや、ガソリン等の化学エネルギーを用いて駆動するエンジンは、いずれも駆動部41の一例である。 The drive unit 41 is driven by using the supplied energy. The drone 1 can move in space by driving the drive unit 41 or the like. A motor driven by using electric energy and an engine driven by using chemical energy such as gasoline are both examples of the driving unit 41.

飛行制御部42は、ドローン1の飛行の制御を実行する。これにより、ドローン1は、駆動部41の出力を変化させ、駆動部41により駆動される羽等の向きに応じた移動をする。これにより例えば、後述するように建造物との距離を変化させることができる。
飛行制御部42は、通信部19で受信した操縦者端末2やサーバ3による操縦に係る信号に従って飛行の制御を行ってもよいし、ドローン1の有する図示せぬ自律制御部により飛行の制御を行ってもよい。
The flight control unit 42 controls the flight of the drone 1. As a result, the drone 1 changes the output of the drive unit 41 and moves according to the direction of the wings and the like driven by the drive unit 41. Thereby, for example, the distance to the building can be changed as described later.
The flight control unit 42 may control the flight according to a signal related to the operation by the operator terminal 2 or the server 3 received by the communication unit 19, or control the flight by an autonomous control unit (not shown) possessed by the drone 1. You may go.

撮像部43は、レンズと、CCDやCMOS等の光学素子と、その制御部等からなり、画像や映像を撮像する。
実施形態1では、撮像部43を壁面に向けることにより、壁面のクラックの点検の目的の画像を撮像することができる。また、赤外線に感度のある撮像素子や赤外線のみを透過するフィルタを用いることで、壁面の赤外線調査に用いることもできる。
ただし、撮像部43は上記の目的及び構成に限らない。即ち例えば、撮像部43を他の対象に向けることや、全天球カメラ等を有することで、姿勢制御等の他の目的に用いることができる。
The image pickup unit 43 includes a lens, an optical element such as a CCD or CMOS, and a control unit thereof, and captures an image or video.
In the first embodiment, by directing the image pickup unit 43 toward the wall surface, it is possible to capture an image for the purpose of checking for cracks on the wall surface. Further, by using an image sensor that is sensitive to infrared rays and a filter that transmits only infrared rays, it can be used for infrared investigation of a wall surface.
However, the imaging unit 43 is not limited to the above purpose and configuration. That is, for example, by pointing the imaging unit 43 toward another object or by having a spherical camera or the like, it can be used for other purposes such as attitude control.

壁面点検センサ部44は、壁面点検のためのセンサ等を備える。
例えば、壁面点検には上述した打診調査という手法がある。従来の打診調査では、作業者が壁面を打診棒と呼ばれる棒で叩き、叩かれることで発生する音が、壁面の状態により変化する性質により壁面の異常を検知していた。即ち例えば、打診調査のための壁面点検センサ部44は、打診棒により叩かれた壁面からの音や振動を感知するマイクと打診棒とからなるものであってよい。壁面点検センサ部44の構成は、行う壁面点検の手法に対応する構成であれば足る。
The wall surface inspection sensor unit 44 includes a sensor or the like for wall surface inspection.
For example, there is a method called the percussion survey described above for wall surface inspection. In the conventional percussion survey, an operator hits the wall surface with a stick called a percussion stick, and the sound generated by the hitting is detected as an abnormality of the wall surface due to the property of changing depending on the state of the wall surface. That is, for example, the wall surface inspection sensor unit 44 for the percussion investigation may include a microphone for detecting the sound and vibration from the wall surface hit by the percussion stick and the percussion stick. The configuration of the wall surface inspection sensor unit 44 may be any configuration corresponding to the method of wall surface inspection to be performed.

吊下制御部45は、ドローン1の吊下において、ドローン1の自律制御又は通信部19を介した操縦者端末2やサーバ3による制御により、ドローン1の吊下位置を制御する。また、ドローン1が自律的に制御を行ってもよい。吊下の制御の詳細は後述する。 The suspension control unit 45 controls the suspension position of the drone 1 by autonomous control of the drone 1 or control by the operator terminal 2 or the server 3 via the communication unit 19 when the drone 1 is suspended. Further, the drone 1 may autonomously control the drone 1. Details of suspension control will be described later.

次に、図4乃至図9を用いて、ドローン1を用いた壁面点検の方法の例について説明する。
図4は、第1実施形態に係る図1のドローン1による壁面点検の例を示す図である。
図5は、図4の壁面点検の例を他の方向から示す図である。
図5に示すA状況は、図4の壁面点検の方法の例を軸Zが正の方向から示す図である。
図5に示すB状況は、図5に示すA状況のドローン1が、モータ113を回転させることにより、ビルBの他の場所の壁面点検を行う例を示す図である。
なお、図5に示すA状況及び図5に示すB状況を個々に区別する必要がない場合、まとめて「図5」と呼ぶ。
Next, an example of a wall surface inspection method using the drone 1 will be described with reference to FIGS. 4 to 9.
FIG. 4 is a diagram showing an example of wall surface inspection by the drone 1 of FIG. 1 according to the first embodiment.
FIG. 5 is a diagram showing an example of the wall surface inspection of FIG. 4 from another direction.
The situation A shown in FIG. 5 is a diagram showing an example of the wall surface inspection method of FIG. 4 from the direction in which the axis Z is positive.
The B situation shown in FIG. 5 is a diagram showing an example in which the drone 1 in the A situation shown in FIG. 5 inspects the wall surface of another place of the building B by rotating the motor 113.
When it is not necessary to distinguish between the situation A shown in FIG. 5 and the situation B shown in FIG. 5, they are collectively referred to as “FIG. 5”.

図4は、通常の飛行状態から90度横に倒した姿勢に配置されたドローンを、側面から視た図である。 FIG. 4 is a side view of a drone arranged in a posture of being tilted 90 degrees sideways from a normal flight state.

ここで、本実施形態における以下の説明において、以下の軸X、軸Y及び軸Zからなる3次元直行座標系を用いる。即ち、通常の飛行状態から90度倒した姿勢に配置されたドローン1の軸DZの方向に3次元座標系の軸Zをとり、重力の方向に軸Yをとる。このとき、軸Yは高さが高くなる方向を正とする。即ち、高さが高くなる方向を「軸Yが正の方向」、その逆を「軸Yが負の方向」と呼ぶ。また、軸Yと軸Zとを用いた3次元座標系が右手系となるように、軸Xの方向を定義する。同様に、軸Xの方向の夫々を、「軸Xが正の方向」及び「軸Xが負の方向」と呼ぶ。 Here, in the following description in the present embodiment, a three-dimensional Cartesian coordinate system including the following axes X, Y, and Z is used. That is, the axis Z of the three-dimensional coordinate system is taken in the direction of the axis DZ of the drone 1 arranged in a posture tilted 90 degrees from the normal flight state, and the axis Y is taken in the direction of gravity. At this time, the axis Y is positive in the direction in which the height increases. That is, the direction in which the height increases is called "the direction in which the axis Y is positive", and the opposite is called "the direction in which the axis Y is negative". Further, the direction of the axis X is defined so that the three-dimensional coordinate system using the axis Y and the axis Z is a right-handed system. Similarly, the directions of the axis X are referred to as "the direction in which the axis X is positive" and "the direction in which the axis X is negative", respectively.

本実施形態の例では、ドローン1を用いて地面GRに建てられた建造物であるビルBの外壁を点検する場合において、ドローン1に対して軸Zが負の方向にビルBを配する。また、ドローン1は、ワイヤ101により軸Yが正の方向から吊下げられており、ワイヤ101はドローン1対する重力を支持する。即ち、ドローン1は、プロペラによる推力ではなく、後述するワイヤ101の張力によってドローン1にかかる重力を支持する。図4は、これを軸Xが正の方向から示した図であり、図5は、これを軸Zが正の方向から示した図である。 In the example of the present embodiment, when the outer wall of the building B, which is a building built on the ground GR, is inspected by using the drone 1, the building B is arranged in the direction in which the axis Z is negative with respect to the drone 1. Further, in the drone 1, the axis Y is suspended from the positive direction by the wire 101, and the wire 101 supports the gravity with respect to the drone 1. That is, the drone 1 supports the gravity applied to the drone 1 not by the thrust of the propeller but by the tension of the wire 101 described later. FIG. 4 is a view showing this from the positive direction of the axis X, and FIG. 5 is a view showing this from the positive direction of the axis Z.

図4を見ると、ビルBの軸Yが正の方向の端、即ちビルBの屋上部分にアームを備え、ビルBから軸Zの正の方向に一定距離離れた位置から、ワイヤ101を垂下しドローン1に接続して吊下げる。ただし、詳細は後述するが、ドローン1は駆動部41により軸Zの方向に推力を発生することができるため、ビルから張出したアームは必要ではない。また、本図面のアームの位置や構造は例であり、設置場所は屋上に限らない。また例えば、アームを用いず屋上に設置された滑車等でもよく、上層階の窓等に設置してもよい。 Looking at FIG. 4, the shaft Y of the building B is provided with an arm at the end in the positive direction, that is, the rooftop portion of the building B, and the wire 101 is hung from a position separated from the building B in the positive direction of the axis Z by a certain distance. Connect to the drone 1 and hang it. However, as will be described in detail later, since the drone 1 can generate thrust in the direction of the axis Z by the drive unit 41, an arm overhanging from the building is not necessary. The position and structure of the arm in this drawing are examples, and the installation location is not limited to the rooftop. Further, for example, a pulley or the like installed on the roof without using an arm may be used, or may be installed on a window or the like on an upper floor.

図5を見ると、ビルBは屋上部分の両端に前述のアームを備える。アームの夫々は、モータ111及び112をアームの端部の夫々に備え、モータ111及び112に1本のワイヤ101が接続される。
ここで、モータ111及び112は、ワイヤ101を巻き取ることができる。モータ111及び112の夫々は垂下されたワイヤ101を巻き取り又は送り出すことができる。即ち、モータ111及び112の夫々を制御することにより、垂下されたワイヤ101の長さを任意に変化させることができる。ここで、モータ111及び112は、モータリールのように、巻き取ったワイヤ101を収納する機能を有していてもよい。若しくは例えば、図示はしないが、単なるワイヤ101を巻き取り又は送り出すことができるモータであって、巻き取ったワイヤ101を収納する機構を有していてもよい。
また、ドローン1は、滑車のような形状をしたモータ113を有する。モータ113にワイヤ101を掛けることにより、ドローン1は、ワイヤ101に吊下げられた状態とすることができる。
Looking at FIG. 5, the building B is provided with the above-mentioned arms at both ends of the rooftop portion. Each of the arms is provided with motors 111 and 112 at each end of the arm, and one wire 101 is connected to the motors 111 and 112.
Here, the motors 111 and 112 can wind the wire 101. Each of the motors 111 and 112 can wind or feed the hanging wire 101. That is, by controlling each of the motors 111 and 112, the length of the hanging wire 101 can be arbitrarily changed. Here, the motors 111 and 112 may have a function of accommodating the wound wire 101 like a motor reel. Alternatively, for example, although not shown, a motor capable of simply winding or sending out the wire 101 may have a mechanism for accommodating the wound wire 101.
Further, the drone 1 has a motor 113 shaped like a pulley. By hanging the wire 101 on the motor 113, the drone 1 can be in a state of being suspended from the wire 101.

図4を見ると、ドローン1は、軸Zが負の方向に撮像部43を備える。つまり、撮像部43は、ビルBに対して向けられる。即ち、撮像部43により、ビルBを撮影した画像による壁面点検ができる。 Looking at FIG. 4, the drone 1 includes an imaging unit 43 in a direction in which the axis Z is negative. That is, the imaging unit 43 is directed toward the building B. That is, the image pickup unit 43 can inspect the wall surface with an image of the building B.

以下、図5に示すB状況を用いて、ドローン1の壁面点検にかかる壁面の移動について説明する。
ここで、ワイヤ101とモータ113の間に滑りがないとすれば、ドローン1の吊下制御部45は、モータ113を回転させる制御をすることで、ワイヤ101のうちの任意の位置へ移動することができる。即ち、ドローン1は、ワイヤ101の長さにより決まる曲線上の任意の位置から壁面点検をすることができる。
また、前述の通り、モータ111及び112は、ワイヤ101の長さを任意に変化させることができる。従って例えば、モータ111によりワイヤ101を巻き取ることにより、ワイヤ101の長さを短くすることで、巻き取る前より軸Yが正の方向の位置にドローン1を移動させることができる。また更に、その状態において、ドローン1はモータ113によりワイヤ101上の位置を移動することにより、ワイヤ101の短い状態の長さにより決まる曲線状の任意の位置において壁面点検をすることができる。同様に、モータ111によりワイヤ101を伸ばした場合は、伸ばす前より軸Yが負の方向の位置の壁面点検をすることができる。即ち、モータ111及び112により、ワイヤ101の長さを任意に変化させることにより、ドローン1は軸Yの任意の位置における壁面点検をすることができる。
つまり、ドローン1は、モータ113により、ワイヤ101の長さにより決まる曲線上の任意の点から壁面点検をすることができる。更に、モータ111及び112により、ワイヤ101の長さを任意に変化させることにより、ドローン1は軸Yの任意の位置における壁面点検をすることができる。即ち、ドローン1の吊下制御部45は、モータ111乃至113を制御することにより、壁面の任意の位置の壁面点検を行うことができる。
Hereinafter, the movement of the wall surface for the wall surface inspection of the drone 1 will be described using the situation B shown in FIG.
Here, assuming that there is no slip between the wire 101 and the motor 113, the suspension control unit 45 of the drone 1 moves to an arbitrary position in the wire 101 by controlling the rotation of the motor 113. be able to. That is, the drone 1 can inspect the wall surface from an arbitrary position on the curve determined by the length of the wire 101.
Further, as described above, the motors 111 and 112 can arbitrarily change the length of the wire 101. Therefore, for example, by winding the wire 101 with the motor 111, the length of the wire 101 can be shortened, so that the drone 1 can be moved to a position where the axis Y is in the positive direction from before the winding. Furthermore, in that state, the drone 1 moves the position on the wire 101 by the motor 113, so that the wall surface can be inspected at an arbitrary position on the curved line determined by the length of the short state of the wire 101. Similarly, when the wire 101 is stretched by the motor 111, the wall surface can be inspected at a position where the axis Y is in the negative direction before the wire 101 is stretched. That is, the drone 1 can inspect the wall surface at an arbitrary position on the axis Y by arbitrarily changing the length of the wire 101 by the motors 111 and 112.
That is, the drone 1 can inspect the wall surface from any point on the curve determined by the length of the wire 101 by the motor 113. Further, by arbitrarily changing the length of the wire 101 by the motors 111 and 112, the drone 1 can inspect the wall surface at an arbitrary position on the axis Y. That is, the suspension control unit 45 of the drone 1 can inspect the wall surface at an arbitrary position by controlling the motors 111 to 113.

ここで、図5において、ビルBの屋上からケーブル121が垂下され、ドローン1に接続される。ケーブル121は、ドローン1に接続された種々の電気信号等を授受するためのケーブルである。即ち例えば、ケーブル121は、ドローンに駆動力を発生させるための電力等を供給する動力ケーブルや、撮像部43により撮影された画像や映像を転送するための信号ケーブルやドローン1の飛行制御部42及びモータ113等の制御を行うための信号を授受するケーブルであってよい。ここで、動力ケーブルは、電力を送ることはもちろん、他の動力を供給するものであってもよい。即ち例えば、ドローン1は駆動するために空気圧等の圧力を用いたものであって、圧縮空気を供給するものであってもよい。また、ケーブル121は、ワイヤ101と束ねられていてもよく、ワイヤ101にケーブル121の機能を持たせてもよい。
以上、図5を用いてドローンの吊下げ方法の例を説明した。
Here, in FIG. 5, the cable 121 hangs down from the roof of the building B and is connected to the drone 1. The cable 121 is a cable for sending and receiving various electric signals and the like connected to the drone 1. That is, for example, the cable 121 is a power cable that supplies electric power or the like for generating a driving force to the drone, a signal cable for transferring an image or video captured by the imaging unit 43, or a flight control unit 42 of the drone 1. And a cable for sending and receiving signals for controlling the motor 113 and the like. Here, the power cable may supply other power as well as send electric power. That is, for example, the drone 1 may use a pressure such as air pressure to drive the drone 1 and may supply compressed air. Further, the cable 121 may be bundled with the wire 101, and the wire 101 may have the function of the cable 121.
As described above, an example of the method of suspending the drone has been described with reference to FIG.

以下、図6を用いて他のドローン1の吊下げ方法の例を説明する。
図6は、図5の壁面点検におけるドローン1の吊下げ方法の他の例を示す図である。
Hereinafter, an example of another method of suspending the drone 1 will be described with reference to FIG.
FIG. 6 is a diagram showing another example of the method of suspending the drone 1 in the wall surface inspection of FIG.

図6を見ると、ビルBは屋上部分の両端に前述のアームを備える。アームの夫々は、モータ111及び112をアームの端部の夫々に備え、モータ111から1本のワイヤ101が垂下され、ドローン1の固定点131に接続されており、モータ112から1本のワイヤ102が垂下され、ドローン1の固定点132に接続される。即ち、図5と違い、ドローン1はモータ113を有しておらず、ドローン1の固定点131及び132の夫々にワイヤ101及び102の夫々が接続されている。
この例では、ドローン1は、ワイヤ101とワイヤ102の長さによって決まる位置の壁面点検を行うことができる。即ち、屋上に有するモータ111及び112の制御によりドローン1の壁面点検の位置を制御することができる。これにより、ドローン1はモータ113を有する必要がなく、コストやドローン1の重量を軽減することができる。
以上、図6を用いてドローンの吊下げ方法の例を説明した。
Looking at FIG. 6, the building B is provided with the above-mentioned arms at both ends of the rooftop portion. Each of the arms is provided with motors 111 and 112 at each end of the arm, one wire 101 hanging from the motor 111, connected to a fixed point 131 of the drone 1, and one wire from the motor 112. 102 is hung and connected to the fixed point 132 of the drone 1. That is, unlike FIG. 5, the drone 1 does not have the motor 113, and the wires 101 and 102 are connected to the fixed points 131 and 132 of the drone 1, respectively.
In this example, the drone 1 can perform a wall surface inspection at a position determined by the lengths of the wire 101 and the wire 102. That is, the position of the wall surface inspection of the drone 1 can be controlled by controlling the motors 111 and 112 on the roof. As a result, the drone 1 does not need to have the motor 113, and the cost and the weight of the drone 1 can be reduced.
As described above, an example of the method of suspending the drone has been described with reference to FIG.

以下、図7を用いてドローン1の他の吊下げ方法の例を説明する。
図7は、図5の壁面点検におけるドローンの吊下げ方法の他の更なる例を示す図である。
Hereinafter, an example of another hanging method of the drone 1 will be described with reference to FIG. 7.
FIG. 7 is a diagram showing another further example of the method of suspending the drone in the wall surface inspection of FIG.

図7を見ると、ビルBは屋上部分の両端に前述のアームを備える。アームの夫々は、モータ111及び112をアームの端部の夫々に備え、モータ111及び112に1本のワイヤ101が接続される。
また、ドローン1は、滑車のような形状をしたローラ141を有する。ローラ141にワイヤ101を掛けることにより、ドローン1は、ワイヤ101に吊下げられた状態とすることができる。また更に、ドローン1はワイヤ103を地面GRに対して垂下している。即ち、図5と違い、ドローン1はモータ113を有しておらず、ローラ141を有しており、更にワイヤ103を垂下している。
Looking at FIG. 7, the building B is provided with the above-mentioned arms at both ends of the rooftop portion. Each of the arms is provided with motors 111 and 112 at each end of the arm, and one wire 101 is connected to the motors 111 and 112.
Further, the drone 1 has a roller 141 shaped like a pulley. By hanging the wire 101 on the roller 141, the drone 1 can be in a state of being suspended from the wire 101. Furthermore, the drone 1 hangs the wire 103 with respect to the ground GR. That is, unlike FIG. 5, the drone 1 does not have a motor 113, has a roller 141, and further hangs a wire 103.

この例では、ワイヤ103は、外力により軸Xの方向に動かすことができる。即ち、例えば、図示せぬ地面GRを軸X方向に走行する台車により、ワイヤ102に軸X方向の外力を与えることにより、ドローン1を、ワイヤ101の曲線上の任意の位置に移動することができる。ただし、ワイヤ102を動かす方法は台車に限らない。即ち例えば、図示せぬモータやワイヤを組み合わせた機構によって行ってもよいし、更には人の手によりワイヤ103を直接牽引してもよい。
即ちこの例では、ドローン1はワイヤ103を有し、ワイヤ103に与えられた外力により、ワイヤ101の曲線上の任意の点に移動し、壁面点検を行うことができる。また、図5の例と同様に、ワイヤ101の長さを任意に変更することにより、軸Yの任意の位置の壁面点検を行うことができる。従って、図6の例のドローン吊下げ方法において、ビルBの任意の位置の壁面点検を行うことができる。
以上、図7を用いて他のドローンの吊下げ方法の例を説明した。
In this example, the wire 103 can be moved in the direction of the axis X by an external force. That is, for example, the drone 1 can be moved to an arbitrary position on the curve of the wire 101 by applying an external force in the axis X direction to the wire 102 by a dolly traveling on the ground GR (not shown) in the axis X direction. can. However, the method of moving the wire 102 is not limited to the dolly. That is, for example, it may be carried out by a mechanism in which a motor or a wire (not shown) is combined, or further, the wire 103 may be directly pulled by a human hand.
That is, in this example, the drone 1 has a wire 103, and can move to an arbitrary point on the curve of the wire 101 by an external force applied to the wire 103 to perform a wall surface inspection. Further, as in the example of FIG. 5, by arbitrarily changing the length of the wire 101, it is possible to inspect the wall surface at an arbitrary position of the axis Y. Therefore, in the drone hanging method of the example of FIG. 6, the wall surface inspection at an arbitrary position of the building B can be performed.
As described above, an example of another drone hanging method has been described with reference to FIG. 7.

以下、図8を用いて、駆動力を有するドローン1を吊下げることによりビルBの壁面を調査する場合に奏する効果について説明する。
図8は、図4のドローン1の吊下げの状況において、ビルBが張出し部BHを有する場合を示した図である。
図8に示すA状況は、ビルBが張出し部BHを有している場合において、ドローン1を吊下げている状態の図である。
図8に示すB状況は、ビルBが張出し部BHを有している場合において、吊下げられたドローン1が、張出し部BHを避ける様子を示した図である。
なお、図8に示すA状況及び図8に示すB状況を個々に区別する必要がない場合、以下、「図8」と呼ぶ。
Hereinafter, with reference to FIG. 8, the effect exerted when investigating the wall surface of the building B by suspending the drone 1 having a driving force will be described.
FIG. 8 is a diagram showing a case where the building B has an overhanging portion BH in the situation where the drone 1 of FIG. 4 is suspended.
The situation A shown in FIG. 8 is a diagram showing a state in which the drone 1 is suspended when the building B has an overhanging portion BH.
The B situation shown in FIG. 8 is a diagram showing how the suspended drone 1 avoids the overhanging portion BH when the building B has the overhanging portion BH.
When it is not necessary to distinguish between the situation A shown in FIG. 8 and the situation B shown in FIG. 8, it will be referred to as “FIG. 8” below.

図8を見ると、ビルBは、ドローン1による壁面点検を行う側面に、張出し部BHを有している。ここで、張出し部BHのZ方向の長さは、ドローン1とビルBとの距離よりも長いものとする。
図8に示すA状況を見ると、この場合において、ドローン1は張出し部BHに阻まれ、ビルBの屋上から垂下されたワイヤ101の長さを長くするだけでは、ビルBの壁面うち張出し部BHの下部(Yが負の方向)の点検を行うことはできない。
Looking at FIG. 8, the building B has an overhanging portion BH on the side surface where the wall surface is inspected by the drone 1. Here, it is assumed that the length of the overhanging portion BH in the Z direction is longer than the distance between the drone 1 and the building B.
Looking at the situation A shown in FIG. 8, in this case, the drone 1 is blocked by the overhanging portion BH, and the overhanging portion of the wall surface of the building B is simply increased by increasing the length of the wire 101 hanging from the roof of the building B. It is not possible to inspect the lower part of the BH (Y is in the negative direction).

ここで、ドローン1は、プロペラ等の駆動力を有するため駆動部41を作動させることにより、軸DZの方向にドローン1を移動する推力を発生させることができる。即ち、図8において、ドローン1は軸Zが正の方向に移動することにより、ビルBとの距離を広げることができる。 Here, since the drone 1 has a driving force such as a propeller, by operating the driving unit 41, it is possible to generate a thrust for moving the drone 1 in the direction of the axis DZ. That is, in FIG. 8, the drone 1 can increase the distance from the building B by moving the axis Z in the positive direction.

図8に示すB状況を見ると、ドローン1は、軸Zが正の方向に駆動力を発揮することにより、ビルBとの距離を広げ、更に、ワイヤ101の長さを伸ばすことにより、張出し部BHを避けつつ、軸Yが負の方向に移動する。即ち、ドローン1は、ビルBの壁面から離れる方向に駆動力を発揮し、同時にワイヤ101の長さを変化させることにより、張出し部の下部(Yが負の方向)に移動することができる。 Looking at the situation B shown in FIG. 8, the drone 1 extends the distance from the building B by exerting a driving force in the positive direction of the axis Z, and further extends the length of the wire 101 to extend the drone 1. The axis Y moves in the negative direction while avoiding the portion BH. That is, the drone 1 exerts a driving force in the direction away from the wall surface of the building B, and at the same time, by changing the length of the wire 101, the drone 1 can move to the lower part of the overhanging portion (Y is in the negative direction).

また、図示はしないが、図8に示すB状況の状態からドローン1のZが正の方向への駆動力を加えない場合、ドローン1とビルBとの距離は、張出し部BHの長さにより決まる距離となる。ここで、ドローン1は、Zが負の方向に駆動力を発揮することにより、ドローン1の距離を他の位置における壁面点検と同じ距離に調節することができる。 Further, although not shown, when the Z of the drone 1 does not apply a driving force in the positive direction from the state of the B situation shown in FIG. 8, the distance between the drone 1 and the building B depends on the length of the overhanging portion BH. It will be a fixed distance. Here, the drone 1 can adjust the distance of the drone 1 to the same distance as the wall surface inspection at another position by exerting a driving force in the negative direction of Z.

以上をまとめると、ドローン1は、ビルBの屋上から垂下されたワイヤ101により重力を支持し、重力と垂直に推力を発揮する機構を有することで、以下の効果を奏する。即ち、ドローンを飛ばすことが困難な場合、即ち例えば、ビルBに張出し部HBがある場合において、ドローン1とビルBとの距離を広げることにより張出し部HBを避けることができる。更に、張出し部HBの下部(軸Yが負の方向)において、ドローン1とビルBとの距離を近づけることができる。
以上、図8を用いて、駆動力を有するドローン1を吊下げることによりビルBの壁面を調査する場合に奏する効果について説明した。
Summarizing the above, the drone 1 has the following effects by having a mechanism that supports gravity by a wire 101 hanging from the roof of building B and exerts thrust perpendicular to gravity. That is, when it is difficult to fly the drone, that is, when the building B has an overhanging portion HB, for example, the overhanging portion HB can be avoided by increasing the distance between the drone 1 and the building B. Further, the distance between the drone 1 and the building B can be shortened at the lower part of the overhanging portion HB (the axis Y is in the negative direction).
As described above, the effect of suspending the drone 1 having a driving force to investigate the wall surface of the building B has been described with reference to FIG.

以下、図9を用いて、ドローン1とビルBとの距離を一定に保つための方法の例について説明する。
図9は、図4のドローン1の吊下げの状況において、ドローン1とビルBとが所定の距離をとる場合の例を示した図である。
図9に示すA状況は、ドローン1とビルBとの距離を近距離において接した状態にした例である。
図9に示すB状況は、ドローン1とビルBとの距離を遠距離において接した状態にした例である。
なお、図9に示すA状況及び図9に示すB状況を個々に区別する必要がない場合、以下、「図9」と呼ぶ。
Hereinafter, an example of a method for keeping the distance between the drone 1 and the building B constant will be described with reference to FIG.
FIG. 9 is a diagram showing an example in which the drone 1 and the building B take a predetermined distance in the situation where the drone 1 is suspended in FIG.
The situation A shown in FIG. 9 is an example in which the distance between the drone 1 and the building B is in close contact with each other.
The situation B shown in FIG. 9 is an example in which the distance between the drone 1 and the building B is in contact with each other at a long distance.
When it is not necessary to distinguish between the situation A shown in FIG. 9 and the situation B shown in FIG. 9, it is hereinafter referred to as “FIG. 9”.

図9に示すA状況を見ると、ドローン1はビルBに接している。前述の通り、単にビルBが屋上に有するアームからワイヤ101を介してドローン1を垂下した場合、図4のようにドローンはビルBに接しない。一方、図9に示すA状況の例では、ドローン1の飛行制御部42はZが負の方向に移動するよう駆動部41を制御し、推力を発生する。これにより、ドローン1はビルBに接する。
ドローン1をビルBに接するように制御することにより、ドローン1の壁面点検センサ部44が壁面点検を行う場合において、一定の距離を保つ制御が容易になる。これにより、壁面点検センサ部44が壁面点検をする場合において、ドローン1とビルBとが一定距離を保つことにより、壁面点検を効率的に行うことができる。即ち例えば、壁面点検センサ部44が、撮像による診断を行う場合、ある位置において診断を行った後、他の位置で診断を行う場合に、距離を一定に保つことにより、撮影した画像間において、比較をしやすい画像が得られ、重なりの位置の判断をしやすい等の効果を奏する。他には例えば、ドローン1をビルBに一定以上の力をかけて押しつけることにより、壁面点検センサ部44が、打診による診断を行う場合、安定して打診棒を打診することができるようになる効果を奏する。即ち、ドローン1がビルBに対して接していない場合や、一定以上の力で押しつけていない場合、壁面点検センサ部44が打診棒をビルBに打ち付けた場合において、ドローン1は打ち付けたことに対する反作用により、ビルBから離れる方向に移動しうるが、これを防ぐことができる。
Looking at the situation A shown in FIG. 9, the drone 1 is in contact with the building B. As described above, when the drone 1 is simply hung from the arm held by the building B on the roof via the wire 101, the drone does not touch the building B as shown in FIG. On the other hand, in the example of the situation A shown in FIG. 9, the flight control unit 42 of the drone 1 controls the drive unit 41 so that Z moves in the negative direction, and generates thrust. As a result, the drone 1 comes into contact with the building B.
By controlling the drone 1 so as to be in contact with the building B, when the wall surface inspection sensor unit 44 of the drone 1 performs a wall surface inspection, it becomes easy to control to maintain a constant distance. As a result, when the wall surface inspection sensor unit 44 inspects the wall surface, the wall surface inspection can be efficiently performed by keeping a certain distance between the drone 1 and the building B. That is, for example, when the wall surface inspection sensor unit 44 makes a diagnosis by imaging, when making a diagnosis at a certain position and then making a diagnosis at another position, by keeping the distance constant, the images taken can be separated from each other. Images that are easy to compare can be obtained, and it is easy to determine the position of overlap. In addition, for example, by pressing the drone 1 against the building B with a certain force or more, the wall surface inspection sensor unit 44 can stably percussion the percussion stick when making a diagnosis by percussion. It works. That is, when the drone 1 is not in contact with the building B, is not pressed with a certain force or more, or when the wall surface inspection sensor unit 44 hits the consultation rod against the building B, the drone 1 responds to the hit. Due to the reaction, it is possible to move away from the building B, but this can be prevented.

図9に示すB状況を見ると、ドローン1は、脚部151を介してビルBに接している。ここで、脚部151は、ビルBに接する位置において、ドローンよりも広く開いている。脚部151を有する場合、ドローン1とビルBとは、図4や図9に示すA状況と比較して遠距離の位置において、ビルBに接することができる。ビルBに接することにより、上述の図9に示すA状況と同様の効果を奏する。更に、撮像部43を用いた撮像時において、ビルBとの距離が遠い場所で接する場合、撮像部43により撮像される画角が広いレンズを用いることで、より広い面積をドローンの脚部151に邪魔されずに撮像することができる。これにより、撮像を行う位置の数を減らすことができる。撮像を行う位置を減らすことにより、作業時間を減らすことができる。
ここで、脚部151の本数は、何本出合ってもよい。即ち例えば、3本であってもよく、3本ある場合、壁面に対して軸X、軸Y及び軸Zの方向の夫々に安定して接することができる。
また、脚部151を、ドローン1は、軸Zが負の方向に移動するよう、推力を発生しつつ、軸X及び軸Yの方向への移動を行う。これにより、ドローン1は脚部151を有した状態で、ビルBの壁面を移動できる。
Looking at the situation B shown in FIG. 9, the drone 1 is in contact with the building B via the leg 151. Here, the leg 151 is wider than the drone at a position in contact with the building B. When the leg portion 151 is provided, the drone 1 and the building B can be in contact with the building B at a distant position as compared with the situation A shown in FIGS. 4 and 9. By touching the building B, the same effect as the situation A shown in FIG. 9 described above is obtained. Further, when the image pickup unit 43 is used for imaging, when the object is in contact with the building B at a distant place, the drone leg portion 151 can be used for a wider area by using a lens having a wide angle of view imaged by the image pickup unit 43. You can take an image without being disturbed by. This makes it possible to reduce the number of positions for imaging. By reducing the position where the image is taken, the working time can be reduced.
Here, the number of legs 151 may be any number. That is, for example, there may be three, and when there are three, they can stably contact the wall surface in the directions of the axis X, the axis Y, and the axis Z, respectively.
Further, the drone 1 moves the leg portion 151 in the directions of the axis X and the axis Y while generating thrust so that the axis Z moves in the negative direction. As a result, the drone 1 can move on the wall surface of the building B while having the legs 151.

以上、図9を用いて、ドローン1とビルBとの距離を一定に保つための方法の例について説明した。
以上、図4乃至図9を用いて、ドローン1を用いた壁面点検の方法の例について説明した。
As described above, an example of a method for keeping the distance between the drone 1 and the building B constant has been described with reference to FIG.
As described above, an example of the method of wall surface inspection using the drone 1 has been described with reference to FIGS. 4 to 9.

ドローン1を用いた壁面点検の方法は上述に限らない。
即ち例えば、空気を入れた風船のような機体にプロペラを付けたドローン1を用いてもよい。即ち、空気を入れた風船のように弾力又はクッション性を備え、更に駆動部41を備えるドローン1を用いることができる。これにより、窓などにぶつかった際の衝撃を和らげることができる。
また例えば、ワイヤ101は、ビルBの屋上のアームから垂下されるものとしたが、特にこれに限定されない。即ち例えば、ビルBの屋上のアームに供えられたモータ111は、ビルBの屋上において、位置を動かすことができる。更には、モータ111は、屋上に添えたレールの上を台車等により、移動してもよい。これにより、モータ111から垂下したワイヤ101を介して吊下げられたドローン1は、モータ111の真下ではなく所定の角度の位置に吊下げるよう制御することができる。これにより、ドローン1を安定して吊下げることができる。更にいえば、モータ111がレール上を自動で移動できるようにすることができる。これにより、壁面の全面を自動で点検する制御をおこなうことができる。
The method of wall surface inspection using the drone 1 is not limited to the above.
That is, for example, a drone 1 in which a propeller is attached to an airframe such as a balloon filled with air may be used. That is, it is possible to use the drone 1 which has elasticity or cushioning property like a balloon filled with air and further includes a driving unit 41. This makes it possible to soften the impact when hitting a window or the like.
Further, for example, the wire 101 is assumed to be hung from the arm on the roof of the building B, but the present invention is not particularly limited to this. That is, for example, the motor 111 provided on the rooftop arm of the building B can move its position on the rooftop of the building B. Further, the motor 111 may be moved on a rail attached to the roof by a trolley or the like. As a result, the drone 1 suspended from the motor 111 via the wire 101 can be controlled to be suspended at a predetermined angle rather than directly below the motor 111. As a result, the drone 1 can be hung stably. Furthermore, the motor 111 can be made to move automatically on the rail. As a result, it is possible to perform control for automatically inspecting the entire surface of the wall surface.

このような第1実施形態のドローン1は、従来の壁面点検と比較して容易かつコストを低減した壁面点検を行うことができるという効果を奏することができる。
このような効果を奏することが可能な移動体は、第1実施形態のドローン1に限定されず、次のような移動体であれば足りる。
即ち、この移動体は、
空間を移動するための駆動手段(例えば図3の駆動部41)を有する移動体(例えば図4のドローン1)において、
所定の構造物(例えば図4のビルB)の上部と前記移動体とを接続し、前記移動体に対する重力を支持する重力支持手段(例えば図4のワイヤ101)、
を備え、
前記駆動手段は、前記移動体に対する前記重力に対して垂直方向(例えば図4の軸Zが正の方向及び軸Zが負の方向)に前記移動体を移動する駆動力を発生する、
移動体であれば足る。
The drone 1 of the first embodiment has an effect that the wall surface inspection can be performed easily and at a reduced cost as compared with the conventional wall surface inspection.
The moving body capable of exerting such an effect is not limited to the drone 1 of the first embodiment, and the following moving body is sufficient.
That is, this moving body is
In a moving body (for example, the drone 1 in FIG. 4) having a driving means for moving in space (for example, the driving unit 41 in FIG. 3).
Gravity support means (eg, wire 101 in FIG. 4) that connects the upper part of a predetermined structure (for example, building B in FIG. 4) and the moving body to support gravity with respect to the moving body.
With
The driving means generates a driving force for moving the moving body in a direction perpendicular to the gravity with respect to the moving body (for example, the axis Z in FIG. 4 is in the positive direction and the axis Z is in the negative direction).
A mobile body is sufficient.

[第2実施形態]本人確認
物流を行う場合、即ち例えば、小包等の貨物を配達する場合において、配達先の受取人が本人であるかを確認する、本人確認が必要である。以下、本実施形態の説明における受取人とは、配達先に指定された本人であることに限らず、本人の家族や本人が信頼する知人等を含む広義な意味で用いる。また、第2実施形態の説明における本人確認とは、前述の広義な本人であることの確認や、配達先が本人の住まう家等、配達先に指定された本人に認められうる位置であるかどうかの確認等を含む、広義の意味で用いる。
[Second Embodiment] Identity Verification In the case of physical distribution, that is, when delivering cargo such as parcels, it is necessary to confirm the identity of the recipient to confirm that the recipient is the person. Hereinafter, the recipient in the description of the present embodiment is not limited to the person designated as the delivery destination, but is used in a broad sense including the family of the person and acquaintances trusted by the person. In addition, the identity verification in the description of the second embodiment is a position that can be recognized by the person designated as the delivery destination, such as the above-mentioned confirmation that the person is the person in a broad sense and the delivery destination is the house where the person lives. It is used in a broad sense, including confirmation of whether or not.

しかし、従来の本人確認では、配達を行う配達員が、配達先の住所まで訪問して行っていた。そのため、配達先に対応可能な者がいない場合、配達員は貨物を持ち帰り、再度の訪問を行って本人確認する必要があり、配達員の労力やコストがかかるという問題があった。その対策として、宅配ボックス等を用意する等の方法がある。しかし、依然として配達員の慢性的な不足等の問題があった。
不在ではないが宅配人がロボットである場合には、受け渡し自動化する上で本人確認に代替する技術、または規制緩和を見越して配達証明ができる方法等を示す。即ち、飛行体であるドローンを用い、貨物を運搬することが考えられる。しかし、この場合、配達員である人間はいないため、従来の本人確認を行うことはできない。そこで、第2実施形態の移動体は、上記の問題を解決して、ドローンを用いた貨物の運搬や配達を行う際の、本人確認を行えるようにすることを目的とする。
However, in the conventional identity verification, the delivery person who delivers the product visits the delivery address. Therefore, if there is no person who can handle the delivery destination, the delivery person needs to take the cargo home and visit again to confirm the identity, which causes a problem that the delivery person's labor and cost are required. As a countermeasure, there is a method such as preparing a delivery box or the like. However, there were still problems such as a chronic shortage of delivery staff.
If the delivery person is a robot, although it is not absent, we will show a technology that replaces identity verification in order to automate delivery, or a method that can prove delivery in anticipation of deregulation. That is, it is conceivable to use a drone, which is an air vehicle, to carry cargo. However, in this case, since there is no person who is a delivery person, the conventional identity verification cannot be performed. Therefore, the object of the moving body of the second embodiment is to solve the above-mentioned problem so that the identity can be confirmed when transporting or delivering the cargo using the drone.

このような目的を達成すべく、第2実施形態のドローン1を採用することができる。 In order to achieve such an object, the drone 1 of the second embodiment can be adopted.

第2実施形態のドローン1は、このような要望を実現するドローンである。このようなドローン1の機能的構成について図3を参照して説明する。ここで、本実施形態におけるドローン1は、3次元空間を移動可能な小型飛行体であるドローンを用いた例として説明する。
図3は、ドローン1が実行する、図3乃至図9に示す各種処理を実現するための機能的構成の一例を示す機能ブロック図である。
The drone 1 of the second embodiment is a drone that fulfills such a demand. Such a functional configuration of the drone 1 will be described with reference to FIG. Here, the drone 1 in the present embodiment will be described as an example using a drone which is a small flying object that can move in a three-dimensional space.
FIG. 3 is a functional block diagram showing an example of a functional configuration for realizing various processes shown in FIGS. 3 to 9 executed by the drone 1.

図3に示すように、ドローン1は、駆動部41と、飛行制御部42と、撮像部43と、壁面点検センサ部44と、吊下制御部45と、貨物格納部46と、認証部47と、通信部19とを備える移動体である。
第2実施形態のドローン1においては、上述の構成のうち、駆動部41乃至撮像部43及び貨物格納部46と、認証部47が少なくとも機能する。
As shown in FIG. 3, the drone 1 includes a drive unit 41, a flight control unit 42, an image pickup unit 43, a wall surface inspection sensor unit 44, a suspension control unit 45, a cargo storage unit 46, and an authentication unit 47. And a mobile body including a communication unit 19.
In the drone 1 of the second embodiment, among the above configurations, the drive unit 41 to the image pickup unit 43, the cargo storage unit 46, and the authentication unit 47 function at least.

駆動部41乃至撮像部43の機能は、実施形態1で述べた通りである。 The functions of the drive unit 41 to the image pickup unit 43 are as described in the first embodiment.

貨物格納部46は、配達する貨物等を格納することができる。これにより、ドローン1は貨物を格納した状態で飛行することにより、貨物を運搬することができる。ただし、格納とは、貨物を完全に囲って格納することに限らない。即ち例えば、貨物をドローン1が有する図示せぬアームにより固定する等、ドローン1が貨物を運搬可能とすることができれば足る。即ち貨物格納部46による格納方法は、あらゆる貨物の固定方法等を採用できる。 The cargo storage unit 46 can store the cargo or the like to be delivered. As a result, the drone 1 can carry the cargo by flying with the cargo stored. However, storage does not mean that the cargo is completely enclosed and stored. That is, it suffices if the drone 1 can carry the cargo, for example, by fixing the cargo with an arm (not shown) of the drone 1. That is, as the storage method by the cargo storage unit 46, any cargo fixing method or the like can be adopted.

認証部47は、配達する貨物を配達する配達先の受取人の認証を行う。即ち、前述の本人確認を行うことができる。これにより、ドローン1は、本人確認し認証した先に運搬した貨物を配達することができる。本人確認の詳細は後述する。 The authentication unit 47 authenticates the recipient of the delivery destination that delivers the delivered cargo. That is, the above-mentioned identity verification can be performed. As a result, the drone 1 can deliver the cargo carried to the destination whose identity has been confirmed and authenticated. Details of identity verification will be described later.

以下、本人確認の具体的な方法について例をあげて詳述する。
例えば、認証部47は、配達時に顔認証を行うことができる。具体的には例えば、撮像部43により受取人の候補となる人の顔を撮像し、撮像された顔を認識する。このとき、事前に登録した顔をと照合することにより、正しい配達先の人物であるかを認証する。正しい配達先の人物であると認証できた場合において、ドローン1から貨物を下ろす。即ち、認証できた場合において、貨物格納部46は貨物を解放することで、受取人に貨物を受け渡すことができる。
Hereinafter, the specific method of identity verification will be described in detail with an example.
For example, the authentication unit 47 can perform face authentication at the time of delivery. Specifically, for example, the imaging unit 43 images the face of a person who is a candidate for the recipient, and recognizes the imaged face. At this time, by collating the face registered in advance with the person, it is authenticated whether the person is the correct delivery destination. If the person can be authenticated as the correct delivery destination, the cargo is unloaded from the drone 1. That is, when the authentication is successful, the cargo storage unit 46 can deliver the cargo to the recipient by releasing the cargo.

顔認証を行う場合において、以下のような方法の組合せや代替をすることができる。例えば、本人確認をして貨物を下した後に貨物から離れた際に、貨物と受取人の両方を同時に撮像してもよい。これにより、ドローン1から降ろされた貨物が、確かに受取人の手に渡ったことを確認することができる。ただし、必ずしも貨物と受取人の両方を同時に撮像すること限られない。即ち例えば、貨物と受取人の両方が同時に撮像されなくてもよい。更には例えば、動画で受取人と貨物との夫々を撮像することにより、受取人と貨物とが近接していることを示してもよい。 When performing face recognition, the following methods can be combined or replaced. For example, both the cargo and the recipient may be imaged at the same time when the cargo is separated from the cargo after the identity is confirmed and the cargo is unloaded. This makes it possible to confirm that the cargo unloaded from the drone 1 has certainly fallen into the hands of the recipient. However, it is not always possible to image both the cargo and the recipient at the same time. That is, for example, both the cargo and the recipient do not have to be imaged at the same time. Further, for example, it may be shown that the recipient and the cargo are in close proximity by imaging each of the recipient and the cargo with a moving image.

また例えば、上記の例では顔認証としたが、認証に用いる受取人の身体的特徴は顔に限らない。即ち例えば、指紋や声紋等任意の身体的特徴であってよい。
更には例えば、指紋により本人確認を行う場合における指紋読み取り装置は、ドローン1に対して、貨物を受け取る旨又は貨物を受け取ったためロボットが帰還してもよい旨を示すためのボタンと兼ねてもよい。
Further, for example, although face authentication is used in the above example, the physical characteristics of the recipient used for authentication are not limited to the face. That is, it may be any physical feature such as a fingerprint or a voiceprint.
Further, for example, the fingerprint reading device in the case of performing identity verification by fingerprint may also serve as a button for indicating to the drone 1 that the cargo is to be received or that the robot may return because the cargo has been received. ..

また例えば、上述の例では事前に登録された受取人である本人の顔の情報により本人確認するとしたが、これに限らない。即ち例えば、初回の配達時に位置情報等の他の方法により本人確認を行い、その際に人の顔を認識して記録することにより、名前等の個人情報と結びつけてもよい。これにより、次回以降の配達時に顔認証により配達することができ、初回の顔の登録に係る受取人の手間を削減することができる。
また例えば、顔の情報と住所等を紐づけることにより、配達先の住所と紐付けられた複数人を事前に認証対象に紐付けることができる。具体的には例えば、同居する家族が紐付けられることで、家族が受取人として受け取れるようにしてもよい。これにより例えば、宛先の本人以外の信頼された受取人を代理の受取人として配達することができる。
Further, for example, in the above example, the identity is confirmed by the information of the face of the recipient who is registered in advance, but the present invention is not limited to this. That is, for example, the person may be linked to personal information such as a name by confirming the identity by another method such as location information at the time of the first delivery and recognizing and recording the face of the person at that time. As a result, it is possible to deliver by face recognition at the time of delivery from the next time onward, and it is possible to reduce the labor of the recipient related to the registration of the face for the first time.
Further, for example, by associating face information with an address or the like, it is possible to associate a plurality of persons associated with the delivery destination address with the authentication target in advance. Specifically, for example, a family living together may be linked so that the family can receive it as a recipient. This allows, for example, delivery of a trusted recipient other than the recipient's principal as a surrogate recipient.

例えば、認証部47は、配達時に無線認証を行うことができる。即ち例えば、受取人のスマートフォンや据え置きの無線通信装置等の端末の無線機能を用いて認証してもよい。具体的には例えば、事前にwebや端末のアプリケーション等を用いて、端末に搭載された無線通信機能に用いられる端末に固有の無線通信用IDを、受取人と紐づけて登録する。ドローン1の認証部47は、配達する貨物の受取人と紐づいた無線通信用IDの存在を通信部19等にドローン1が備える無線通信機能を用いて認証する。即ち例えば、貨物を配達するドローン1が受取人の端末に近づいた場合に、受取人の端末の無線通信用IDを確認し、認証することができる。これにより、ドローン1と受取人とが接近したと認証することにより本人確認したものとして、貨物を下すことができる。 For example, the authentication unit 47 can perform wireless authentication at the time of delivery. That is, for example, authentication may be performed using the wireless function of a terminal such as a recipient's smartphone or a stationary wireless communication device. Specifically, for example, a wireless communication ID unique to the terminal used for the wireless communication function mounted on the terminal is registered in advance by associating it with the recipient by using a web or a terminal application or the like. The authentication unit 47 of the drone 1 authenticates the existence of the wireless communication ID associated with the recipient of the delivered cargo to the communication unit 19 or the like by using the wireless communication function provided in the drone 1. That is, for example, when the drone 1 that delivers the cargo approaches the recipient's terminal, the wireless communication ID of the recipient's terminal can be confirmed and authenticated. As a result, the cargo can be delivered as if the identity was confirmed by authenticating that the drone 1 and the recipient were close to each other.

無線認証を行う場合において、以下のような方法の組合せや代替をすることができる。例えば、アプリケーション等でドローン1の無線通信機能の固有のIDを、受取人の端末に通知し、無線通信により相互に接続することにより、更なる固有のIDをやりとりしたり、特定のIDしか認証できないようにしたりしてもよい。これにより、単に受取人の端末の無線通信IDのみにより認証する場合と比較して、例えば悪意を持った者が用意した受取人の端末の無線通信IDを偽装した端末により認証が行われることを回避することができる。
また例えば、無線装置が発する電波の有無で不在を確認してもよい。即ち例えば、配達先住所近傍において、受取人のスマートフォンによる無線通信の電波が確認されない場合、受取人が不在であると認識してもよい。これにより、受取人が不在で配達できない場合において、貨物を持ちかえることができる。
また例えば、無線装置が発する電波を使うことで、正確な宅配地点を割り出してもよい。即ち例えば、無線装置が発するの電波の強度分布は、受取人端末が近くなるほど強くなる。即ち、強度がより強い場所が、より正確な配達地点であると認識することができる。これにより、電波により受取人の認証を行うと共に、より正確な宅配地点を特定することができる。
また例えば、GPSと連携して、ドローン1に宅配地点を示してもよい。即ち例えば、無線認証は、上述のように受取人の端末に固有のIDをドローン1が直接電波を受信することに基づいて宅配することに限らない。具体的には例えば、ドローン1と受取人の端末の夫々はGPS衛星により夫々の位置を特定し、その情報を用いて近接し、配達してもよい。これにより、受取人の現在位置により正確に配達することができる。
また例えば、事前登録した宅配座標の近くに受取人のスマートフォンがあることをweb経由で確認してもよい。また、受取人のスマートフォンはドローン1と直接接続しなくてもよい。即ち例えば、インターネット経由で相互の座標が近いことをもって認証し、貨物を受け渡ししてもよい。
In the case of wireless authentication, the following methods can be combined or replaced. For example, by notifying the recipient's terminal of the unique ID of the wireless communication function of the drone 1 in an application or the like and connecting to each other by wireless communication, further unique IDs can be exchanged or only a specific ID is authenticated. You may not be able to do it. As a result, compared to the case where the authentication is performed only by the wireless communication ID of the recipient's terminal, for example, the authentication is performed by the terminal disguised as the wireless communication ID of the recipient's terminal prepared by a malicious person. It can be avoided.
Further, for example, the absence may be confirmed by the presence or absence of radio waves emitted by the wireless device. That is, for example, if the radio wave of wireless communication by the recipient's smartphone is not confirmed in the vicinity of the delivery address, it may be recognized that the recipient is absent. As a result, the cargo can be returned when the recipient is absent and cannot be delivered.
Further, for example, an accurate delivery point may be determined by using a radio wave emitted by a wireless device. That is, for example, the intensity distribution of radio waves emitted by a wireless device becomes stronger as the recipient terminal gets closer. That is, it can be recognized that the place where the strength is stronger is the more accurate delivery point. As a result, the recipient can be authenticated by radio waves, and a more accurate delivery point can be specified.
Further, for example, the delivery point may be indicated on the drone 1 in cooperation with GPS. That is, for example, wireless authentication is not limited to delivering an ID unique to the recipient's terminal to the home based on the fact that the drone 1 directly receives radio waves as described above. Specifically, for example, the drone 1 and the recipient's terminal may each specify their respective positions by GPS satellites, and may approach and deliver using the information. This allows more accurate delivery to the recipient's current location.
Further, for example, it may be confirmed via the web that the recipient's smartphone is near the pre-registered home delivery coordinates. Also, the recipient's smartphone does not have to be directly connected to the drone 1. That is, for example, the cargo may be delivered by authenticating that the coordinates are close to each other via the Internet.

例えば、認証部47は、配達時に遠隔の認証を行うことができる。具体的には例えば、撮像部43により配達先や受取人の顔を撮像し、その映像や画像を、通信部19を介して所定のサーバや担当者に送信し、サーバや担当者は、送られてきた映像や画像を確認し、遠隔で受取サインに代わる認証を行い、貨物を下ろしてもよい。即ち例えば、認証部47は、前述の顔認証のように認証部47自身により認証を行わず、撮像部43により撮像された映像や画像を、ネットワークを介して送信し、それを受信した配達業者の担当者が確認し、認証を行ってもよい。これにより、配達業者は、受取人のところまで貨物を配達・運搬する手間を省いたうえで、従来に近い人間が顔を識別する形での認証を行うことができる。 For example, the authentication unit 47 can perform remote authentication at the time of delivery. Specifically, for example, the image pickup unit 43 captures the face of the delivery destination or the recipient, and the video or image is transmitted to a predetermined server or person in charge via the communication unit 19, and the server or person in charge sends the image or image. You may check the received video or image, remotely authenticate instead of the receipt sign, and unload the cargo. That is, for example, the authentication unit 47 does not authenticate by the authentication unit 47 itself as in the face authentication described above, but transmits the video or image captured by the image pickup unit 43 via the network, and the delivery company receives the image or image. The person in charge of the above may confirm and authenticate. As a result, the delivery company can perform authentication in a form in which a human being, which is close to the conventional one, can identify the face, while saving the trouble of delivering and transporting the cargo to the recipient.

以上、ドローン1を用いた本人確認の方法の例について説明した。
上述の本人確認は、ドローン1が備える認証部47により行われるものとしたが、特にこれに限定されない。即ち、認証部47は、ドローン1に備えられる、荷物を入れる箱や、ドローンと別の情報処理装置であるモジュール等が備えていてもよい。即ち、ドローン1は、認証手段を備えた他のモジュールを備えることにより、認証手段を備えていてもよい。
The example of the method of identity verification using the drone 1 has been described above.
The above-mentioned identity verification is performed by the authentication unit 47 provided in the drone 1, but the identity verification is not particularly limited to this. That is, the authentication unit 47 may be provided with a box for storing luggage, a module which is an information processing device different from the drone, and the like, which are provided in the drone 1. That is, the drone 1 may be provided with an authentication means by including another module provided with the authentication means.

このような第2実施形態のドローン1は、ドローンを用いた貨物の運搬や配達を行う際の、本人確認を行うことができるという効果を奏することができる。
このような効果を奏することが可能な移動体は、第2実施形態のドローン1に限定されず、次のような移動体であれば足りる。
即ち、この移動体は、
空間を移動するための駆動手段を有する移動体(例えば図1等のドローン1)において、
運搬する所定の貨物を格納する格納手段(例えば図3の貨物格納部46)と、
前記貨物を運搬する先(例えば上述した受取人や、宅配先の地点)を認証する認証手段(例えば図3の認証部47)と、
を備る移動体であれば足る。
The drone 1 of the second embodiment can have the effect of being able to confirm the identity of the cargo when transporting or delivering the cargo using the drone.
The moving body capable of exerting such an effect is not limited to the drone 1 of the second embodiment, and the following moving body is sufficient.
That is, this moving body is
In a moving body having a driving means for moving in space (for example, a drone 1 in FIG. 1 etc.)
A storage means for storing a predetermined cargo to be carried (for example, a cargo storage unit 46 in FIG. 3) and
An authentication means (for example, the authentication unit 47 in FIG. 3) that authenticates the destination of carrying the cargo (for example, the above-mentioned recipient or the delivery destination).
It is enough if it is a mobile body equipped with.

[第3実施形態]離着陸制御
ドローン等の飛行体が離着陸を行う場合、地上の構造物や地面等が接近するため風の流れ等が上空と比較して複雑となったり、地上の構造物によりGPS衛星からの電波が阻害され位置情報の取得が難しくなったりすることから、上空と比較して緻密な制御が必要となる。
[Third Embodiment] Takeoff and landing control When an air vehicle such as a drone takes off and landing, the wind flow and the like become complicated as compared with the sky because the structures on the ground and the ground approach each other, or depending on the structures on the ground. Since radio waves from GPS satellites are obstructed and it becomes difficult to acquire position information, precise control is required compared to the sky.

上述のような場合において、ドローン等の飛行体が離着陸する際の安定性及び安全性を向上した離着陸方法を提供することを目的とする。 In the above cases, it is an object of the present invention to provide a takeoff and landing method with improved stability and safety when an air vehicle such as a drone takes off and landing.

第3実施形態のドローン1及び補助部材は、このような要望を実現するドローン及び補助部材である。このようなドローン1の機能的構成について図3を参照して説明する。ここで、本実施形態におけるドローン1は、3次元空間を移動可能な小型飛行体であるドローンを用いた例として説明する。
図3は、ドローン1が実行する、図10乃至図14に示す各種処理を実現するための機能的構成の一例を示す機能ブロック図である。
The drone 1 and the auxiliary member of the third embodiment are the drone and the auxiliary member that realize such a request. Such a functional configuration of the drone 1 will be described with reference to FIG. Here, the drone 1 in the present embodiment will be described as an example using a drone which is a small flying object that can move in a three-dimensional space.
FIG. 3 is a functional block diagram showing an example of a functional configuration for realizing various processes shown in FIGS. 10 to 14 executed by the drone 1.

図3に示すように、ドローン1は、駆動部41と、飛行制御部42と、撮像部43と、壁面点検センサ部44と、吊下制御部45と、貨物格納部46と、認証部47と、通信部19とを備える移動体である。
第3実施形態のドローン1においては、上述の構成のうち、駆動部41乃至撮像部43が少なくとも機能する。
As shown in FIG. 3, the drone 1 includes a drive unit 41, a flight control unit 42, an image pickup unit 43, a wall surface inspection sensor unit 44, a suspension control unit 45, a cargo storage unit 46, and an authentication unit 47. And a mobile body including a communication unit 19.
In the drone 1 of the third embodiment, the driving unit 41 to the imaging unit 43 function at least in the above configuration.

駆動部41乃至撮像部43の機能は、実施形態1で述べた通りである。 The functions of the drive unit 41 to the image pickup unit 43 are as described in the first embodiment.

以下、離着陸等の飛行の制御の具体的な方法及び補助部材について例をあげて詳述する。 Hereinafter, specific methods of flight control such as takeoff and landing and auxiliary members will be described in detail with examples.

以下、図10を用いて、ドローン1の離着陸時に用いる補助部材の例である、離着陸ポートの例について説明する。
図10は、図2のドローン1が、離着陸ポート201を用いた離着陸を行う場合における補助部材の例を示す図である。
図10の離着陸ポート201は、軸Zが一定の面、即ち軸Xと軸Yとで成す面と平行な面を有するポートである。ドローン1は軸Zが負の方向に移動することにより離着陸ポート201に着陸する。図10の離着陸ポート201は、ドローン1を支持する2つの柱である支持柱211を有する。支持柱211は、軸X及び軸Yの方向の長さに対して、軸Zの方向への長さが長い、柱状の構造であって、離着陸ポート201の軸Zが正の方向に固定されて設置される。ここで、図10において、支持柱として2本の支持柱211が図示されている。しかし、離着陸ポート201は、任意の数の支持柱を備えてよい。即ち例えば、支持柱の数は、ドローンの構造に応じた数でよい。ただし、ドローン1の駆動部41が停止している状態において安定するよう、3本以上の支持柱を備えることが好適である。
Hereinafter, an example of a takeoff / landing port, which is an example of an auxiliary member used at the time of takeoff and landing of the drone 1, will be described with reference to FIG.
FIG. 10 is a diagram showing an example of an auxiliary member when the drone 1 of FIG. 2 performs takeoff and landing using the takeoff and landing port 201.
The takeoff and landing port 201 of FIG. 10 is a port having a surface on which the axis Z is constant, that is, a surface parallel to the surface formed by the axis X and the axis Y. The drone 1 lands on the takeoff / landing port 201 by moving the axis Z in the negative direction. The takeoff and landing port 201 of FIG. 10 has a support pillar 211, which is two pillars that support the drone 1. The support column 211 has a columnar structure in which the length in the direction of the axis Z is longer than the length in the directions of the axis X and the axis Y, and the axis Z of the takeoff and landing port 201 is fixed in the positive direction. Will be installed. Here, in FIG. 10, two support columns 211 are shown as support columns. However, the takeoff and landing port 201 may include any number of support columns. That is, for example, the number of support columns may be a number according to the structure of the drone. However, it is preferable to provide three or more support columns so that the drive unit 41 of the drone 1 is stable in a stopped state.

図10において、支持柱211は、軸Zの方向に距離D11を有する。また、ドローン1は、離着陸ポート201から軸Zの方向に距離D12を飛行している。ここで、ドローン1が支持柱211の軸Zが正の方向を飛行している場合において、距離D12は、距離D11より大きい。 In FIG. 10, the support column 211 has a distance D11 in the direction of the axis Z. Further, the drone 1 is flying a distance D12 from the takeoff / landing port 201 in the direction of the axis Z. Here, when the drone 1 is flying in the positive direction of the axis Z of the support pillar 211, the distance D12 is larger than the distance D11.

ドローン1が飛行する場合、ドローン1の駆動部41はドローン1に対する重力を支えるため、プロペラを駆動させ軸Zが負の方向に風を発生させる。ドローン1が地面の近傍を飛行する場合、発生させた風はドローン1の真下にある地面に吹き当たり、乱流が発生する。この乱流は、ドローン1の安定した飛行を阻害する。 When the drone 1 flies, the drive unit 41 of the drone 1 supports the gravity with respect to the drone 1, so that the propeller is driven and the axis Z generates wind in the negative direction. When the drone 1 flies near the ground, the generated wind blows against the ground directly under the drone 1 and turbulence is generated. This turbulence hinders the stable flight of Drone 1.

ここで、離陸時に、図10の離着陸ポート201を用いた場合、即ち支持柱211に離着陸する場合、離着陸の直前及び直後において、ドローン1の飛行する距離D12は、支持柱211の距離D11となる。即ち、ドローン1の飛行する高さ、即ち離着陸ポート201との距離は距離D11となる。
つまり、ドローン1が支持柱211を備えない離着陸ポート201に直接離着陸する場合、離着陸直前及び直後のドローン1の飛行する距離D11はゼロであるが、支持柱211を用いて離着陸ポート201に離着陸する場合は、離着陸直前及び直後のドローンの1の飛行する距離D12が距離D11となる。これにより、駆動部41が発生させた風は離着陸ポート201に直接的に当たらなくなる。これにより、上述の乱流の発生が抑えられる。これにより、ドローン1は安定性を増し、安定性を増した離着陸を行うことができる。
Here, when the takeoff / landing port 201 of FIG. 10 is used at the time of takeoff, that is, when taking off and landing on the support pillar 211, the flight distance D12 of the drone 1 becomes the distance D11 of the support pillar 211 immediately before and after the takeoff and landing. .. That is, the flying height of the drone 1, that is, the distance from the takeoff and landing port 201 is the distance D11.
That is, when the drone 1 takes off and landing directly on the takeoff and landing port 201 that does not have the support pillar 211, the flight distance D11 of the drone 1 immediately before and after the takeoff and landing is zero, but the drone 1 takes off and land on the takeoff and landing port 201 using the support pillar 211. In this case, the flight distance D12 of 1 of the drone immediately before and after takeoff and landing is the distance D11. As a result, the wind generated by the drive unit 41 does not directly hit the takeoff / landing port 201. As a result, the occurrence of the above-mentioned turbulent flow is suppressed. As a result, the drone 1 has increased stability and can perform takeoff and landing with increased stability.

他には例えば、離着陸時の離着陸ポート201は、以下のような構造をとることができる。具体的には例えば、離着陸ポート201は支持柱211を備えず、離着陸ポート201の平面を、空気を通す構造としてもよい。即ち例えば、離着陸ポート201をメッシュ構造とすることができる。これにより、離着陸ポート201の風が吹き当たる面積が小さくなり、駆動部41が発生させた風は離着陸ポート201を透過することができ、乱流の発生が抑えられる。これにより、ドローン1は安定性を増し、安定性を増した離着陸を行うことができる。ただし、離着陸ポート201をメッシュ構造とした場合、ドローン1に搭載した音波や電磁波を用いた距離計を用いてドローン1の飛行する高度を測定する場合、即ち、ドローン1から離着陸ポート201の距離を測定する場合において、測定が難しくなる場合がある。この場合、離着陸ポート201のメッシュ構造は、メッシュの割合や距離を測定する測定機の音波や電磁波の波長等を適宜設定することで改善してよい。 In addition, for example, the takeoff / landing port 201 at the time of takeoff / landing can have the following structure. Specifically, for example, the takeoff / landing port 201 may not be provided with the support pillar 211, and the plane of the takeoff / landing port 201 may be configured to allow air to pass therethrough. That is, for example, the takeoff and landing port 201 can have a mesh structure. As a result, the area of the takeoff and landing port 201 to which the wind blows becomes small, and the wind generated by the drive unit 41 can pass through the takeoff and landing port 201, and the generation of turbulent flow is suppressed. As a result, the drone 1 has increased stability and can perform takeoff and landing with increased stability. However, when the takeoff and landing port 201 has a mesh structure, when the flying altitude of the drone 1 is measured using a range finder using sound waves and electromagnetic waves mounted on the drone 1, that is, the distance from the drone 1 to the takeoff and landing port 201 is determined. When measuring, it may be difficult to measure. In this case, the mesh structure of the takeoff and landing port 201 may be improved by appropriately setting the wavelengths of sound waves and electromagnetic waves of the measuring device that measures the ratio and distance of the mesh.

また、上述の離着陸ポート201に支持柱211を設けて離着陸ポート201との距離を設ける補助部材と、離着陸ポート201をメッシュ構造にする補助部材とは、組み合わせて用いてもよい。即ち、メッシュ構造とした離着陸ポート201に、支持柱211を固定して用いてもよい。
以上、図10を用いて、ドローン1の離着陸時に用いるポートを用いた制御の例について説明した。
Further, an auxiliary member in which the above-mentioned takeoff / landing port 201 is provided with a support pillar 211 to provide a distance from the takeoff / landing port 201 and an auxiliary member in which the takeoff / landing port 201 has a mesh structure may be used in combination. That is, the support pillar 211 may be fixedly used for the takeoff and landing port 201 having a mesh structure.
As described above, an example of control using the port used at the time of takeoff and landing of the drone 1 has been described with reference to FIG.

このような図10の補助部材を用いた場合、ドローン1は、離着陸する際の安定性及び安全性を向上することができるという効果を奏することができる。
このような効果を奏することが可能な移動体は、図10の補助部材を用いたドローン1に限定されず、次のような補助手段や移動体を採用することができる。
即ち、例えば、着陸時における補助手段として、台側から支え(例えば図10の支持柱211)を出して地面から距離のある場所から離陸させる補助手段を採用することができる。これにより、離着陸ポートを用いた移動体(例えば図3のドローン1)は、特に離陸時について、離陸時の不安定を避けることができる。
また例えば、着陸時における補助手段として、メッシュのポート床面(図10の離着陸ポート201)を採用することができる。これにより、空気の逃げ道が作られるので、等価的に地面が遠くなる効果を得られる。その結果、離着陸ポートを用いて移動体は、特に離陸時について、離陸時の不安定を避けることができる。
When such an auxiliary member of FIG. 10 is used, the drone 1 can have the effect of improving the stability and safety during takeoff and landing.
The moving body capable of exerting such an effect is not limited to the drone 1 using the auxiliary member of FIG. 10, and the following auxiliary means and moving body can be adopted.
That is, for example, as an auxiliary means at the time of landing, an auxiliary means can be adopted in which a support (for example, the support pillar 211 in FIG. 10) is provided from the platform side to take off from a place at a distance from the ground. As a result, the moving body using the takeoff / landing port (for example, the drone 1 in FIG. 3) can avoid instability at the time of takeoff, especially at the time of takeoff.
Further, for example, a mesh port floor surface (takeoff / landing port 201 in FIG. 10) can be adopted as an auxiliary means at the time of landing. As a result, an escape route for air is created, so that the effect of making the ground far away can be obtained equivalently. As a result, the takeoff and landing ports allow the moving body to avoid instability during takeoff, especially during takeoff.

以下、図11を用いて、ドローン1の着陸時に用いる補助部材である着陸ポートの例について説明する。
図11は、図2のドローン1が、着陸時に用いる着陸ポート221の例を示す図である。
図11の着陸ポート221は、軸Zが負の方向に矩形の底面板231を備える。図11において、着陸ポート221の底面板231は、3次元直交座標系の軸Xと軸Yに平行に図示されている。ここで、底面板231は、底面骨組232に底面ネット233を備える構造をもつ。
着陸ポート221は、矩形の底面板231の3つの辺の夫々を平行する辺を有する3つの面の夫々を、軸Zが正の方向に備える。即ち、矩形の側面板241は、底面板231の軸Yが負の方向の辺と平行な辺を有し、底面板231に対して軸Zが正の方向に備えられる。また、矩形の側面板242は、底面板231の軸Xが負の方向の辺と平行な辺を有し、底面板231に対して軸Zが正の方向に備えられる。また、矩形の側面板243は、底面板231の軸Yが正の方向の辺と平行な辺を有し、底面板231に対して軸Zが正の方向に備えられる。
ここで、底面板231と側面板241とは、辺と辺とが固定される。また、側面板241と側面板242とは、蝶番構造を有するヒンジ251により接続され、辺を共有しつつ可動である。また、側面板242と側面板243とは、蝶番構造を有するヒンジ252により接続され、辺を共有しつつ可動である。更に、側面板241と243との夫々は、ヒンジ251及び252を備える夫々の辺の対辺に、ロープ取付部261及び262の夫々を有する。ロープ271は、ロープ取付部261及び262の夫々に取付される。ロープ271は、ロープ取付部261及び262に備えられた図示せぬリール等により巻き取る等することにより、ロープの長さが短くなるよう制御される。これにより、側面板241及び側面板243は接近し、側面板241乃至243により三角柱となる方向に閉じる。
Hereinafter, an example of a landing port, which is an auxiliary member used at the time of landing of the drone 1, will be described with reference to FIG.
FIG. 11 is a diagram showing an example of a landing port 221 used by the drone 1 of FIG. 2 at the time of landing.
The landing port 221 of FIG. 11 includes a bottom plate 231 whose axis Z is rectangular in the negative direction. In FIG. 11, the bottom plate 231 of the landing port 221 is shown parallel to the axes X and Y of the three-dimensional Cartesian coordinate system. Here, the bottom plate 231 has a structure in which the bottom frame 232 is provided with the bottom net 233.
The landing port 221 is provided with each of the three faces having sides parallel to each of the three sides of the rectangular bottom plate 231 in the direction in which the axis Z is positive. That is, the rectangular side plate 241 has a side in which the axis Y of the bottom plate 231 is parallel to the side in the negative direction, and the axis Z is provided in the positive direction with respect to the bottom plate 231. Further, the rectangular side plate 242 has a side in which the axis X of the bottom plate 231 is parallel to the side in the negative direction, and the axis Z is provided in the positive direction with respect to the bottom plate 231. Further, the rectangular side plate 243 has a side in which the axis Y of the bottom plate 231 is parallel to the side in the positive direction, and the axis Z is provided in the positive direction with respect to the bottom plate 231.
Here, the bottom plate 231 and the side plate 241 are fixed side by side. Further, the side plate 241 and the side plate 242 are connected by a hinge 251 having a hinge structure, and are movable while sharing the sides. Further, the side plate 242 and the side plate 243 are connected by a hinge 252 having a hinge structure, and are movable while sharing the sides. Further, each of the side plates 241 and 243 has rope attachment portions 261 and 262 on opposite sides of the sides having hinges 251 and 252, respectively. The rope 271 is attached to each of the rope attachment portions 261 and 262. The rope 271 is controlled so that the length of the rope is shortened by winding the rope 271 with a reel or the like (not shown) provided on the rope attachment portions 261 and 262. As a result, the side plates 241 and the side plates 243 approach each other and are closed by the side plates 241 to 243 in the direction of forming a triangular prism.

着陸ポート221は、上述の着陸に用いるポートである。具体的には着陸時には、ドローン1は、底面板231と側面板241乃至243に囲まれた領域を飛行する。次に、図示せぬリール等はロープ271が短くなるよう制御される。これにより、上述の通り、底面板231と側面板241乃至243に囲まれた領域は狭くなる。底面板231と側面板241乃至243に囲まれた領域が充分に狭くなった場合、側面板241乃至243の1つ又は複数がドローン1に接触する。ドローン1に着陸ポート221の何れかの面が接触した場合、ドローン1は通常の飛行する姿勢から傾斜する。ここで、ドローン1の飛行制御部42は所定の傾斜を感知すると、ドローン1の駆動部41の動作を停止するよう制御する。これにより、ドローン1は着陸ポート221に接触した場合において、駆動部41の動作が停止することにより、落下し底面板231の底面ネット233に着陸する。底面板231の底面ネット233は、ドローン1の落下に伴う衝撃を吸収し、安全に着陸させることができる。 The landing port 221 is a port used for the above-mentioned landing. Specifically, at the time of landing, the drone 1 flies in the area surrounded by the bottom plate 231 and the side plates 241 to 243. Next, reels and the like (not shown) are controlled so that the rope 271 is shortened. As a result, as described above, the area surrounded by the bottom plate 231 and the side plates 241 to 243 is narrowed. When the area surrounded by the bottom plate 231 and the side plates 241 to 243 becomes sufficiently narrow, one or more of the side plates 241 to 243 come into contact with the drone 1. When any surface of the landing port 221 comes into contact with the drone 1, the drone 1 tilts from the normal flight attitude. Here, the flight control unit 42 of the drone 1 controls to stop the operation of the drive unit 41 of the drone 1 when it senses a predetermined inclination. As a result, when the drone 1 comes into contact with the landing port 221, the operation of the drive unit 41 is stopped, so that the drone 1 falls and lands on the bottom net 233 of the bottom plate 231. The bottom net 233 of the bottom plate 231 can absorb the impact caused by the fall of the drone 1 and land safely.

着陸ポート221の構造は上述に限らない。
例えば、側面板241及び243は、ロープ271により閉じるものとしたが、特にこれに限定されない。即ち例えば、側面板241及び243は、ドローン1が側面板242に衝突する衝撃により閉じるものとしても良い。
また例えば、着陸ポート221は、底面板231と、側面板241乃至243とによる構造としたがこれに限らない。即ち例えば、側面板の数を増やし、多角形構造としてもよい。更にいえば、側面板の枚数を減らしてもよい。具体的には例えば、側面板を1枚としてもよい。これにより、ドローン1と着陸ポート221との距離を測定することができ、距離に応じた制御をおこなうことにより、より正確に着陸することができる。また例えば、側面板を2枚としてもよい。これにより、ドローン1と側面板の夫々との距離の夫々を測定することができ、ドローン1の軸Xと軸Yとからなる面の座標を正確に測定することができる。この場合、例えば、着陸ポート221に図示せぬ充電ポートなどを備え、充電ポートに正確に着陸することにより、自動で充電を開始することが可能となる。
また例えば、ロープ取付部261及び262の位置はヒンジ251及び252の対辺としたが、これに限らない。即ち例えば、上記の目的を達成するためであれば、任意の場所に設けてもよい。更にいえば、ロープを設けず、ドローン1は直接、側面板241乃至243のいずれかに接触するように飛行し、底面板231に着陸するようにしてもよい。
また例えば、底面板231のみネット構造を有するものとしたが、これに限らない。側面板241乃至243等の任意の面の板にネットを有し、衝撃を吸収するようにしてよい。更に言えば、衝撃を吸収する構造はネットに限らない。即ち例えば、スポンジ等の衝撃を吸収し得る素材を備えればよい。
また例えば、底面板231と側面板241乃至243とは、夫々平面としたが、これに限らない。即ち例えば、上記の目的を達成すれば、例えば曲面等、任意の形状であってよい。
The structure of the landing port 221 is not limited to the above.
For example, the side plates 241 and 243 are closed by a rope 271, but the present invention is not particularly limited thereto. That is, for example, the side plates 241 and 243 may be closed by the impact of the drone 1 colliding with the side plate 242.
Further, for example, the landing port 221 has a structure composed of a bottom plate 231 and side plates 241 to 243, but the structure is not limited to this. That is, for example, the number of side plates may be increased to form a polygonal structure. Furthermore, the number of side plates may be reduced. Specifically, for example, one side plate may be used. As a result, the distance between the drone 1 and the landing port 221 can be measured, and by performing control according to the distance, landing can be performed more accurately. Further, for example, the number of side plates may be two. As a result, the distances between the drone 1 and the side plates can be measured, and the coordinates of the surface of the drone 1 including the axes X and Y can be accurately measured. In this case, for example, the landing port 221 is provided with a charging port (not shown), and by landing accurately at the charging port, charging can be started automatically.
Further, for example, the positions of the rope attachment portions 261 and 262 are opposite sides of the hinges 251 and 252, but the position is not limited to this. That is, for example, it may be provided at any place as long as it is to achieve the above object. Furthermore, the drone 1 may fly so as to come into direct contact with any of the side plates 241 to 243 and land on the bottom plate 231 without providing a rope.
Further, for example, only the bottom plate 231 has a net structure, but the present invention is not limited to this. A net may be provided on a plate having an arbitrary surface such as the side plates 241 to 243 to absorb the impact. Furthermore, the structure that absorbs impact is not limited to the net. That is, for example, a material such as a sponge that can absorb the impact may be provided.
Further, for example, the bottom plate 231 and the side plates 241 to 243 are each made flat, but the present invention is not limited to this. That is, for example, any shape such as a curved surface may be used as long as the above object is achieved.

以上、図11を用いて、ドローン1の着陸ポートを用いた制御の例について説明した。 As described above, an example of control using the landing port of the drone 1 has been described with reference to FIG.

このような図11の補助部材を用いた場合、ドローン1は、着陸する際の安定性及び安全性を向上することができるという効果を奏することができる。
このような効果を奏することが可能な移動体は、図11の補助部材を用いたドローン1に限定されず、次のような補助手段や移動体を採用することができる。
即ち、例えば、着陸時における補助手段として、ネット(例えば図11の側面板241及び243)を閉じて捕まえる補助手段(例えば図11の着陸ポート221)を採用することができる。これにより、着陸ポートを用いた移動体(例えば図3のドローン1)は、特に離陸時について、離陸時の不安定を避けることができる。
また例えば、機体(例えば図3のドローン1)が傾くと異常検知として、モータ(例えば図3の駆動部41)を止める安全対策を採用することができる。これにより、着陸ポートを用いた移動体は、着陸時に安全に着陸することができる。
また例えば、1つ以上の側面(例えば図11の側面板241乃至243)を壁またはネットにすることができる。これにより、更に、離着陸の安定性を向上することができる。
When such an auxiliary member of FIG. 11 is used, the drone 1 can have the effect of improving the stability and safety at the time of landing.
The moving body capable of exerting such an effect is not limited to the drone 1 using the auxiliary member shown in FIG. 11, and the following auxiliary means and moving body can be adopted.
That is, for example, as an auxiliary means at the time of landing, an auxiliary means for closing and catching the net (for example, the side plates 241 and 243 in FIG. 11) (for example, the landing port 221 in FIG. 11) can be adopted. As a result, the moving body using the landing port (for example, the drone 1 in FIG. 3) can avoid instability at the time of takeoff, especially at the time of takeoff.
Further, for example, when the airframe (for example, the drone 1 in FIG. 3) is tilted, a safety measure for stopping the motor (for example, the drive unit 41 in FIG. 3) can be adopted as an abnormality detection. As a result, the moving body using the landing port can land safely at the time of landing.
Also, for example, one or more side surfaces (eg, side plates 241 to 243 in FIG. 11) can be walls or nets. As a result, the stability of takeoff and landing can be further improved.

以下、図12を用いて、ドローン1の着陸時の制御の例について説明する。 Hereinafter, an example of control at the time of landing of the drone 1 will be described with reference to FIG.

従来、ドローンが屋外を飛行する場合において、自身の位置情報を取得する方法として、GPS機能が利用される。GPS機能の特徴として、推定された自信の位置情報の精度は、GPS衛星のから発信される電波の信号の強度や、電波が伝播した経路が直線的であったか、複数のGPS衛星からの電波が受信できたか等による。即ち例えば、ドローン1の近傍に建造物等があった場合において、GPS衛星からの電波が建造物により阻まれることにより位置の推定の精度が低下したり、位置を推定することができなかったりすることがある。 Conventionally, when a drone flies outdoors, a GPS function is used as a method of acquiring its own position information. As a feature of the GPS function, the accuracy of the estimated self-confidence position information depends on the strength of the signal of the radio wave transmitted from the GPS satellite, whether the route through which the radio wave propagated is linear, or the radio wave from multiple GPS satellites. It depends on whether it was received or not. That is, for example, when there is a building or the like in the vicinity of the drone 1, the accuracy of the position estimation is lowered or the position cannot be estimated because the radio waves from the GPS satellites are blocked by the building. Sometimes.

上述のような場合において、ドローン等の飛行体がGPS衛星の電波が阻まれること等により、自己位置の推定の精度が低下した場合において、自己位置の推定の精度を向上させ、飛行の安定性及び安全性を向上することを目的とする。 In the above cases, when the accuracy of self-position estimation is reduced due to the fact that the radio waves of GPS satellites are blocked by a flying object such as a drone, the accuracy of self-position estimation is improved and flight stability is improved. And the purpose is to improve safety.

図12は、図2のドローン1の着陸時等において、補助部材の例である中継用ドローンRと連携した制御の例を示す図である。
図12において、ドローン1と中継用ドローンR(以下、「ドローンR」と適宜呼ぶ)とが屋外を飛行している。
FIG. 12 is a diagram showing an example of control in cooperation with the relay drone R, which is an example of the auxiliary member, at the time of landing of the drone 1 of FIG.
In FIG. 12, the drone 1 and the relay drone R (hereinafter, appropriately referred to as “drone R”) are flying outdoors.

図3に示すように、ドローンRは、位置取得部601と、通信部602と、撮像部603とを備える移動体である。 As shown in FIG. 3, the drone R is a mobile body including a position acquisition unit 601, a communication unit 602, and an image pickup unit 603.

位置取得部601は、ドローンRの自己位置を取得する。具体的には例えば、GPS衛星Gから発せられる電波に乗せられた情報に基づき、自己位置を計算して取得する。 The position acquisition unit 601 acquires the self-position of the drone R. Specifically, for example, the self-position is calculated and acquired based on the information carried on the radio waves emitted from the GPS satellite G.

通信部602は、ドローン1の通信部19と同様の機能を有する。 The communication unit 602 has the same function as the communication unit 19 of the drone 1.

撮像部603は、ドローン1の撮像部43と同様の機能を有する。 The imaging unit 603 has the same function as the imaging unit 43 of the drone 1.

図12のドローン1の制御においては、GPS衛星G1乃至G3から発せられた電波のうち、ドローン1にはGPS衛星G1からの電波のみが到達し、ドローンRにはGPS衛星G1乃至G3の夫々からの電波が到達している。GPS機能を用いて位置情報を取得する場合、3つ又はそれ以上の数のGPS衛星から発信される電波に乗せられた信号を受信して計算することにより、位置を特定する。従って、ドローン1はGPS衛星による自己位置の推定の計算ができていない。一方、ドローンRはGPS衛星G1乃至G3の夫々からの電波が到達しているため、自己位置の推定ができる。即ち、ドローンRの位置取得部は、GPS衛星G1乃至G3の夫々が発する電波からドローンRの自己位置を推定し取得できる。
このように、受信できる信号の数が少ない場合等、即ち例えば、ドローン1が自己位置の推定が難しい場所に存在する場合において、自己位置の推定がされているドローンRからドローン1を撮像する。図12において、破線は、ドローンRの撮像部603によって撮像される範囲を示している。即ち、ドローン1はドローンRの撮像部によって撮像されている。次に、ドローンRの通信部29を介して、ドローンRからみたドローン1の角度やドローンR自身の場所のデータをドローン1に対して授受する。ことにより、ドローン1は自己位置の推定の精度を上げることができる。これにより、ドローン1は、自己位置の推定の精度が上昇することにより、より安定性や安全性が向上した飛行の制御をすることができる。
ただし、ドローンRによるドローン1の自己位置推定の方法は上記に限らない。即ち例えば、撮像部603により撮像された角度等の情報に限らず、ドローン1からドローンRを撮影した情報を用いてもよい。また、上記の方法は離着陸時に限らない。即ち例えば、自己位置推定の精度によらず、併用することにより、自己位置推定の精度を向上させてもよい。
In the control of the drone 1 in FIG. 12, among the radio waves emitted from the GPS satellites G1 to G3, only the radio waves from the GPS satellites G1 reach the drone 1, and the drone R is reached from each of the GPS satellites G1 to G3. Radio waves are reaching. When the position information is acquired by using the GPS function, the position is specified by receiving and calculating the signal carried on the radio wave transmitted from three or more GPS satellites. Therefore, the drone 1 has not been able to calculate its own position estimation by GPS satellites. On the other hand, since the radio waves from the GPS satellites G1 to G3 reach the drone R, the self-position can be estimated. That is, the position acquisition unit of the drone R can estimate and acquire the self-position of the drone R from the radio waves emitted by the GPS satellites G1 to G3, respectively.
In this way, when the number of signals that can be received is small, that is, when the drone 1 exists in a place where it is difficult to estimate the self-position, the drone 1 is imaged from the drone R whose self-position is estimated. In FIG. 12, the broken line indicates the range imaged by the imaging unit 603 of the drone R. That is, the drone 1 is imaged by the imaging unit of the drone R. Next, data on the angle of the drone 1 as seen from the drone R and the location of the drone R itself is exchanged with the drone 1 via the communication unit 29 of the drone R. As a result, the drone 1 can improve the accuracy of self-position estimation. As a result, the drone 1 can control the flight with improved stability and safety by increasing the accuracy of self-position estimation.
However, the method of estimating the self-position of the drone 1 by the drone R is not limited to the above. That is, for example, not only the information such as the angle imaged by the imaging unit 603 but also the information obtained by photographing the drone R from the drone 1 may be used. Moreover, the above method is not limited to the time of takeoff and landing. That is, for example, the accuracy of self-position estimation may be improved by using them together regardless of the accuracy of self-position estimation.

以上、図12を用いて、ドローン1の着陸時の制御の例について説明した。 As described above, an example of control at the time of landing of the drone 1 has been described with reference to FIG.

このような図12のドローン1を用いた場合、ドローン1は、従来の方法では自己位置の推定精度が低くなる場合においても、安定性を向上することができるという効果を奏することができる。
このような効果を奏することが可能な移動体は、図11の補助部材を用いたドローン1に限定されず、次のような補助手段や移動体を採用することができる。
即ち、例えば、ドローン(例えば図11のドローン1)がGPS(例えば図11のGPS衛星G1乃至G3)の信号が少ないなどの、自己位置推定が難しい場所に存在するとき、自己位置が明確なドローン(例えば図11のドローンR)から(自己位置推定が難しい)ドローン(例えば図11のドローン1)を撮影したときの、角度や場所のデータを通信で伝えることで補完することで、ドローン(例えば図11のドローン1)の位置の推定精度を上げることができる。これにより、従来の方法では自己位置の推定精度が低くなる場合においても、安定性を向上することができる。
また例えば、上述の例において、撮影は(自己位置推定が難しい)ドローンから(自己位置が明確な)ドローンでもよい。これにより、自己位置が明確なドローンを、複数の自己位置推定が難しいドローンの夫々から撮像することにより、夫々のドローンの自己位置推定の精度を向上し、安定性を向上することができる。
When such a drone 1 of FIG. 12 is used, the drone 1 can achieve the effect that the stability can be improved even when the estimation accuracy of the self-position is lowered by the conventional method.
The moving body capable of exerting such an effect is not limited to the drone 1 using the auxiliary member shown in FIG. 11, and the following auxiliary means and moving body can be adopted.
That is, for example, when the drone (for example, the drone 1 in FIG. 11) is in a place where it is difficult to estimate the self-position, such as when the GPS (for example, the GPS satellites G1 to G3 in FIG. 11) has few signals, the drone has a clear self-position. When a drone (for example, drone 1 in FIG. 11) is photographed from (for example, drone R in FIG. 11) (self-position estimation is difficult), the drone (for example, drone 1 in FIG. 11) is complemented by communicating the angle and location data by communication. The accuracy of estimating the position of the drone 1) in FIG. 11 can be improved. As a result, the stability can be improved even when the estimation accuracy of the self-position is lowered by the conventional method.
Further, for example, in the above example, the shooting may be from a drone (which is difficult to estimate the self-position) to a drone (whose self-position is clear). As a result, by imaging a drone with a clear self-position from each of a plurality of drones whose self-position is difficult to estimate, the accuracy of self-position estimation of each drone can be improved and the stability can be improved.

以下、図13及び14を用いて、ドローン1の着陸時に用いる補助部材の例であるカメラを用いた制御の例について説明する。 Hereinafter, an example of control using a camera, which is an example of an auxiliary member used at the time of landing of the drone 1, will be described with reference to FIGS. 13 and 14.

例えば、3次元的な移動が可能である飛行体であるドローンを、操縦し安定した安全な飛行や離着陸を行うには、操縦者Uには一定の練度が必要である。一方、熟練した操縦者Uであっても、風によりドローンが移動してしまうなど、様々な要因により操縦の難度が高まることがある。 For example, in order to steer a drone, which is an air vehicle capable of three-dimensional movement, and perform stable and safe flight and takeoff and landing, the operator U needs a certain degree of skill. On the other hand, even a skilled operator U may have difficulty in maneuvering due to various factors such as the drone moving due to the wind.

上述のような場合において、ドローン等の飛行体の操縦を補助することにより、ドローンの飛行の安定性を向上させ、飛行の安定性及び安全性を向上すると共に操縦の難度を低減することを目的とする。 In the above cases, the purpose is to improve the flight stability of the drone, improve the flight stability and safety, and reduce the difficulty of maneuvering by assisting the maneuvering of the flying object such as the drone. And.

図13及び図14は、図2のドローン1を、補助部材の例である地上のカメラCにより撮像した映像を用いて、操縦者端末2により制御する場合の例を示す図である。
図13は、図2のドローン1を地上のカメラCを用いて撮像して制御する例を示した図である。
図14は、図13の撮像されたドローン1の映像に基づいて、操縦者端末2で確認し操縦する例を示した図である。
13 and 14 are diagrams showing an example in which the drone 1 of FIG. 2 is controlled by the operator terminal 2 by using the image captured by the ground camera C which is an example of the auxiliary member.
FIG. 13 is a diagram showing an example in which the drone 1 of FIG. 2 is imaged and controlled by using the ground camera C.
FIG. 14 is a diagram showing an example of confirming and maneuvering with the operator terminal 2 based on the image of the drone 1 captured in FIG. 13.

図13をみると、地上に固定されたカメラCは、ドローン1を映像として撮像している。撮像された映像は、無線通信により、ドローン1を操作する操縦者Uの操縦者端末2に転送される。転送された映像は、リアルタイムに操縦者端末2に表示される。操縦者端末2には、ドローン1が表示される。
ここで、操縦者Uは、操縦者端末2において以下の例の操作により、ドローン1を操縦することができる。具体的には例えば、操縦者端末に表示されたカメラCにより撮像された映像のうち、操縦者Uが所定の位置をタップ操作する。操縦者端末2のタップ操作された位置の情報は、サーバ2を介して、更にドローン1の通信部19を介し、飛行制御部42に転送される。次に、ドローン1の飛行制御部42は、タップ操作された位置にドローンが撮像されるように飛行を制御する。つまり、操縦者Uは、ドローン1の来てほしい場所をタッチ操作すればよい。即ち、カメラCの撮像している2次元の映像上のうち、操縦者Uがタップ操作された位置にドローン1を操縦することができる。
Looking at FIG. 13, the camera C fixed on the ground captures the drone 1 as an image. The captured image is transferred to the operator terminal 2 of the operator U who operates the drone 1 by wireless communication. The transferred video is displayed on the operator terminal 2 in real time. The drone 1 is displayed on the operator terminal 2.
Here, the operator U can operate the drone 1 at the operator terminal 2 by the operation of the following example. Specifically, for example, the operator U taps a predetermined position in the image captured by the camera C displayed on the operator terminal. The information on the tapped position of the operator terminal 2 is transferred to the flight control unit 42 via the server 2 and further via the communication unit 19 of the drone 1. Next, the flight control unit 42 of the drone 1 controls the flight so that the drone is imaged at the tapped position. That is, the operator U may touch the place where the drone 1 wants to come. That is, the drone 1 can be operated at the position where the operator U is tapped on the two-dimensional image captured by the camera C.

図14は、上述の操作と制御をする場合における、操縦者端末2のタッチ操作された位置にドローン1が誘導された状態の操縦者端末2の例を示す図である。
ここで、操縦者Uは、ドローン1を操縦することができる。具体的には例えば、ドローン1を2次元の映像上の所定の位置に保ったまま、操縦することができる。即ち例えば、映像上の位置を変えずに、カメラとの距離をかえる操縦をすることができる。これにより、操縦者Uは、ドローン1を操縦する場合に、一直線上のみ安定して簡単に操縦することができる。
FIG. 14 is a diagram showing an example of a driver terminal 2 in a state where the drone 1 is guided to a touch-operated position of the driver terminal 2 in the case of performing the above-mentioned operation and control.
Here, the operator U can operate the drone 1. Specifically, for example, the drone 1 can be operated while being maintained at a predetermined position on a two-dimensional image. That is, for example, it is possible to control the distance to the camera without changing the position on the image. As a result, the operator U can operate the drone 1 stably and easily only on a straight line.

映像上のドローン1の識別方法は、種々の方法を用いることができる。具体的には例えば、画像認識によりドローン1の形状等の特徴を検出する方法を用いてもよい。また例えば、ドローン1にLED等備え、画像認識におけるドローン1の特徴的な点として用いてもよい。また、カメラと別に前述のLEDの周波数にあわせたフィルタを用いてもよい。これにより、画像認識における識別率を上げることができる。
また例えば、カメラCは撮像装置としたが、これに限らない。具体的には例えば、カメラを2つ並べる複眼カメラを用いてもよい。若しくは例えば、Light Detection and Ranging(以下、「LiDAR」と呼ぶ)や、無線通信等を用いてもよい。これにより、カメラCが撮像した2次元の映像上のうち、操縦者Uがタップ操作された位置にドローン1を制御するのみならず、ドローンとカメラの距離が一定となる制御、即ち3次元の所定の位置に対する制御をすることができる。これにより、ドローン1は更に3次元的に安定して操縦することができ、更には3次元的な位置を指定して操縦することができる。
また例えば、上述の複眼カメラやLiDAR等の距離を測定するセンサ等をカメラCとは別の所定の位置に設置してもよい。具体的には例えば、ドローンのカメラと反対側に設置することで、ドローン1と、他のドローンとの衝突防止をしたり、その他の構造物等との衝突を防止したりすることができる。即ち、カメラCで撮像した場合、ドローン1により撮像できない領域の構造を補完や推測することができる。これにより、ドローン1が衝突することを防止できる。
また例えば、ドローン1の位置は、地上に固定されたカメラCによって撮像された映像に基づいて制御するとしたが、これに限らない。具体的には例えば、ドローン1の撮像部33から任意の目標物を撮像し、撮像された映像や画像に基づいて制御しても良い。
また例えば、カメラCは地上に固定されているものとしたが、これに限らない。即ち例えば、カメラCは固定されておらず、スマートフォン等の撮像部を備えた操縦者端末2等であってもよい。具体的には例えば、操縦者端末2は、撮像部と3軸加速度センサや3軸ジャイロセンサとを有するとする。これにより、操縦者端末2は撮像部により撮像される領域がどのように変化しているかをリアルタイムに演算することができる。これにより、操縦者端末2により撮像された2次元の映像上のうち、どの位置にドローン1を制御することにより、実際の空間上においてドローン1が安定するのかを計算することができる。即ち、撮像されている領域の変化を補正して、ドローン1を所定の位置に制御することができる。
As a method for identifying the drone 1 on the image, various methods can be used. Specifically, for example, a method of detecting features such as the shape of the drone 1 by image recognition may be used. Further, for example, the drone 1 may be provided with an LED or the like and used as a characteristic point of the drone 1 in image recognition. Further, a filter matching the frequency of the LED described above may be used separately from the camera. As a result, the identification rate in image recognition can be increased.
Further, for example, the camera C is an imaging device, but the present invention is not limited to this. Specifically, for example, a compound eye camera in which two cameras are arranged side by side may be used. Alternatively, for example, Light Detection and Ringing (hereinafter referred to as “LiDAR”), wireless communication, or the like may be used. As a result, in the two-dimensional image captured by the camera C, not only the drone 1 is controlled at the position where the operator U is tapped, but also the distance between the drone and the camera is constant, that is, three-dimensional. It is possible to control a predetermined position. As a result, the drone 1 can be operated more stably in three dimensions, and can be operated by designating a three-dimensional position.
Further, for example, the above-mentioned compound eye camera, a sensor for measuring a distance such as LiDAR, or the like may be installed at a predetermined position different from the camera C. Specifically, for example, by installing the drone on the opposite side of the camera, it is possible to prevent the drone 1 from colliding with another drone, or to prevent a collision with other structures or the like. That is, when the image is taken by the camera C, the structure of the region that cannot be imaged by the drone 1 can be complemented or estimated. As a result, it is possible to prevent the drone 1 from colliding.
Further, for example, the position of the drone 1 is controlled based on the image captured by the camera C fixed on the ground, but the position is not limited to this. Specifically, for example, an arbitrary target may be imaged from the image capturing unit 33 of the drone 1 and controlled based on the captured image or image.
Further, for example, the camera C is fixed to the ground, but the present invention is not limited to this. That is, for example, the camera C is not fixed and may be a driver terminal 2 or the like provided with an imaging unit such as a smartphone. Specifically, for example, it is assumed that the operator terminal 2 has an image pickup unit, a 3-axis acceleration sensor, and a 3-axis gyro sensor. As a result, the operator terminal 2 can calculate in real time how the area imaged by the imaging unit is changing. Thereby, it is possible to calculate at which position the drone 1 is controlled in the two-dimensional image captured by the operator terminal 2 to stabilize the drone 1 in the actual space. That is, the drone 1 can be controlled to a predetermined position by correcting the change in the imaged region.

以上、図13を用いて、補助部材の例である地上のカメラCにより撮像した映像を用いて、操縦者端末2により制御する場合の例について説明した。 As described above, with reference to FIG. 13, an example in which the operator terminal 2 controls the image using the image captured by the ground camera C, which is an example of the auxiliary member, has been described.

このような図13のドローン1及び補助部材を用いた場合、ドローン1は、従来の方法では操縦の難度が高い場合においても、飛行の安定性及び安全性を向上すると共に操縦の難度を低減することができるという効果を奏することができる。
このような効果を奏することが可能な移動体は、図12の補助部材を用いたドローン1に限定されず、次のような補助手段や移動体を採用することができる。
即ち、例えば、地上の固定されたカメラ(例えば図13のカメラC)からドローン(例えば図13のドローン1)を捉えた時に、リアルタイムの動画上(例えば図14の操縦者端末に表示された動画上)で座標をタッチすると、ドローンをその場所に2次元的に固定することができる。ドローンの飛行の安定性を向上させ、飛行の安定性及び安全性を向上すると共に操縦の難度を低減することができる。
また例えば、画面上(例えば図14の操縦者端末2の画面上)の同じ場所に静止するよう通信で指示を出すことによって、人の操縦はカメラと近づくか離れるかの1次元の操作のみで良くすることができる。これにより、操縦は非常に簡単にすることができる。
また例えば、ドローン(例えば図13のドローン1)の識別は、画像処理を用いても良く、(ドローン1に)LEDなどを備えることにより画像処理を行う場合に判別しやすくしても良く、カメラ(例えば図13のカメラC)と別に、(赤外線)LEDの周波数にあわせた赤外線カメラや、赤外線フィルタ等をつかったカメラを用いることで、(ドローン1の画像処理における)識別率を上げても良い。これにより、ドローンの識別を行う画像処理の性能を向上することができる。
また例えば、カメラを2つ並べる複眼カメラや、LiDARや、無線通信などを使って、ドローン(例えば図13のドローン1)とカメラ(例えば図13のカメラC)の距離を計測し、3次元で固定してもよい。これにより操縦は更に安定する。
また例えば、ドローン(例えば図13のドローン1)のカメラ(例えば図13のカメラC)と反対側(例えば図13でドローン1のうちカメラに映らない面)に距離センサ等のセンサを設置することで、衝突防止をすることができる。また、複眼カメラやLiDARと組み合わせて、ドローンの奥の形状を推測することで、衝突防止をすることができる。これにより、飛行の安全性を向上することができる。
また例えば、(上述のカメラCからドローン1を撮像することに限らず、)ドローン(例えば図13のドローン1)からカメラ(例えば図13のカメラCや、その他の固定された目標)を撮像し、ドローンの位置や制御を決定してもよい。これにより、地上にカメラCを固定して備えることが不要とすることができる。
また例えば、カメラ(例えば図13のカメラC)は固定されていなくても良く、(固定されていないカメラCの位置及び方向は)計算で補完することができる。これにより、固定したカメラのみならず、スマートフォン等の撮像装置を用いて、飛行の安定性及び安全性を向上すると共に操縦の難度を低減することができる。
When the drone 1 and the auxiliary member shown in FIG. 13 are used, the drone 1 improves flight stability and safety and reduces the difficulty of maneuvering even when the difficulty of maneuvering is high by the conventional method. It can have the effect of being able to.
The moving body capable of exerting such an effect is not limited to the drone 1 using the auxiliary member shown in FIG. 12, and the following auxiliary means and moving body can be adopted.
That is, for example, when a drone (for example, drone 1 in FIG. 13) is captured from a fixed camera on the ground (for example, camera C in FIG. 13), a moving image displayed on a real-time moving image (for example, a moving image displayed on the operator terminal in FIG. 14). If you touch the coordinates with (above), you can fix the drone to that location two-dimensionally. It is possible to improve the flight stability of the drone, improve the flight stability and safety, and reduce the difficulty of maneuvering.
Further, for example, by issuing a communication instruction to stay at the same place on the screen (for example, on the screen of the operator terminal 2 in FIG. 14), the maneuvering of a person is only a one-dimensional operation of approaching or leaving the camera. Can be improved. This makes maneuvering very easy.
Further, for example, the identification of the drone (for example, the drone 1 in FIG. 13) may be performed by using image processing, or may be easily identified when performing image processing by providing (the drone 1) with an LED or the like, and the camera may be used. Even if the identification rate (in the image processing of Drone 1) is increased by using an infrared camera that matches the frequency of the (infrared) LED or a camera that uses an infrared filter, etc., in addition to (for example, camera C in FIG. 13). good. This makes it possible to improve the performance of image processing for identifying the drone.
Further, for example, the distance between the drone (for example, the drone 1 in FIG. 13) and the camera (for example, the camera C in FIG. 13) is measured in three dimensions by using a compound eye camera in which two cameras are arranged side by side, LiDAR, wireless communication, or the like. It may be fixed. This makes the maneuver more stable.
Further, for example, a sensor such as a distance sensor may be installed on the side opposite to the camera (for example, camera C in FIG. 13) of the drone (for example, the drone 1 in FIG. 13) (for example, the surface of the drone 1 in FIG. 13 that is not reflected by the camera). Therefore, collision prevention can be performed. In addition, collision prevention can be prevented by estimating the shape of the back of the drone in combination with a compound eye camera or LiDAR. This makes it possible to improve flight safety.
Also, for example, a camera (eg, camera C in FIG. 13 or other fixed target) is imaged from a drone (eg, drone 1 in FIG. 13) (not limited to capturing the drone 1 from the camera C described above). , The position and control of the drone may be determined. This makes it unnecessary to fix and provide the camera C on the ground.
Further, for example, the camera (for example, the camera C in FIG. 13) does not have to be fixed, and (the position and direction of the non-fixed camera C) can be complemented by calculation. As a result, not only a fixed camera but also an imaging device such as a smartphone can be used to improve flight stability and safety and reduce the difficulty of maneuvering.

[第4実施形態]対人制御
作業者が作業を行う倉庫等の屋内において、ドローン等を導入し、作業の効率化を行いたい場合がある。このような場合において、作業者は作業を行うため周囲への注意が散漫であったり、倉庫には棚等があるために視認性が悪くドローンに気がつかなかったりといった要因により、作業者とドローンとが接触する事故が発生する可能性が高い。
[Fourth Embodiment] There is a case where it is desired to introduce a drone or the like indoors such as a warehouse where an interpersonal control worker performs work to improve work efficiency. In such a case, the worker and the drone may be distracted because they work, or the visibility may be poor due to the shelves in the warehouse and the drone may not be noticed. There is a high possibility that an accident will occur.

上述のような場合に限らず、ドローンと作業者とが接触する可能性が高い利用状況の場合であっても、接触事故が起こるリスクを低減し、相互の接近感知やその通知、および回避のための制御をする方法を提供することを目的とする。 Not only in the above cases, but also in the usage situation where there is a high possibility that the drone and the worker will come into contact with each other, the risk of contact accidents will be reduced, and mutual approach detection, notification, and avoidance will be achieved. The purpose is to provide a method of controlling for.

第4実施形態のドローン1は、このような要望を実現するドローンである。このようなドローン1の機能的構成について図3を参照して説明する。
図3は、ドローン1が実行する、各種処理を実現するための機能的構成の一例を示す機能ブロック図である。
The drone 1 of the fourth embodiment is a drone that fulfills such a demand. Such a functional configuration of the drone 1 will be described with reference to FIG.
FIG. 3 is a functional block diagram showing an example of a functional configuration for realizing various processes executed by the drone 1.

図3に示すように、ドローン1は、駆動部41と、飛行制御部42と、撮像部43と、壁面点検センサ部44と、吊下制御部45と、貨物格納部46と、認証部47と、通信部19とを備える移動体である。
第3実施形態のドローン1においては、上述の構成のうち、駆動部41乃至撮像部43が少なくとも機能する。
As shown in FIG. 3, the drone 1 includes a drive unit 41, a flight control unit 42, an image pickup unit 43, a wall surface inspection sensor unit 44, a suspension control unit 45, a cargo storage unit 46, and an authentication unit 47. And a mobile body including a communication unit 19.
In the drone 1 of the third embodiment, the driving unit 41 to the imaging unit 43 function at least in the above configuration.

駆動部41乃至撮像部43の機能は、実施形態1で述べた通りである。 The functions of the drive unit 41 to the image pickup unit 43 are as described in the first embodiment.

第4実施形態のモジュール4は、このような要望を実現するドローン1に備えられる。このようなモジュール4の機能的構成について図3を参照して説明する。
図3は、ドローン1が実行する、各種処理を実現するための機能的構成の一例を示す機能ブロック図である。
The module 4 of the fourth embodiment is provided in the drone 1 that realizes such a demand. Such a functional configuration of the module 4 will be described with reference to FIG.
FIG. 3 is a functional block diagram showing an example of a functional configuration for realizing various processes executed by the drone 1.

図3に示すように、接触防止モジュール4(以下、「モジュール」と適宜呼ぶ)は、距離推定部401と、鳴動部402と、通信部403とを備えるモジュールである。 As shown in FIG. 3, the contact prevention module 4 (hereinafter, appropriately referred to as a “module”) is a module including a distance estimation unit 401, a ringing unit 402, and a communication unit 403.

距離推定部401は、他のモジュール4との距離を推定する。具体的な構成の例や、距離を推定する方法の例は後述する。 The distance estimation unit 401 estimates the distance to the other module 4. An example of a specific configuration and an example of a method for estimating a distance will be described later.

鳴動部402は、明滅するLight Emitting Diode(以下、「LED」と呼ぶ)や警告音を発するスピーカ、バイブレーション機能を提供するバイブレータ等を有し、鳴動することによりモジュールを所持する作業者に警告を発することができる。 The ringing unit 402 has a blinking Light Emitting Diode (hereinafter referred to as "LED"), a speaker that emits a warning sound, a vibrator that provides a vibration function, and the like, and warns the operator possessing the module by ringing. Can be emitted.

通信部403は、所定の無線通信規格に対応した無線機能を有し、倉庫等に導入されたドローン1やサーバ3、他のモジュール4等と無線通信を行うことができる。 The communication unit 403 has a wireless function corresponding to a predetermined wireless communication standard, and can perform wireless communication with a drone 1, a server 3, another module 4, etc. introduced in a warehouse or the like.

以下、図15乃至17を用いて、ドローン1が作業者Sとの接触を防ぐの制御の例を説明する。
図15は、図2のドローン1が作業者Sと接触するのを防ぐためのモジュール4の機能及び使用方法の例を示した図である。
Hereinafter, an example of control for preventing the drone 1 from coming into contact with the worker S will be described with reference to FIGS. 15 to 17.
FIG. 15 is a diagram showing an example of the function and usage of the module 4 for preventing the drone 1 of FIG. 2 from coming into contact with the worker S.

以下、図15を用いて、作業者Sが備えるモジュール4Aと、ドローン1が備えるモジュール4Bとが接近し警告を発する例について説明する。
図15は、作業者Sが備えるモジュール4Aと、図2のドローン1が備えるモジュール4Bとが夫々の距離を測定し、距離に応じた警告を発している例である。
図15に示すA状況は、モジュール4Aと4Bとが離れており、充分な距離がある場合の様子を示す図である。
図15に示すB状況は、モジュール4Aと4Bとが近付いており、充分な距離がない場合の様子を示す図である。
なお、図15に示すA状況及び図15に示すB状況を個々に区別する必要がない場合、以下、「図15」と呼ぶ。
Hereinafter, an example in which the module 4A included in the worker S and the module 4B included in the drone 1 approach each other and issue a warning will be described with reference to FIG.
FIG. 15 is an example in which the module 4A included in the worker S and the module 4B included in the drone 1 in FIG. 2 measure their respective distances and issue a warning according to the distances.
The situation A shown in FIG. 15 is a diagram showing a situation when the modules 4A and 4B are separated from each other and have a sufficient distance.
The B situation shown in FIG. 15 is a diagram showing a situation when the modules 4A and 4B are close to each other and there is not a sufficient distance.
When it is not necessary to distinguish between the situation A shown in FIG. 15 and the situation B shown in FIG. 15, it is hereinafter referred to as “FIG. 15”.

図15において、作業者Sとドローン1との夫々はモジュール4を備えている。以下、作業者Sが備えるモジュール4をモジュール4A、ドローン1が備えるモジュール4をモジュール4Bと呼ぶ。なお、モジュール4Aとモジュール4Bとを個々に区別する必要がない場合、単に「モジュール4」と呼ぶ。
本実施形態における、モジュール4A及び4Bは相互に距離を計測することができる。モジュール4の距離の推定方法の詳細は後述する。また、モジュール4は、鳴動することができる。ここで、鳴動とは、モジュール4が備えるLEDの点滅や、スピーカからの警告音や、バイブレータのバイブレーション機能等、任意の動作により作業者S等の人に警告を発することを指す。モジュール4Aは鳴動することにより、作業者S側にドローン1側の存在を伝えることができる。作業者Sはモジュール4を首から提げたり、ポケットに入れたり、インカムとして耳に入れたりすることにより、モジュール4の鳴動を認識できる。また、モジュール4Bは鳴動や電気信号や無線通信等により、ドローン1側に作業者Sの存在を伝えることができる。
In FIG. 15, each of the worker S and the drone 1 includes a module 4. Hereinafter, the module 4 provided by the worker S will be referred to as a module 4A, and the module 4 provided by the drone 1 will be referred to as a module 4B. When it is not necessary to distinguish between the module 4A and the module 4B individually, it is simply referred to as "module 4".
Modules 4A and 4B in this embodiment can measure distances from each other. The details of the method of estimating the distance of the module 4 will be described later. In addition, the module 4 can ring. Here, the ringing means issuing a warning to a person such as an operator S by an arbitrary operation such as blinking of an LED included in the module 4, a warning sound from a speaker, or a vibration function of a vibrator. By ringing the module 4A, the existence of the drone 1 side can be notified to the worker S side. The worker S can recognize the ringing of the module 4 by hanging the module 4 from his neck, putting it in his pocket, or putting it in his ear as an intercom. Further, the module 4B can convey the existence of the worker S to the drone 1 side by ringing, an electric signal, wireless communication, or the like.

図15に示すA状況を見ると、作業者Sがモジュール4Aを備え、ドローン1がモジュール4Bを備えている。ここで、作業者Sとドローン1とは、距離D21だけ離れている。距離D21は充分に長いため、モジュール4A及び4Bは鳴動をしていない。
図15に示すB状況を見ると、作業者Sがモジュール4Aを備え、ドローン1がモジュール4Bを備えている。ここで、作業者Sとドローン1とは、距離D22だけ離れている。距離D21は所定の距離に対して短いため、モジュール4A及び4Bは音を出すことや、バイブレーション機能により震えるといった、鳴動をしている。
Looking at the situation A shown in FIG. 15, the worker S is equipped with the module 4A, and the drone 1 is equipped with the module 4B. Here, the worker S and the drone 1 are separated by a distance D21. Modules 4A and 4B are not ringing because the distance D21 is long enough.
Looking at the situation B shown in FIG. 15, the worker S is equipped with the module 4A, and the drone 1 is equipped with the module 4B. Here, the worker S and the drone 1 are separated by a distance D22. Since the distance D21 is short with respect to a predetermined distance, the modules 4A and 4B make sounds such as making a sound and trembling due to the vibration function.

即ち、モジュール4が鳴動することにより、モジュール4は作業者Sに対してドローン1の接近を通知や警告することができる。これにより、作業者Sはドローン1の接近に気づくことができ、ドローン1との接触を回避する行動をとることができる。
また、モジュール4Bはドローン1の飛行制御部42と連動することにより、作業者Sを回避するよう制御することや制止することができる。これにより、作業者Sとの衝突の確率を下げることや、衝突時の被害を減らすことができる。
That is, when the module 4 rings, the module 4 can notify or warn the worker S of the approach of the drone 1. As a result, the worker S can notice the approach of the drone 1 and can take an action to avoid contact with the drone 1.
Further, the module 4B can be controlled or stopped so as to avoid the worker S by interlocking with the flight control unit 42 of the drone 1. As a result, the probability of collision with the worker S can be reduced, and the damage at the time of collision can be reduced.

具体的には例えば、モジュール4の距離推定部401は、電波を送受信するためのアンテナや音波を送受信するためのスピーカやマイクを備える。これにより、距離推定部401は、電波や音波の強度等の変化により、他のモジュール4の接近を検知することができる。即ち、モジュール4は距離推定部401により、他のモジュール4との距離を推定する。ここで、ドローン1が備えるモジュール4Bが、作業者Sが備えるモジュール4Aに所定の距離以上近づいたと判定された場合において、作業者Sに一定以内の距離の場合には、双方のLEDは赤等色が変わり、機械側は速度を落として運用を行うことができる。 Specifically, for example, the distance estimation unit 401 of the module 4 includes an antenna for transmitting and receiving radio waves, a speaker and a microphone for transmitting and receiving sound waves. As a result, the distance estimation unit 401 can detect the approach of the other module 4 by changing the intensity of the radio wave or the sound wave. That is, the module 4 estimates the distance from the other modules 4 by the distance estimation unit 401. Here, when it is determined that the module 4B included in the drone 1 is closer than a predetermined distance to the module 4A provided by the worker S, if the distance is within a certain distance to the worker S, both LEDs are red or the like. The color changes and the machine can operate at a slower speed.

また例えば、通信で近接を検知できず近接した場合には、作業者Sはモジュール4Aが備える図示せぬボタンを押すことで、緊急シグナルを発報することができる。緊急シグナルの発報を受けた周辺のモジュール、例えばモジュール4Bは、モジュール4Bを備えるドローン1の移動の制御をおこない、一定時間の間、低速で移動するモードとすることができる。更に例えば、モジュール4Bを備えるドローン1が低速モードとなる場合には、モジュール4Bの鳴動部402が鳴動することで、作業者Sがドローン1の存在に気が付きやすくすることができる。 Further, for example, when the proximity cannot be detected by communication and the proximity is approached, the worker S can issue an emergency signal by pressing a button (not shown) provided in the module 4A. A peripheral module that has received an emergency signal, for example, module 4B, controls the movement of the drone 1 including the module 4B, and can be set to a mode of moving at a low speed for a certain period of time. Further, for example, when the drone 1 including the module 4B is in the low speed mode, the ringing unit 402 of the module 4B rings, so that the worker S can easily notice the existence of the drone 1.

また例えば、複数のモジュール4は、相互に通信できなくてもよい。複数のモジュール4の夫々は、夫々のモジュール4を識別可能な識別子である情報を乗せた無線信号を発信するビーコン機能を有することができる。これにより、ビーコンの信号強度等により、他のモジュールの接近を検知できると共に、他のモジュールのうち何れが接近しているのかを検知できる。作業者Sが備えるモジュール4Aが他のモジュール4の接近を検知した場合には、検知したモジュールの識別子に対応した信号を無線信号として発信することができる。また更に、同時に作業者S側にも音等で通知するこができる。これにより、作業者Sが備えるモジュール4Aにより他のモジュール4の接近が検知された場合において、他のモジュール4に対して作業者Sに接近している旨を通知できる。これにより、他のモジュール4を備えるドローン1の動作を停止する等、相互の安全に配慮した制御をすることができる。
上述の例では、簡単のため1つのドローン1と1人の作業者Sとが倉庫等において作業をしている場合としたが、特にこれに限定されない。つまり、ドローン1及び作業者Sは、夫々複数でもよい。即ち、モジュール4A及び4Bは夫々複数であってよい。
また、上述の例では、モジュール4の距離推定部401は、電波や音波の強度等の変化により、他のモジュール4の接近を検知することができるとしたが、接近を検知するための電波や音波において、複数の周波数を取り扱っても良い。
Further, for example, the plurality of modules 4 may not be able to communicate with each other. Each of the plurality of modules 4 can have a beacon function of transmitting a radio signal carrying information which is an identifier that can identify each module 4. As a result, the approach of another module can be detected by the signal strength of the beacon or the like, and which of the other modules is approaching can be detected. When the module 4A included in the worker S detects the approach of another module 4, the signal corresponding to the identifier of the detected module can be transmitted as a wireless signal. Furthermore, at the same time, it is possible to notify the worker S side by sound or the like. As a result, when the approach of another module 4 is detected by the module 4A provided by the worker S, it is possible to notify the other module 4 that the worker S is approaching. As a result, it is possible to perform control in consideration of mutual safety, such as stopping the operation of the drone 1 provided with the other module 4.
In the above example, for the sake of simplicity, one drone 1 and one worker S are working in a warehouse or the like, but the present invention is not particularly limited to this. That is, the number of the drone 1 and the number of workers S may be plural. That is, there may be a plurality of modules 4A and 4B, respectively.
Further, in the above example, the distance estimation unit 401 of the module 4 can detect the approach of another module 4 by changing the intensity of the radio wave or the sound wave, but the radio wave for detecting the approach or the radio wave for detecting the approach A plurality of frequencies may be handled in sound waves.

以上、図15を用いて、モジュール4Aが他のモジュール4Bとの距離を測定し、鳴動やドローン1を制御する方法の例を説明した。 As described above, an example of a method in which the module 4A measures the distance from the other module 4B and controls the ringing and the drone 1 has been described with reference to FIG.

他には例えば、モジュール4は、出会い頭の衝突回避のための制御をすることができる。
以下、図16を用いて、モジュール4を用いた出会い頭の衝突回避のための制御の例を説明する。
出会い頭では、作業者Sと他の作業者S、即ち人間同士でも目視で確認できず、気がつかずに接触する事故が発生し得る。また、倉庫内がうるさい場合には、ドローンなどの駆動音を発する機械であっても、作業者Sが、ドローン等の接近に気がつかずに、接触事故が発生することが懸念される。上述のように、電波や音波による無線信号により距離を推定する場合には、倉庫内にノイズの少ない周波数の音や電波を活用し、信号内にチェックデジット等を埋め込むことで専用の信号を識別させる等工夫をすることで、電波や音が回折することを活用し、作業者S同士でも難しい出会い頭の衝突を事前に防ぐことが出来る。
Alternatively, for example, the module 4 can control for collision avoidance at the encounter.
Hereinafter, an example of control for avoiding a collision at the encounter using the module 4 will be described with reference to FIG.
At the encounter, a worker S and another worker S, that is, human beings, cannot visually confirm each other, and an accident may occur in which they come into contact with each other without noticing. Further, when the inside of the warehouse is noisy, even if the machine emits a driving sound such as a drone, there is a concern that the worker S may not notice the approach of the drone or the like and a contact accident may occur. As described above, when estimating the distance from radio signals by radio waves or sound waves, the dedicated signal is identified by utilizing the sound and radio waves of a frequency with less noise in the warehouse and embedding a check digit etc. in the signal. By taking advantage of the fact that radio waves and sounds are diffracted, it is possible to prevent difficult encounter collisions between workers S in advance.

上述したように、このようなモジュール4は、作業者Sやドローン1を区別することなく利用可能である。即ち、モジュール4は、移動する主体である作業者Sやドローン1を同格に扱うことができる。即ち、作業者Sに利用されるモジュール4とドローン1に利用されるモジュール4との夫々は、同一の構成が採用されてもよい。このため、モジュール4が量産される場合、同一の構成のモジュール4が量産されるため、生産コストが削減され得る。また、モジュール4を搭載されるドローン1は、3次元的な移動が可能な飛行体といった移動体であってもよく、2次元的な移動が可能な車両といった移動体であってもよい。 As described above, such a module 4 can be used without distinguishing between the worker S and the drone 1. That is, the module 4 can handle the worker S and the drone 1 which are the moving subjects in the same manner. That is, the same configuration may be adopted for each of the module 4 used by the worker S and the module 4 used by the drone 1. Therefore, when the module 4 is mass-produced, the module 4 having the same configuration is mass-produced, so that the production cost can be reduced. Further, the drone 1 on which the module 4 is mounted may be a moving body such as an air vehicle capable of three-dimensional movement, or may be a moving body such as a vehicle capable of two-dimensional movement.

図16は、棚Tがある倉庫内を作業者Sとドローン1とが通行しており、棚Tにより作業者Sとドローン1とが相互に位置を視認できない状態において、モジュール4により衝突を回避する例を示す図である。図16において、作業者S及びドローン1との夫々は、モジュール4A及び4Bの夫々を備える。このとき、作業者S及びドローン1とは、互いに図の矢印に示す方向に進行しており、将来的に衝突の可能性がある。この場合において、例えば、作業者Sが備えるモジュール4Aのスピーカは、倉庫内にノイズの少ない周波数の音を発生させる。図16の直線L1は、この音が伝播する方向のうち、ある1方向を示している。直線L1で示される音のうち直進する成分は、破線L2で示す方向に伝播する。しかし、音波は回折する性質があるため、回折した音波の一部は棚Tの角により直線L3及び円弧が示す方向に伝播する。これにより、モジュール4Aの発した音波は、ドローン1の備えるモジュール4Bに到達する。モジュール4Bが備えるマイクは、到達した音を受信する。これにより、モジュール4Bは、視認できない範囲に存在する、モジュール4Aを備える作業者Sの接近を検知することができる。これにより、ドローン1の飛行制御部42は、衝突を回避するように制御することができる。
また、上述の例ではモジュール4が他のモジュール4の接近を検知する際に音波を利用するものとしたが、特にこれに限定されない。即ち、音波に限らず回折する電波を用いてもよい。
即ち、作業者Sと他の作業者S、即ち人間同士でも目視で確認できなかったり、倉庫内がうるさい場合には、作業者Sと機械との接触事故が懸念されていたが、倉庫内にノイズの少ない周波数の音波や電波を活用し、信号内にチェックデジット等を埋め込むことで専用の信号を識別させる等工夫をすることで、電波や音が回折することを活用し、作業者S同士でも難しい出会い頭の衝突を事前に防ぐことが出来る。
これは、対作業者Sだけではなく、機械同士で行っても良い。また、作業者S同士で行っても良い。
In FIG. 16, the module 4 avoids a collision when the worker S and the drone 1 pass through the warehouse where the shelf T is located and the positions of the worker S and the drone 1 cannot be visually recognized by the shelf T. It is a figure which shows the example. In FIG. 16, each of the worker S and the drone 1 includes modules 4A and 4B, respectively. At this time, the worker S and the drone 1 are moving in the directions shown by the arrows in the figure, and there is a possibility of a collision in the future. In this case, for example, the speaker of the module 4A provided by the worker S generates a sound having a frequency having less noise in the warehouse. The straight line L1 in FIG. 16 indicates one of the directions in which the sound propagates. The straight component of the sound indicated by the straight line L1 propagates in the direction indicated by the broken line L2. However, since the sound wave has a diffracting property, a part of the diffracted sound wave propagates in the direction indicated by the straight line L3 and the arc due to the angle of the shelf T. As a result, the sound wave emitted by the module 4A reaches the module 4B included in the drone 1. The microphone included in module 4B receives the reached sound. As a result, the module 4B can detect the approach of the worker S including the module 4A, which exists in an invisible range. As a result, the flight control unit 42 of the drone 1 can be controlled so as to avoid a collision.
Further, in the above example, the module 4 uses sound waves when detecting the approach of another module 4, but the present invention is not particularly limited to this. That is, not only sound waves but also diffracted radio waves may be used.
That is, when the worker S and another worker S, that is, human beings cannot visually confirm each other, or when the inside of the warehouse is noisy, there is a concern that the worker S and the machine may come into contact with each other. By utilizing sound waves and radio waves with low noise frequencies and embedding check digits in the signals to identify dedicated signals, the diffraction of radio waves and sounds can be utilized to utilize the fact that the workers S can interact with each other. However, it is possible to prevent difficult encounter conflicts in advance.
This may be done not only by the worker S but also by the machines. Further, the workers S may perform the work together.

以上、図16を用いて、モジュール4を用いた出会い頭の衝突回避のための制御の例を説明した。
ここまで、モジュール4を用いた作業者Sとドローン1との夫々、又は夫々同士の接触事故を防ぐ方法について説明した。
以下、図17を用いて、作業者Sとドローン1との相互の直接通信のみに依らず、作業者Sとドローン1との夫々の位置情報を共有するサーバを介した衝突回避の方法について説明する。
図17は、作業者Sと複数のドローン1−1及び1−2とが倉庫内を移動している場合の衝突回避に係る図である。
As described above, an example of control for avoiding a collision at the encounter using the module 4 has been described with reference to FIG.
Up to this point, a method of preventing contact accidents between the worker S and the drone 1 using the module 4 or each other has been described.
Hereinafter, with reference to FIG. 17, a method of avoiding a collision via a server that shares the position information of the worker S and the drone 1 without relying only on mutual direct communication between the worker S and the drone 1 will be described. do.
FIG. 17 is a diagram relating to collision avoidance when the worker S and the plurality of drones 1-1 and 1-2 are moving in the warehouse.

図17には、棚Tを有する倉庫内において、作業者Sとドローン1−1及び1−2とが行き来している。ここで、作業者Sはモジュール4Aを、ドローン1−1はモジュール4B−1を、ドローン1−2はモジュール4B−2を備える。ここで、前述の方法により、モジュール4の夫々は、他のモジュール4との距離、例えば、モジュール4B−1はモジュール4Aとの距離、距離D31を測定できる。ここで、モジュール4B−1は、ドローン1−1の位置及び、作業者Sとの距離D31を含む情報を図示せぬサーバに送信する。モジュール4B−2も同様に、モジュール4B−2とモジュール4Aとの距離D31を測定し、ドローン1−2の位置及び作業者Sとの距離D32を含む情報を図示せぬサーバに送信する。ドローン1−1及び1−2の夫々から、夫々の位置や距離D31及びD32を含む情報を受信したサーバは、それらの結果を統合する。このとき、複数のモジュール4からの情報を統合することにより、精度を高めることができる。
即ち、ローカルネットワーク内で自己位置を共有すれば、直接通信に課題があっても、サーバ側で相互に衝突防止等は可能でありより安全なシステムとすることができる。
機械側は作業者Sとの距離を認識できる。しかし動いているかどうか等状態が分からないため、正確な位置はわからない。しかし、複数の機械側から距離が認識できると、精度の高い作業者Sの位置が分かる。そのため、機械側から作業者Sの位置データをリアルタイムで共有することで、精度の高い作業者Sの位置情報が把握でき、安全性を向上できる。これにより、より高度な衝突予測をすることができる。
In FIG. 17, the worker S and the drones 1-1 and 1-2 come and go in the warehouse having the shelf T. Here, the worker S includes a module 4A, the drone 1-1 includes a module 4B-1, and the drone 1-2 includes a module 4B-2. Here, by the method described above, each of the modules 4 can measure the distance from the other modules 4, for example, the module 4B-1 can measure the distance from the module 4A and the distance D31. Here, the module 4B-1 transmits information including the position of the drone 1-1 and the distance D31 to the worker S to a server (not shown). Similarly, the module 4B-2 measures the distance D31 between the module 4B-2 and the module 4A, and transmits information including the position of the drone 1-2 and the distance D32 to the worker S to a server (not shown). The server that receives the information including the respective positions and distances D31 and D32 from each of the drones 1-1 and 1-2 integrates the results. At this time, the accuracy can be improved by integrating the information from the plurality of modules 4.
That is, if the self-location is shared within the local network, even if there is a problem in direct communication, it is possible to prevent mutual collisions on the server side, and a safer system can be obtained.
The machine side can recognize the distance to the worker S. However, since we do not know the state such as whether it is moving or not, we do not know the exact position. However, if the distance can be recognized from the plurality of machines, the position of the worker S with high accuracy can be known. Therefore, by sharing the position data of the worker S from the machine side in real time, the position information of the worker S can be grasped with high accuracy, and the safety can be improved. As a result, more advanced collision prediction can be performed.

また例えば、モジュール4は、以下のように現在位置や距離を特定するようなものであってもよい。具体的には例えば、倉庫や棚等の設備の壁面や床・天井等に、前述のモジュール4に相当するデバイスを固定する。これにより、固定されたモジュール4を基準として、作業者Sの位置推定が可能となる。この場合において、固定されたモジュール4は、ほぼ死角がなくなるように配置すると、常に作業者Sの位置推定が可能となり好適である。また、ドローン1の備えるモジュール4Bにおいても、固定されたモジュール4との距離測定を行うことで、自己位置の推定はより高精度にすることができる。 Further, for example, the module 4 may be such that the current position and the distance are specified as follows. Specifically, for example, the device corresponding to the above-mentioned module 4 is fixed to the wall surface, floor, ceiling, or the like of equipment such as a warehouse or a shelf. As a result, the position of the worker S can be estimated with reference to the fixed module 4. In this case, if the fixed module 4 is arranged so that there is almost no blind spot, the position of the worker S can always be estimated, which is preferable. Further, also in the module 4B included in the drone 1, the self-position can be estimated with higher accuracy by measuring the distance from the fixed module 4.

以上、図15乃至17を用いて、ドローン1が作業者Sとの接触を防ぐの制御の例について説明した。 As described above, an example of control for preventing the drone 1 from coming into contact with the worker S has been described with reference to FIGS. 15 to 17.

ドローン1及びモジュール4は上述の例に限らない。
即ち例えば、モジュール4は距離を推定することにより接触の危険を回避するとしたが、特にこれに限定されない。即ち例えば、モジュール4の間の距離、モジュール4の間の相対速度、棚の配置などの実際の配置等を総合的に判断して、接触の危険を推定し、接触の危険を回避するものであってよい。
また例えば、モジュール4は電波や音波により距離を推定するとしたが、電波や音波は特定の単一の周波数に限定されない。即ち例えば、複数の周波数を取り扱っても良い。
また例えば、モジュール4は作業者Sとドローン1とで、機能や構成の違いは特にないものとして説明したが、特にこれに限定されない。即ち例えば、作業者Sが備えるモジュール4Aと、ドローン1が備えるモジュール4Bとは、機能や構成が違っても良い。即ち、モジュール4Bには、ドローン1の飛行制御部42に対して、他のモジュール4の接近を知らせる電気信号を送信する機能を持たせてもよい。また、鳴動することで作業者Sに危険を通知するバイブレーション機能はドローン1側のモジュール4Bから除いてもよい。即ち例えば、人用モジュールと、ドローン用モジュールとで違うものであってよい。
Drone 1 and module 4 are not limited to the above examples.
That is, for example, the module 4 is supposed to avoid the danger of contact by estimating the distance, but the present invention is not particularly limited to this. That is, for example, the distance between the modules 4, the relative speed between the modules 4, the actual arrangement such as the arrangement of the shelves, etc. are comprehensively judged to estimate the danger of contact and avoid the danger of contact. It may be there.
Further, for example, the module 4 estimates the distance from radio waves and sound waves, but the radio waves and sound waves are not limited to a specific single frequency. That is, for example, a plurality of frequencies may be handled.
Further, for example, the module 4 has been described as having no particular difference in function or configuration between the worker S and the drone 1, but the present invention is not particularly limited to this. That is, for example, the module 4A included in the worker S and the module 4B included in the drone 1 may have different functions and configurations. That is, the module 4B may have a function of transmitting an electric signal notifying the approach of another module 4 to the flight control unit 42 of the drone 1. Further, the vibration function for notifying the operator S of the danger by ringing may be excluded from the module 4B on the drone 1 side. That is, for example, the human module and the drone module may be different.

このような図15乃至17のドローン1及びモジュール4を用いた場合、ドローンと作業者とが接触する可能性が高い利用状況の場合であっても、接触事故が起こるリスクを低減し、相互の接近感知やその通知、および回避のための制御をすることができるという効果を奏することができる。
このような効果を奏することが可能な移動体は、図15乃至17のドローン1及びモジュール4に限定されず、次のような移動体やモジュールを採用することができる。
即ち、このモジュール(例えば図3の接触防止モジュール4や図15のモジュール4A)は、
他のモジュール(例えば図15のモジュール4B)との接近を推定する接近推定手段(例えば図3の距離推定部401)と、
他のモジュールとの接近を通知する通知手段(例えば図3の鳴動部402)と、
を備えるモジュールであれば足る。
When the drone 1 and the module 4 shown in FIGS. 15 to 17 are used, the risk of contact accidents is reduced and mutual contact is reduced even in a usage situation where there is a high possibility that the drone and the worker come into contact with each other. It can have the effect of being able to detect proximity, notify it, and control it for avoidance.
The moving body capable of exerting such an effect is not limited to the drones 1 and the module 4 of FIGS. 15 to 17, and the following moving bodies and modules can be adopted.
That is, this module (for example, the contact prevention module 4 in FIG. 3 and the module 4A in FIG. 15) is
An approach estimation means (for example, the distance estimation unit 401 in FIG. 3) for estimating the approach to another module (for example, module 4B in FIG. 15) and
A notification means for notifying the approach to another module (for example, the ringing unit 402 in FIG. 3) and
Any module with

以下、図18を用いて、ドローンの位置制御において、自律走行車型の移動体であるドローンを工場内等で移動する場合の例を説明する。 Hereinafter, with reference to FIG. 18, an example of moving a drone, which is an autonomous vehicle type mobile body, in a factory or the like in the position control of the drone will be described.

工場内等で産業機械等を動かすには正確な位置で停止する必要がある。産業機械等を正確な位置で停止する場合には、タイヤの回転した数から推定する移動距離やレーザ等を用いた距離計等を用いる方法がある。
しかし、前述のような従来の距離の推定方法では、タイヤの滑りによる誤差や、レーザを照射する対象とその位置による誤差などが存在した。そこで、図18の例の移動体と距離の推定方法は、上記の距離の推定方法等に加えて用いることができ、工場内等で産業機械等の移動体がより正確な位置で停止することが出来るようにすることを目的とする。
図18は、産業機械等の移動体である平面を移動する走行体であるドローン1が、壁WAにより構成される通路の手前で停止する例を示す図である。
図18において、ドローン1は工場等の内部にある交差点CRに進行している。ドローン1は、他のドローンとの交差点CRの通行の融通をする場合や作業をする場合など、正確な位置で停止することが必要となる。
このような場合、正確な位置で停止したい場所に対して、バミル301を備えることができる。ここで、バミルとは、床や壁面等に正確に貼られた又は刻印される位置を示す印のことである。即ち例えば、停止位置に対して正確に停止したい場所を示す停止線に相当するテープ等の印をバミル301として備えることができる。
ドローン1は、床や壁面等に正確に貼られた又は刻印される等のバミル301を画像認識することにより、高精度な位置に停止できる。即ち例えば、ドローン1の撮像部43により撮像した画像に基づいて路面に張られたバミル301を画像認識することにより、バミル301に対応した位置に停止することにより、高精度に正確な位置で停止することができる。
In order to move industrial machines in factories, etc., it is necessary to stop at an accurate position. When stopping an industrial machine or the like at an accurate position, there is a method of using a moving distance estimated from the number of rotations of a tire or a range finder using a laser or the like.
However, in the conventional distance estimation method as described above, there are errors due to tire slippage and errors due to the target to be irradiated with the laser and its position. Therefore, the moving body and distance estimation method in the example of FIG. 18 can be used in addition to the distance estimation method and the like described above, and the moving body such as an industrial machine stops at a more accurate position in a factory or the like. The purpose is to be able to do.
FIG. 18 is a diagram showing an example in which a drone 1 which is a traveling body moving on a plane which is a moving body of an industrial machine or the like stops before a passage formed by a wall WA.
In FIG. 18, the drone 1 is advancing to the intersection CR inside the factory or the like. The drone 1 needs to be stopped at an accurate position, such as when accommodating the passage of the intersection CR with another drone or when performing work.
In such a case, the bamil 301 can be provided at a place where it is desired to stop at an accurate position. Here, the bamil is a mark indicating a position accurately affixed or engraved on the floor, wall surface, or the like. That is, for example, the bamil 301 can be provided with a mark such as a tape corresponding to a stop line indicating a place where the user wants to stop accurately with respect to the stop position.
The drone 1 can be stopped at a highly accurate position by recognizing an image of the Bamil 301 that is accurately affixed or engraved on the floor, wall surface, or the like. That is, for example, by recognizing the image of the Bamil 301 stretched on the road surface based on the image captured by the image capturing unit 43 of the drone 1, the Bamil 301 is stopped at the position corresponding to the Bamil 301, thereby stopping at a highly accurate and accurate position. can do.

バミル301は上述の例に特に限定されない。
例えば、バミル301は、交差点CRに設けられたものとしたが、特にこれに限定されない。即ち例えば、交差点CRに限らず、産業用機械等の移動体が作業を行う対象の近傍や、移動体の格納場所等の、任意の目的や場所に設けられてよい。
また例えば、バミル301は、テープ等の印としたが、特にそれに限定されない。即ち例えば、二次元バーコード等のバミルを識別し得る情報を含みえる印を用いても良い。
Bamil 301 is not particularly limited to the above example.
For example, the bamil 301 is provided at the intersection CR, but the present invention is not particularly limited thereto. That is, for example, it is not limited to the intersection CR, and may be provided at any purpose or place such as the vicinity of an object on which a moving body such as an industrial machine works, or a storage place for the moving body.
Further, for example, the bamil 301 is marked with a tape or the like, but the present invention is not particularly limited thereto. That is, for example, a mark that can include information that can identify the bamil, such as a two-dimensional bar code, may be used.

このような図18のドローン1及びバミル301を用いた場合、ドローン1は、より正確な位置で停止することができるという効果を奏することができる。
このような効果を奏することが可能な移動体は、図18のバミル301を用いたドローン1に限定されず、次のようなバミルや移動体を採用することができる。
即ち、例えば、工場内等で産業機械(例えば図18のドローン1)などを正確な位置で停止する必要がある場合において、タイヤの回転した数やレーザを用いた距離計などの他に、床や壁面等に正確に貼られたまたは刻印されるなどのバミル(例えば図18のバミル301)を画像認識することにより、高精度な位置に停止することができる。
以上、図18を用いて、ドローンの位置制御において、自律走行車型の移動体であるドローンを工場内等で移動する場合の例を説明した。
When the drone 1 and the bamil 301 of FIG. 18 are used, the drone 1 can have the effect of being able to stop at a more accurate position.
The moving body capable of exerting such an effect is not limited to the drone 1 using the bamil 301 of FIG. 18, and the following bamil and moving body can be adopted.
That is, for example, when it is necessary to stop an industrial machine (for example, drone 1 in FIG. 18) at an accurate position in a factory or the like, in addition to the number of rotations of tires and a range finder using a laser, the floor or the like By recognizing an image of a bamil (for example, bamil 301 in FIG. 18) that is accurately affixed or engraved on a wall surface or the like, it is possible to stop at a highly accurate position.
As described above, in the position control of the drone, an example of moving the drone, which is an autonomous vehicle type mobile body, in a factory or the like has been described with reference to FIG.

以下、図19を用いて、工場内等を無人で走行する移動体であるドローンの位置制御において、補助部材を用いたドッキングの例を説明する。
AGV等の、工場内等で活動する自動機械が設備や機械同士でドッキングする必要がある場合がある。即ち、AGV等の無人で走行する搬送車が、工場内等で活動する場合において、荷物を格納する搬送先の設備や搬送車の充電設備、又は複数の搬送車同士等で結合(ドッキング)する必要がある場合がある。
しかしながら、ドッキングをする場合において、適切な位置や方向から接近してドッキングするためには、高精度なセンサと制御が必要であった。そこで、図19の例の移動体であるドローン1と補助部材とを用いたドッキング方法により、工場内等を無人で走行する移動体であるドローンのドッキングを正確に行うことができるようにすることを目的とする。
Hereinafter, with reference to FIG. 19, an example of docking using an auxiliary member in position control of a drone, which is a moving body that travels unmanned in a factory or the like, will be described.
Automatic machines such as AGVs that operate in factories may need to be docked between equipment and machines. That is, when an unmanned transport vehicle such as an AGV is active in a factory or the like, it is coupled (docked) with a transport destination facility for storing luggage, a charge facility for the transport vehicle, or a plurality of transport vehicles. It may be necessary.
However, in the case of docking, a highly accurate sensor and control are required in order to approach and dock from an appropriate position or direction. Therefore, by a docking method using the drone 1 which is the moving body of the example of FIG. 19 and the auxiliary member, it is possible to accurately dock the drone which is a moving body that runs unmanned in a factory or the like. With the goal.

図19は、工場内等を無人で走行する移動体であるドローン1の位置制御において、補助部材を用いたドッキングの例を示す図である。
図19において、ドローン1は、設備Eに対してドッキングを行おうとしている。即ち例えば、ドローン1及び設備Eの夫々は、充電に係るコネクタの夫々を備え、充電のためドッキングを必要としている。
FIG. 19 is a diagram showing an example of docking using an auxiliary member in position control of a drone 1 which is a moving body that travels unmanned in a factory or the like.
In FIG. 19, the drone 1 is about to dock to the equipment E. That is, for example, each of the drone 1 and the equipment E is provided with a connector for charging, and needs to be docked for charging.

図19の例の補助部材を用いたドッキングの例では、ドローン1は、位置決め形状311を備える。また、設備Eは、位置決め形状312を備える。
ここで、位置決め形状とは、設備側や機械側に加工された半球形等の位置決め形状である。即ち、設備Eやドローン1が備える、半球形の膨らみ及びへこみ等の勘合する対の形状である。
ここで、ドローン1は、モータの力で押しつけることで正確にドッキングすることができる。即ち、ドローン1は、膨らみである位置決め形状311を、設備Eが備えるへこみである位置決め形状312に対して、モータの力で押しつけることで勘合し、正確にドッキングすることができる。具体的には、位置決め形状311及び312は、互いに押しつけた場合において勘合する位置が1つである形状を持つため、押しつけ始めた時点で位置がずれていた場合であっても、押しつけるにつれ勘合する位置に誘導され、結果、勘合する。即ち、補助部材である位置決め形状311及び312は、押しつけることによりある1か所でのみ勘合するため、押しつけ始める時点で位置がずれていてもよい。
In the example of docking using the auxiliary member of the example of FIG. 19, the drone 1 includes a positioning shape 311. Further, the equipment E includes a positioning shape 312.
Here, the positioning shape is a positioning shape such as a hemisphere processed on the equipment side or the machine side. That is, it is a pair of hemispherical bulges and dents provided in the equipment E and the drone 1.
Here, the drone 1 can be accurately docked by pressing it with the force of a motor. That is, the drone 1 can accurately dock the positioning shape 311 which is a bulge by pressing the positioning shape 311 which is a bulge against the positioning shape 312 which is a dent provided in the equipment E by the force of a motor. Specifically, since the positioning shapes 311 and 312 have a shape in which the positions to be fitted are one when pressed against each other, even if the positions are displaced at the time of starting the pressing, they are fitted as they are pressed. It is guided to the position, and as a result, it fits. That is, since the positioning shapes 311 and 312, which are auxiliary members, are fitted at only one place by pressing, the positions may be displaced at the time when the pressing starts.

その後、カムなどで固定してモータを止めても位置がずれないようにすることができる。即ち、勘合した場合において、カム等の押しつける力を発生させることができる。即ち、ドッキングしたのち、押しつける力を発生させていた車輪等のモータの電源を切る等押しつける力を発揮しない状態において、位置がずれないようにすることができる。 After that, it can be fixed with a cam or the like so that the position does not shift even if the motor is stopped. That is, when they are fitted, a pressing force such as a cam can be generated. That is, after docking, the position can be prevented from shifting in a state where the pressing force is not exerted, such as turning off the power of the motor such as the wheel that generated the pressing force.

位置決め形状311は、図19の例の補助部材を用いたドッキングの例に特に限定されない。
例えば、位置決め形状は半球形としたが、特にこれに限定されない。即ち例えば、円錐や角錐等互いに押し付けた場合において勘合する位置が1つである形状であれば足る。
The positioning shape 311 is not particularly limited to the example of docking using the auxiliary member in the example of FIG.
For example, the positioning shape is hemispherical, but the positioning shape is not particularly limited to this. That is, for example, a shape such as a cone or a pyramid that fits at one position when pressed against each other is sufficient.

また例えば、位置決め形状312や311は、ドローン1の充電に係る電極を含むことができる。
従来、充電に係る電極は、所謂電気的なコネクタの形状を有していた。電気的なコネクタは、向きと位置とを正確に合わせなければ、差し込むことができなかった。即ち、充電に係る電極にドッキングする際、ドローン1は正確な向きと位置との移動の制御を実行する必要があった。
更に言えば、図示はしないが、通常の電気的なコネクタは、電極を差し込む側と、電極を差し込まれる側の構造を有している。このようなコネクタのうち、他のコネクタと比較して、向きと位置とを正確に合わせなくても差し込むことが可能なコネクタは、ばね構造を内蔵することが多い。このようなコネクタにおいて、差し込まれる側の電極は、差し込まれた電極に押し付けられる。電極と電極とが押し付けられている部分は、点での接触となる。電極と電極との間で電流を流した場合、接触した点に電流が流れるため、当該接触した点に付着した有機物が焼き付くといったことが起き得る。即ち、このような点での接触の電極に大きな電流を流すと、接触不良が発生することがあった。
Further, for example, the positioning shapes 312 and 311 can include electrodes related to charging the drone 1.
Conventionally, the electrode for charging has a so-called electrical connector shape. The electrical connector could not be plugged in without the correct orientation and position. That is, when docked to the electrode involved in charging, the drone 1 had to perform accurate orientation and position movement control.
Furthermore, although not shown, a normal electrical connector has a structure on the side where the electrode is inserted and the side where the electrode is inserted. Among such connectors, a connector that can be inserted without accurately aligning the orientation and position as compared with other connectors often has a built-in spring structure. In such a connector, the electrode on the side to be inserted is pressed against the inserted electrode. The portion where the electrode is pressed is a point contact. When an electric current is passed between the electrodes, the electric current flows at the point of contact, so that the organic matter adhering to the point of contact may be seized. That is, when a large current is passed through the contact electrodes at such a point, poor contact may occur.

しかしながら、ドローン1の充電にかかる電極を含む位置決め形状312や311は、このような課題を解決することができる。即ち、このような位置決め形状312や311は、上述したように、押し付けることでドローンのドッキングを正確に行うことができる。また、位置決め形状312や311は、面と面とで接触する。即ち、上述したように、位置決め形状312や311は点での接触ではないため、電極と電極の間で大きな電流を流した場合であっても、接触不良が発生する可能性が軽減される。 However, the positioning shapes 312 and 311 including the electrodes for charging the drone 1 can solve such a problem. That is, as described above, such positioning shapes 312 and 311 can be pressed to accurately dock the drone. Further, the positioning shapes 312 and 311 come into contact with each other face to face. That is, as described above, since the positioning shapes 312 and 311 are not in contact with each other at points, the possibility of poor contact is reduced even when a large current is passed between the electrodes.

このような図19の補助部材を用いた場合、ドローン1は、工場内等を無人で走行する移動体であるドローンのドッキングを正確に行うことができるようにすることができるという効果を奏することができる。
このような効果を奏することが可能な補助部材及び移動体は、図19の補助部材及びドローン1に限定されず、次のような補助手段や移動体を採用することができる。
即ち、例えば、AGV等の工場内等で活動する自動機械(例えば図19のドローン1)が設備(例えば図19の設備E)や機械同士(例えば図19に図示せぬ他のドローン1)でドッキングする必要がある場合において、設備側や機械側に加工された半球形等の位置決め形状(例えば図19の位置決め形状312や311)をモータ(例えば図19のドローンの車輪のモータ)の力で押しつけることで正確にドッキングすることができる。
また例えば、(ドッキングした状態において、)カム等で固定することにより、モータを止めても位置がずれないようにすることができる。
When such an auxiliary member of FIG. 19 is used, the drone 1 has the effect of being able to accurately dock the drone, which is a moving body that travels unmanned in a factory or the like. Can be done.
The auxiliary member and the moving body capable of exerting such an effect are not limited to the auxiliary member and the drone 1 of FIG. 19, and the following auxiliary means and the moving body can be adopted.
That is, for example, an automatic machine (for example, the drone 1 in FIG. 19) operating in a factory such as an AGV is equipped with equipment (for example, equipment E in FIG. 19) or machines (for example, another drone 1 not shown in FIG. 19). When it is necessary to dock, the positioning shape such as a hemisphere processed on the equipment side or the machine side (for example, the positioning shape 312 or 311 in FIG. 19) is driven by the force of a motor (for example, the motor of the wheel of the drone in FIG. 19). It can be docked accurately by pressing it.
Further, for example, by fixing with a cam or the like (in the docked state), the position can be prevented from shifting even if the motor is stopped.

以上、本発明及び他の実施形態について説明したが、本発明及び他の実施形態は、上述の実施形態に限定されるものではなく、目的を達成できる範囲での変形、改良等は本発明に含まれるものである。
例えば、上述した実施形態では、壁面点検に係る移動体の一例としてドローンが採用されているが、ドローンに限定されず、あらゆる移動体を採用することができる。例えば、飛行体、自動車等の各種移動体や、マニプレータ等は、いずれも移動体の一例である。このため、従来型の小型移動飛行体であるドローン以外のあらゆる移動体を用いても壁面点検を行うすることができる。
Although the present invention and other embodiments have been described above, the present invention and other embodiments are not limited to the above-described embodiments, and modifications, improvements, etc. within the range in which the object can be achieved are described in the present invention. It is included.
For example, in the above-described embodiment, the drone is adopted as an example of the moving body related to the wall surface inspection, but the drone is not limited to the drone, and any moving body can be adopted. For example, various moving bodies such as flying bodies and automobiles, and manipulators and the like are all examples of moving bodies. Therefore, the wall surface can be inspected by using any moving body other than the drone, which is a conventional small mobile flying body.

また、上述した実施形態において、ドローン1の着陸時に用いる補助部材である着陸ポートの例として図11を用いて説明したが、特にこれに限定されない。即ち例えば、次のような着陸ポートであってよい。
図20は、図2のドローンが着陸時に用いる着陸ポートの例のうち、図11と異なる例を示す図である。
図20の着陸ポート321は、底面板321A及び側面板321Bを備える。
底面板321Aは、着陸ポート321のうち軸Zが負の方向に備えられる、矩形の形状を有する面である。また、側面板321Bは、着陸ポート321のうち軸Yが負の方向に備えられる、矩形の形状を有する面である。
Further, in the above-described embodiment, FIG. 11 has been described as an example of a landing port which is an auxiliary member used at the time of landing of the drone 1, but the present invention is not particularly limited thereto. That is, for example, it may be the following landing port.
FIG. 20 is a diagram showing an example of a landing port used by the drone of FIG. 2 at the time of landing, which is different from that of FIG.
The landing port 321 of FIG. 20 includes a bottom plate 321A and a side plate 321B.
The bottom plate 321A is a surface of the landing port 321 having a rectangular shape in which the axis Z is provided in the negative direction. Further, the side plate 321B is a surface of the landing port 321 having a rectangular shape in which the axis Y is provided in the negative direction.

ここで、底面板321Aは、軸Yが負の方向に辺321L1を有する。底面板321Aと側面板321Bとは、辺321L1介して、着脱可能に接続されている。
また、底面板321Aは、軸Xが負の方向に辺321L2を有する。ここで、着陸ポート321の軸Xが負の方向には、Y−Z平面と平行な壁Wが図示されている。底面板321Aと壁Wとは、辺321L2を介して、接している。
このように、着陸ポート321の底面板321Aからみて、軸Yが負の方向には着陸ポート321の側面板321Bが、軸Xが負の方向には壁Wが、配置されている。
Here, the bottom plate 321A has a side 321L1 in the direction in which the axis Y is negative. The bottom plate 321A and the side plate 321B are detachably connected to each other via the side 321L1.
Further, the bottom plate 321A has a side 321L2 in the direction in which the axis X is negative. Here, a wall W parallel to the YY plane is shown in the direction in which the axis X of the landing port 321 is negative. The bottom plate 321A and the wall W are in contact with each other via the side 321L2.
As described above, when viewed from the bottom plate 321A of the landing port 321, the side plate 321B of the landing port 321 is arranged in the direction in which the axis Y is negative, and the wall W is arranged in the direction in which the axis X is negative.

ここで、ドローン1は、距離計を備える。即ち、ドローン1と底面板321Aとの距離が短くなった場合、ドローン1は、距離計用いて、ドローン1と壁Wや側面板321Bとの距離を測定する。ドローン1は、ドローン1と壁Wや側面板321Bとの距離に基づいて位置の制御を実行する。ドローン1は、壁Wや側面板321Bとの距離を一定となるように着陸することで、底面板321Aに着陸することができる。 Here, the drone 1 includes a range finder. That is, when the distance between the drone 1 and the bottom plate 321A becomes short, the drone 1 measures the distance between the drone 1 and the wall W or the side plate 321B using a range finder. The drone 1 executes position control based on the distance between the drone 1 and the wall W or the side plate 321B. The drone 1 can land on the bottom plate 321A by landing so that the distance from the wall W and the side plate 321B is constant.

また、図20の底面板321Aは、充電ポート331と、充電ポートコネクタ332と、マーカテープ333とを備える。
充電ポート331は、ドローン1の充電に用いられるポートであり、側面板321B及び壁Wから所定の距離だけ離れた位置に配置される。図20の充電ポート331は、着陸ポート321の底面板321Aの略中央に配置されている。
充電ポート331は、充電電極331A,331Bと、電極マーカ331Cとを備える。
充電電極331A,331Bは、ドローン1が着陸ポート321に着陸した際に、ドローン1に電力を供給して充電するための電極である。電極マーカ331Cには、軸Xが正の方向を指す矢印が印刷されている。
Further, the bottom plate 321A of FIG. 20 includes a charging port 331, a charging port connector 332, and a marker tape 333.
The charging port 331 is a port used for charging the drone 1, and is arranged at a position separated from the side plate 321B and the wall W by a predetermined distance. The charging port 331 of FIG. 20 is arranged substantially in the center of the bottom plate 321A of the landing port 321.
The charging port 331 includes charging electrodes 331A and 331B and an electrode marker 331C.
The charging electrodes 331A and 331B are electrodes for supplying electric power to the drone 1 to charge the drone 1 when the drone 1 lands on the landing port 321. The electrode marker 331C is printed with an arrow pointing in the positive direction of the axis X.

ドローン1は、電極マーカ331Cを撮像対象とした画像データを所定のアルゴリズムにより解析することで、電極マーカ331Cの方向を識別する。ドローン1は、電極マーカ331Cの方向に基づいて、充電電極331A,331Bの夫々とドローン1自身の充電に係る端子とを接触するように、ドローン1の位置や方向を制御する。これにより、ドローン1は、着陸ポート321に着陸した上で、ドローン1自身を充電することができる。 The drone 1 identifies the direction of the electrode marker 331C by analyzing the image data of the electrode marker 331C as an imaging target by a predetermined algorithm. The drone 1 controls the position and direction of the drone 1 based on the direction of the electrode marker 331C so that the charging electrodes 331A and 331B come into contact with the terminals related to the charging of the drone 1 itself. As a result, the drone 1 can charge the drone 1 itself after landing on the landing port 321.

充電ポートコネクタ332は、充電ポート331の充電電極331A,331Bに電力を供給する電源ケーブルやコネクタである。充電ポートコネクタ332は、底面板321Aの辺321L2から取り出されている。即ち、図示はしないが、充電ポートコネクタ332は、充電ポート331の充電電極331A,331Bに接続され、底面板321Aの軸Zが負の方向に配線され、辺321L2の側から引き出される。
通常、電力を供給する設備は、壁Wに所謂コンセントとして配置されたり、壁Wに沿って配線されたりする。上述の充電ポートコネクタ332は、このような電力を供給する設備に接続することが容易な構造となっている。
The charging port connector 332 is a power cable or connector that supplies electric power to the charging electrodes 331A and 331B of the charging port 331. The charging port connector 332 is taken out from the side 321L2 of the bottom plate 321A. That is, although not shown, the charging port connector 332 is connected to the charging electrodes 331A and 331B of the charging port 331, the axis Z of the bottom plate 321A is wired in the negative direction, and is pulled out from the side 321L2.
Usually, the equipment for supplying electric power is arranged on the wall W as a so-called outlet, or is wired along the wall W. The charging port connector 332 described above has a structure that makes it easy to connect to equipment that supplies such power.

マーカテープ333は、底面板321Aの軸Zが正の方向の面に接して配置されている。また、マーカテープ333は、底面板321Aを超えて、軸Xが正の方向に伸びて配置されている。
ここで、マーカテープ333には、マーカ333A,333Bが繰り返し印刷されている。ドローン1は、マーカテープ333を撮像対象として撮像した画像のデータに基づいて、マーカテープ333に印刷されたマーカ333A,333B等を所定のアルゴリズムにより解析することができる。ここで、マーカ333A,333Bは、軸Yの方向に非対称となっている。即ち、ドローン1は、マーカ333A,333Bを解析することにより、軸Yが正の方向と軸Yが負の方向とを識別することができる。また、ドローン1は、マーカテープ333のいずれの方向に充電ポート331の底面板321Aが存在するかを記憶している。これにより、マーカテープ333を撮像対象として撮像できる位置に存在するドローン1は、マーカテープ333をたどってドローン1の位置や方向を制御することで、着陸ポート321に着陸することができる。
The marker tape 333 is arranged so that the axis Z of the bottom plate 321A is in contact with the surface in the positive direction. Further, the marker tape 333 is arranged so that the axis X extends in the positive direction beyond the bottom plate 321A.
Here, the markers 333A and 333B are repeatedly printed on the marker tape 333. The drone 1 can analyze the markers 333A, 333B, etc. printed on the marker tape 333 by a predetermined algorithm based on the data of the image captured by the marker tape 333 as the imaging target. Here, the markers 333A and 333B are asymmetric in the direction of the axis Y. That is, the drone 1 can distinguish between the positive direction of the axis Y and the negative direction of the axis Y by analyzing the markers 333A and 333B. Further, the drone 1 stores in which direction of the marker tape 333 the bottom plate 321A of the charging port 331 exists. As a result, the drone 1 existing at a position where the marker tape 333 can be imaged as an imaging target can land at the landing port 321 by following the marker tape 333 and controlling the position and direction of the drone 1.

このような着陸ポート321は、例えば、倉庫といったドローン1がある1つの直線方向に移動することが多い場所において有効である。そこで、以下、マーカテープ333が、倉庫の棚と棚との間に配置される場合において、ドローン1がどのように位置や方向といった移動の制御を実行するかについて例を挙げて説明する。 Such a landing port 321 is effective in a place such as a warehouse where the drone 1 often moves in one straight line direction. Therefore, in the following, when the marker tape 333 is arranged between the shelves of the warehouse, how the drone 1 executes the control of movement such as the position and the direction will be described with an example.

ドローン1は、棚と棚との間を飛行することで、棚に置かれた荷物の状況や運搬といった作業を実行する。この時、ドローン1が備えるカメラは、軸Zが負の方向に存在するマーカテープ333を撮像している。即ち、ドローン1は、マーカテープ333が撮像された画像のデータに基づいて、棚における位置を把握することができる。 The drone 1 flies between shelves to perform tasks such as the status and transportation of luggage placed on the shelves. At this time, the camera included in the drone 1 is photographing the marker tape 333 in which the axis Z exists in the negative direction. That is, the drone 1 can grasp the position on the shelf based on the data of the image captured by the marker tape 333.

ここで、ドローン1の電池の残量が減少した場合、ドローン1は、着陸ポート321に着陸することにより、充電ポート331で充電を行うため着陸ポート321に着陸するための制御を実行する。具体的には、ドローン1は、マーカテープ333が撮像された画像のデータに基づいて、マーカテープ333の端点に存在する着陸ポート321(充電ポート331)の方向に移動する。具体的には図20の例では、ドローン1は、軸Xが正の方向から軸Xが負の方向に移動する。 Here, when the remaining battery level of the drone 1 is low, the drone 1 lands on the landing port 321 to perform control for landing on the landing port 321 in order to charge at the charging port 331. Specifically, the drone 1 moves in the direction of the landing port 321 (charging port 331) existing at the end point of the marker tape 333 based on the data of the image captured by the marker tape 333. Specifically, in the example of FIG. 20, the drone 1 moves from the direction in which the axis X is positive to the direction in which the axis X is negative.

ドローン1が着陸ポート321の略真上(軸Zが正の方向)の位置に移動した場合、ドローン1が備えるカメラは、軸Zが負の方向に存在する電極マーカ331Cを撮像している。そこで、ドローン1は、電極マーカ331Cが撮像された画像のデータに基づいて、電極マーカ331Cにより把握される方向を向いたり、電極マーカ331Cに接近するように移動したりする。 When the drone 1 moves to a position substantially directly above the landing port 321 (the axis Z is in the positive direction), the camera included in the drone 1 is photographing the electrode marker 331C in which the axis Z is in the negative direction. Therefore, the drone 1 faces the direction grasped by the electrode marker 331C or moves so as to approach the electrode marker 331C based on the data of the image captured by the electrode marker 331C.

ドローン1が着陸ポート321と所定の距離以下の位置に移動した場合、ドローン1が備えるカメラは、軸Zが負の方向に存在する電極マーカ331Cの全体を撮像できないことがある。また、ドローン1は、地面効果の影響により、不安定となる。そこで、ドローン1は、距離計用いて、ドローン1と壁Wや側面板321Bとの距離を測定する。また、ドローン1は、ドローン1と壁Wや側面板321Bとの距離に基づいて、移動の制御を実行する。具体的には例えば、ドローン1と壁Wや側面板321Bとの距離が、所定の距離となるように移動の制御を実行する。ドローン1は、更に、軸Zが負の方向に移動する制御を実行する。これにより、ドローン1は、充電ポート331に安定して着陸することができる。 When the drone 1 moves to a position less than or equal to a predetermined distance from the landing port 321, the camera included in the drone 1 may not be able to capture the entire electrode marker 331C in which the axis Z is in the negative direction. In addition, the drone 1 becomes unstable due to the influence of the ground effect. Therefore, the drone 1 measures the distance between the drone 1 and the wall W or the side plate 321B by using a range finder. Further, the drone 1 executes movement control based on the distance between the drone 1 and the wall W or the side plate 321B. Specifically, for example, the movement is controlled so that the distance between the drone 1 and the wall W or the side plate 321B becomes a predetermined distance. The drone 1 further executes control that the axis Z moves in the negative direction. As a result, the drone 1 can stably land on the charging port 331.

即ち、このような着陸ポート321は、以下に示す課題を解決することができる。
即ち、ドローン1が、軸Zが負の方向に備えられたカメラにより撮像されたマーカに基づいて移動の制御を実行する場合、ドローン1が一定以下の高さに移動したとき、マーカは撮像された画像からはみ出すことがある。また、ドローン1が風に煽られた場合、同様に、マーカは、撮像された画像からはみ出すことがある。また、ドローン1が地面効果を受けた場合には、ドローン1は、不安定となる。更に言えば、通常、画像の解析の処理は、計算量が多く、時間がかかる。つまり、ドローン1は、マーカのみに頼って移動の制御を実行する場合、地面効果等による急激な姿勢変化に対応できないことがあった。
That is, such a landing port 321 can solve the following problems.
That is, when the drone 1 executes the movement control based on the marker imaged by the camera provided with the axis Z in the negative direction, the marker is imaged when the drone 1 moves to a height below a certain level. It may extend beyond the image. Also, if the drone 1 is blown by the wind, the markers may also protrude from the captured image. Also, if the drone 1 is affected by the ground effect, the drone 1 becomes unstable. Furthermore, the image analysis process is usually computationally intensive and time consuming. That is, when the drone 1 relies only on the marker to control the movement, the drone 1 may not be able to cope with a sudden change in posture due to the ground effect or the like.

そこで、上述のように、ドローン1は、ドローン1と壁Wや側面板321Bとの距離に基づいた移動の制御を実行する。これにより、ドローン1は、画像処理ではなく、距離計により取得されたドローン1と壁Wや側面板321Bとの距離に基づいて移動の制御を実行することができる。即ち、ドローン1は、計算量が多く時間がかかる画像の解析の処理に依存せずに、移動の制御を実行することができる。その結果として、ドローン1は、地面効果等による急激な姿勢変化に対応することができる。 Therefore, as described above, the drone 1 executes the movement control based on the distance between the drone 1 and the wall W or the side plate 321B. Thereby, the drone 1 can execute the movement control based on the distance between the drone 1 acquired by the range finder and the wall W or the side plate 321B instead of the image processing. That is, the drone 1 can execute the movement control without depending on the image analysis process, which requires a large amount of calculation and takes a long time. As a result, the drone 1 can respond to a sudden change in posture due to the ground effect or the like.

なお、ドローン1がドローン1と壁Wや側面板321Bとの距離に基づいた移動の制御を実行する場合において、ドローン1がX−Y平面と平行ではない姿勢になることがある。この場合、ドローン1は、ドローン1自身の傾きの情報に基づいて、距離計により測定された距離を補正することができる。即ち、ドローン1は、補正された距離に基づいて、移動の制御を実行することができる。 When the drone 1 executes movement control based on the distance between the drone 1 and the wall W or the side plate 321B, the drone 1 may be in a posture that is not parallel to the XY plane. In this case, the drone 1 can correct the distance measured by the range finder based on the information on the inclination of the drone 1 itself. That is, the drone 1 can perform movement control based on the corrected distance.

更に、このような着陸ポート321が利用されることで以下のような効果を奏することができる。
即ち例えば、底面板321Aと側面板321Bとは、着脱可能に接続されている。これにより、着陸ポート321の管理者は、側面板321Bを有しない底面板321Aを、軸Yが負の方向と軸Xが負の方向の2方向に壁Wを配される位置に、配置することができる。更に言えば、着陸ポート321の管理者は、複数の着陸ポート321の底面板321Aを重ねて運搬し、設置場所(例えば倉庫の棚と棚の間を見通せる位置)に配置する作業を容易に行うことができる。
Further, by using such a landing port 321, the following effects can be obtained.
That is, for example, the bottom plate 321A and the side plate 321B are detachably connected to each other. As a result, the manager of the landing port 321 arranges the bottom plate 321A having no side plate 321B at a position where the wall W is arranged in two directions, one in which the axis Y is in the negative direction and the other in which the axis X is in the negative direction. be able to. Furthermore, the manager of the landing port 321 can easily carry out the work of stacking and transporting the bottom plates 321A of the plurality of landing ports 321 and arranging them at the installation location (for example, a position where the shelves of the warehouse can be seen). be able to.

ここで、従来の着陸ポートは、可搬性が低いものが多かった。具体的には例えば、従来の着陸ポートは、ドローンが所定の距離まで近づいた場合に、ドローンを挟みこむような構造を有するものであった。即ち、従来の着陸ポートにおける着陸に係る制御において、ドローンは、精度よく着陸の制御を実行できなかった。このため、従来の着陸ポートは、所定の距離まで近づいたドローンを挟み込んで着陸させると共に固定する構造であった。このような着陸ポートは、可動部を有するために大型化し、可搬性は低いものであった。
しかしながら、上述の実施形態における着陸ポート321は、上述のように、可搬性が高い。また、このような着陸ポート321が利用された場合、上述したように、ドローン1の着陸に係る制御において、地面効果等による急激な姿勢変化に対応することができる。
また例えば、側面板321Bを備えることにより、着陸ポート321に着陸しようとするドローン1に、横風が当たることを防いだり、緩和したりすることができる。
Here, many of the conventional landing ports have low portability. Specifically, for example, the conventional landing port has a structure that sandwiches the drone when the drone approaches a predetermined distance. That is, in the conventional control related to landing at the landing port, the drone could not accurately control the landing. For this reason, the conventional landing port has a structure in which a drone approaching a predetermined distance is sandwiched, landed, and fixed. Since such a landing port has a movable part, it is large and has low portability.
However, the landing port 321 in the above-described embodiment is highly portable as described above. Further, when such a landing port 321 is used, as described above, it is possible to cope with a sudden change in attitude due to the ground effect or the like in the control related to the landing of the drone 1.
Further, for example, by providing the side plate 321B, it is possible to prevent or mitigate the crosswind from hitting the drone 1 that is about to land on the landing port 321.

また、上述した実施形態において、図13及び図14を用いて、ドローン1の着陸時に用いる補助部材の例であるカメラを用いた制御の例について説明したが、特にこれに限定されない。即ち例えば、ドローン1の着陸時に用いる補助部材の例であるカメラを用いた制御は、以下のように利用することができる。 Further, in the above-described embodiment, an example of control using a camera, which is an example of an auxiliary member used at the time of landing of the drone 1, has been described with reference to FIGS. 13 and 14, but the present invention is not particularly limited thereto. That is, for example, control using a camera, which is an example of an auxiliary member used at the time of landing of the drone 1, can be used as follows.

図21は、図2のドローンを地上のカメラを用いて撮像して制御する例のうち、図13と異なる例を示す図である。
図21には、ダムと、ダムの近くを飛行するドローン1が図示されている。第1実施形態で説明した壁面点検に係る技術は、ダムの壁面においても有用である。しかしながら、ダムの壁面は極めて広大であり、ドローン1がダムの壁面のいずれの位置を飛行しているかを精度よく把握するのは難しい。
FIG. 21 is a diagram showing an example different from that of FIG. 13 among the examples in which the drone of FIG. 2 is imaged and controlled by using a camera on the ground.
FIG. 21 illustrates a dam and a drone 1 flying near the dam. The technique related to the wall surface inspection described in the first embodiment is also useful on the wall surface of the dam. However, the wall surface of the dam is extremely large, and it is difficult to accurately grasp the position of the drone 1 flying on the wall surface of the dam.

そこで、例えば、ダムの壁面点検を行う管理者は、ビーコンB1乃至B4を、ダムの壁面に設置することができる。ドローン1は、ビーコンB1乃至B4の夫々との距離の夫々を測定する。これにより、ドローン1は、ビーコンB1乃至B4に囲われた領域において、ドローン1の位置の識別の精度を向上させることができる。
しかしながら、広大なダムの壁面において、ドローン1の位置の識別の精度を向上させるように複数のビーコンを配置することはダムの位置や作業の容易さの観点から難しい。
Therefore, for example, the manager who inspects the wall surface of the dam can install the beacons B1 to B4 on the wall surface of the dam. The drone 1 measures each of the distances to each of the beacons B1 to B4. As a result, the drone 1 can improve the accuracy of identifying the position of the drone 1 in the region surrounded by the beacons B1 to B4.
However, it is difficult to arrange a plurality of beacons on the wall surface of a vast dam so as to improve the accuracy of identifying the position of the drone 1 from the viewpoint of the position of the dam and the ease of work.

そこで、ダムの壁面点検を行う管理者は、図13及び図14を用いて説明したドローン1の着陸時に用いる補助部材の例であるカメラを用いた制御を利用することができる。
図21には、補助部材の例である地上のカメラCが図示されている。カメラCは、ダムの壁面のうち、点線で示されるビーコンB1乃至B4に囲われた領域を撮像している。即ち、このようなカメラCは、ダムの壁面のうち、所定の領域と、当該領域を飛行するドローン1を撮像している。
ドローン1を制御する操縦者端末2は、カメラCにより撮像された画像のデータを解析することにより、ドローン1がダムの壁面のいずれの位置を飛行しているかを把握することができる。
具体的には例えば、操縦者端末2は、カメラCにより撮像された画像において、ダムの壁面のいずれの位置が撮像されているかを解析することができる。即ち、操縦者端末2は、カメラCにより撮像された画像のうちいずれの座標(画素)が、ダムの壁面のいずれの位置に対応するかを取得することができる。また、操縦者端末2は、カメラCにより撮像された画像のうちいずれの座標(画素)に、ドローン1が位置しているかを解析することができる。即ち、操縦者端末2は、カメラCにより撮像された画像のうちいずれの座標(画素)に、ドローン1が位置しているかを取得することができる。
Therefore, the manager who inspects the wall surface of the dam can use the control using a camera, which is an example of the auxiliary member used at the time of landing of the drone 1 described with reference to FIGS. 13 and 14.
FIG. 21 shows a camera C on the ground, which is an example of an auxiliary member. The camera C captures an area of the wall surface of the dam surrounded by the beacons B1 to B4 shown by the dotted line. That is, such a camera C captures a predetermined region of the wall surface of the dam and the drone 1 flying in the region.
The operator terminal 2 that controls the drone 1 can grasp which position on the wall surface of the dam the drone 1 is flying by analyzing the data of the image captured by the camera C.
Specifically, for example, the operator terminal 2 can analyze which position of the wall surface of the dam is captured in the image captured by the camera C. That is, the operator terminal 2 can acquire which coordinates (pixels) of the image captured by the camera C correspond to which position on the wall surface of the dam. In addition, the operator terminal 2 can analyze which coordinates (pixels) of the image captured by the camera C the drone 1 is located. That is, the operator terminal 2 can acquire which coordinates (pixels) of the image captured by the camera C the drone 1 is located.

このように、操縦者端末2は、カメラCを用いることで、ドローン1がダムの壁面のいずれの位置を飛行しているかを精度よく把握させるための画像を取得することができる。
即ち、ダムの壁面点検を行う管理者は、ビーコンB1乃至B4等をダムの壁面に設置することなく、このようなカメラCを利用することができる。これにより、ダムの壁面点検を行う管理者は、低コストにダムの壁面点検を行うことができる。
また、ダムの壁面点検においても、上述の図13及び図14における、映像上のドローン1の識別方法は、種々の方法を用いることができる。即ち例えば、ドローン1は所定の周波数のLEDを備えることができる。この場合、カメラCが当該周波数を透過するフィルタを備えることにより、操縦者端末2は、撮像された画像上において、ドローン1がいずれの座標(画素)に位置しているかを容易に解析することができる。
In this way, the operator terminal 2 can acquire an image for accurately grasping which position of the wall surface of the dam the drone 1 is flying by using the camera C.
That is, the manager who inspects the wall surface of the dam can use such a camera C without installing the beacons B1 to B4 and the like on the wall surface of the dam. As a result, the manager who inspects the wall surface of the dam can inspect the wall surface of the dam at low cost.
Further, also in the wall surface inspection of the dam, various methods can be used as the method of identifying the drone 1 on the image in FIGS. 13 and 14 described above. That is, for example, the drone 1 can be equipped with an LED having a predetermined frequency. In this case, since the camera C is provided with a filter that transmits the frequency, the operator terminal 2 can easily analyze at which coordinates (pixels) the drone 1 is located on the captured image. Can be done.

また、上述した実施形態において、図18を用いて、産業機械等の移動体である平面を移動する走行体であるドローンが、壁により構成される通路の手前で停止する例について説明したが、特にこれに限定されない。即ち例えば、産業機械等の移動体である平面を移動する走行体であるドローン1が通路の手前で停止する場合、以下のようなバミルを利用することができる。 Further, in the above-described embodiment, an example in which a drone, which is a traveling body that moves on a plane, which is a moving body such as an industrial machine, stops before a passage formed by a wall has been described with reference to FIG. It is not particularly limited to this. That is, for example, when the drone 1 which is a traveling body moving on a plane which is a moving body of an industrial machine or the like stops in front of a passage, the following bamil can be used.

図22は、産業機械等の移動体である平面を移動する走行体であるドローンが、壁により構成される通路の手前で停止する例のうち、図18と異なる例を示す図である。
図22には、当該通路を移動するドローン1が図示されている。ここで、図示はしないが、ドローン1は、バミル341乃至343を撮像するためのカメラを備える。即ち、ドローン1に備えられたカメラは、所定の領域PRを撮像しながら移動している。
また、図22には、複数の壁WAからなる交差点と、交差点への通路に設置されたバミル341乃至343が図示されている。バミル341は、図18のバミル301と同様にL字型の形状を有する。図18を用いて説明したように、バミル341に対応した位置に停止することにより、高精度に正確な位置で停止することができる。
FIG. 22 is a diagram showing an example different from that of FIG. 18 among examples in which a drone, which is a traveling body that moves on a plane, which is a moving body of an industrial machine or the like, stops in front of a passage formed by a wall.
FIG. 22 shows a drone 1 moving in the passage. Here, although not shown, the drone 1 includes a camera for photographing the bamils 341 to 343. That is, the camera provided in the drone 1 is moving while capturing a predetermined area PR.
Further, FIG. 22 shows an intersection composed of a plurality of wall WAs and bamils 341 to 343 installed in the passage to the intersection. The bamil 341 has an L-shape similar to the bamil 301 of FIG. As described with reference to FIG. 18, by stopping at a position corresponding to the bamil 341, it is possible to stop at a highly accurate and accurate position.

また、バミル342は、バミル341に更に1つの正方形の形状を有する。
また、バミル343は、バミル341に更に2つの正方形の形状を有する。
バミル341乃至343の夫々の正方形の形状の数は、複数の壁WAからなる交差点との距離に対応する数となっている。即ち、図22に示すように、交差点への通路に設置されたバミル341乃至343は、交差点との距離に対応した数の所定の形状を有することができる。
Further, the bamil 342 has one more square shape than the bamil 341.
The bamil 343 also has two more square shapes on the bamil 341.
The number of each square shape of the bamils 341 to 343 corresponds to the distance to the intersection composed of the plurality of wall WAs. That is, as shown in FIG. 22, the bamils 341 to 343 installed in the passage to the intersection can have a number of predetermined shapes corresponding to the distance from the intersection.

このように、バミルは、バミルの位置を特定可能なバーコード等を備えることができる。
これにより、バミルに基づいて移動するドローン1は、交差点との距離が近いバミル(例えば、図22のバミル342)を検出した場合、徐々に減速して、交差点の位置のバミル(例えば、図22のバミル341)において停止するといった制御を実行することができる。
In this way, the bamil can be provided with a bar code or the like that can specify the position of the bamil.
As a result, when the drone 1 moving based on the bamil detects a bamil (for example, the bamil 342 in FIG. 22) that is close to the intersection, the drone 1 gradually decelerates and the bamil at the position of the intersection (for example, FIG. 22). It is possible to execute a control such as stopping at the Bamil 341).

なお、バミル341乃至343は、蛍光塗料といった蓄光する部材により作成されるのが好適である。
即ち例えば、図22において、バミル342は、ドローン1とドローン1が走行する床面との間に配置されている。ここで、通常、光源(例えば、屋内であれば天井の電灯。また例えば、屋外であれば太陽)は、ドローン1の上に存在する。このような場合、ドローン1は、床面に対して影を作る。
このような環境において、ドローン1が図22と異なる位置に存在する間には、バミル342は蓄光する。次に、ドローン1が図22と同様の位置に存在するときには、ドローン1が作る影において発光する。即ち、図22のバミル342は、ドローン1と床面との間で発光している。
The bamils 341 to 343 are preferably made of a phosphorescent member such as a fluorescent paint.
That is, for example, in FIG. 22, the bamil 342 is arranged between the drone 1 and the floor surface on which the drone 1 travels. Here, the light source (for example, a ceiling lamp if indoors, or the sun if outdoors) is usually present on the drone 1. In such a case, the drone 1 casts a shadow on the floor surface.
In such an environment, while the drone 1 is present at a position different from that shown in FIG. 22, the bamil 342 glows. Next, when the drone 1 is present at the same position as in FIG. 22, it emits light in the shadow created by the drone 1. That is, the bamil 342 of FIG. 22 emits light between the drone 1 and the floor surface.

このように、ドローン1は、ドローン1自身が作る影に入ったバミル342を撮像することができる。このようなバミル342を採用することで、以下のような効果を奏することができる。 In this way, the drone 1 can image the bamil 342 in the shadow created by the drone 1 itself. By adopting such a Bamil 342, the following effects can be obtained.

ドローン1は、前方を撮像するカメラにより取得された画像のデータに基づいて、ドローン1の前方の床面に配置されたバミル(目印)や物体を把握してして、移動の制御を実行することができる。しかしながら、ドローン1とバミルと光源との位置関係が所定の条件を満たす場合、バミル自体やバミルの周辺の床面は、ドローン1の上部の光源を略鏡面的な反射をすることがあった。即ち、カメラが光源からの強い光の反射を受けてしまい、ドローン1は、バミルを識別できないことがあった。
しかしながら、上述のような、蛍光塗料といった蓄光する部材により作成されたバミルを利用することにより、ドローン1がバミルを識別できないことを発生させないという効果を奏する。即ち、このような場合、ドローン1は、ドローン1自身の陰において、発光するバミルを撮像すれば足りる。これにより、ドローン1が備えるカメラは、ドローン1自身の影という黒い背景において発光するバミルの形状を撮像することができる。
The drone 1 grasps the bamil (mark) and the object arranged on the floor surface in front of the drone 1 based on the image data acquired by the camera that images the front, and executes the movement control. be able to. However, when the positional relationship between the drone 1 and the bamil and the light source satisfies a predetermined condition, the bamil itself and the floor surface around the bamil may reflect the light source on the upper part of the drone 1 in a substantially mirror manner. That is, the camera may receive strong reflection of light from the light source, and the drone 1 may not be able to identify the bamil.
However, by using a bamil made of a phosphorescent member such as a fluorescent paint as described above, it is possible to obtain an effect that the drone 1 does not cause the bamil to be indistinguishable. That is, in such a case, it is sufficient for the drone 1 to image the light emitting Bamil in the shadow of the drone 1 itself. As a result, the camera included in the drone 1 can capture the shape of the bamil that emits light on the black background of the shadow of the drone 1 itself.

また、図3に示す機能ブロック図は、例示に過ぎず、特に限定されない。即ち、上述した一連の処理を全体として実行出来る機能がドローン1等に備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは、特に図3の例に限定されない。 Further, the functional block diagram shown in FIG. 3 is merely an example and is not particularly limited. That is, it suffices if the drone 1 or the like is provided with a function capable of executing the above-mentioned series of processes as a whole, and what kind of functional block is used to realize this function is not particularly limited to the example of FIG. ..

また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体との組み合わせで構成してもよい。 Further, one functional block may be configured by a single hardware or a combination of a single software.

各機能ブロックの処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
When the processing of each functional block is executed by software, the programs constituting the software are installed on a computer or the like from a network or a recording medium.
The computer may be a computer embedded in dedicated hardware. Further, the computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose smartphone or a personal computer in addition to a server.

このようなプログラムを含む記録媒体は、各ユーザにプログラムを提供するために装置本体とは別に配布される、リムーバブルメディアにより構成されるだけではなく、装置本体に予め組み込まれた状態で各ユーザに提供される記録媒体等で構成される。 The recording medium containing such a program is not only composed of removable media, which is distributed separately from the device main body in order to provide the program to each user, but also is preliminarily incorporated in the device main body to each user. It is composed of the provided recording medium and the like.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に添って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。 In the present specification, the steps for describing a program recorded on a recording medium are not necessarily processed in chronological order according to the order, but are not necessarily processed in chronological order, but are arranged in parallel or individually. It also includes the processing to be executed.

1・・・ドローン、2・・・操縦者端末、3・・・サーバ、U・・・操縦者、G・・・GPS衛星、N・・・ネットワーク、W・・・無線装置、41・・・駆動部、42・・・飛行制御部、43・・・撮像部、44・・・壁面点検センサ部、45・・・吊下制御部、46・・・貨物格納部、47・・・認証部、4・・・接触防止モジュール、401・・・距離推定部、402・・・鳴動部、403・・・通信部、R・・・中継用ドローン、601・・・位置取得部、602・・・通信部、603・・・撮像部、GR・・・地面、B・・・ビル、101・・・ワイヤ、102・・・ワイヤ、103・・・ワイヤ、111・・・モータ、112・・・モータ、113・・・モータ、121・・・ケーブル、131・・・固定点、132・・・固定点、141・・・ローラ、BH・・・張出し部、151・・・脚部、201・・・離着陸ポート、211・・・支持柱、221・・・着陸ポート、231・・・底面板、232・・・底面骨組、233・・・底面ネット、241・・・側面板、242・・・側面板、243・・・側面板、251・・・ヒンジ、252・・・ヒンジ、261・・・ロープ取付部、262・・・ロープ取付部、271・・・ロープ、C・・・カメラ、S・・・作業者、T・・・棚、301・・・バミル、F・・・設備、311・・・位置決め形状、312・・・位置決め形状、321・・・着陸ポート、331・・・充電ポート、332・・・充電ポートコネクタ、333・・・マーカテープ、341乃至343・・・バミル 1 ... Drone, 2 ... Operator terminal, 3 ... Server, U ... Operator, G ... GPS satellite, N ... Network, W ... Radio device, 41 ...・ Drive unit, 42 ・ ・ ・ Flight control unit, 43 ・ ・ ・ Imaging unit, 44 ・ ・ ・ Wall inspection sensor unit, 45 ・ ・ ・ Suspension control unit, 46 ・ ・ ・ Cargo storage unit, 47 ・ ・ ・ Certification Unit, 4 ... contact prevention module, 401 ... distance estimation unit, 402 ... ringing unit, 403 ... communication unit, R ... relay drone, 601 ... position acquisition unit, 602 ...・ ・ Communication unit, 603 ・ ・ ・ Imaging unit, GR ・ ・ ・ Ground, B ・ ・ ・ Building, 101 ・ ・ ・ Wire, 102 ・ ・ ・ Wire, 103 ・ ・ ・ Wire, 111 ・ ・ ・ Motor, 112 ・・ ・ Motor, 113 ・ ・ ・ Motor, 121 ・ ・ ・ Cable, 131 ・ ・ ・ Fixed point, 132 ・ ・ ・ Fixed point, 141 ・ ・ ・ Roller, BH ・ ・ ・ Overhang part, 151 ・ ・ ・ Leg part, 201 ... takeoff and landing port, 211 ... support pillar, 221 ... landing port, 231 ... bottom plate, 232 ... bottom frame, 233 ... bottom net, 241 ... side plate, 242 ... Side plate, 243 ... Side plate, 251 ... Hinge, 252 ... Hinge, 261 ... Rope mounting part, 262 ... Rope mounting part, 271 ... Rope, C ... -Camera, S ... worker, T ... shelf, 301 ... bamil, F ... equipment, 311 ... positioning shape, 312 ... positioning shape, 321 ... landing port, 331 ... Charging port, 332 ... Charging port connector, 333 ... Marker tape, 341 to 343 ... Bamil

Claims (1)

空間を移動するための駆動手段を有する移動体において、
所定の構造物の上部と前記移動体とを接続し、前記移動体に対する重力を支持する重力支持手段、
を備え、
前記駆動手段は、前記移動体に対する前記重力に対して垂直方向に前記移動体を移動する駆動力を発生する、
移動体。
In a moving body having a driving means for moving in space
A gravity supporting means that connects the upper part of a predetermined structure and the moving body and supports gravity with respect to the moving body.
With
The driving means generates a driving force for moving the moving body in a direction perpendicular to the gravity of the moving body.
Mobile body.
JP2020556141A 2018-11-13 2019-11-13 Mobile Pending JPWO2020100945A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018212814 2018-11-13
JP2018212814 2018-11-13
PCT/JP2019/044559 WO2020100945A1 (en) 2018-11-13 2019-11-13 Moving body

Publications (1)

Publication Number Publication Date
JPWO2020100945A1 true JPWO2020100945A1 (en) 2021-09-30

Family

ID=70730793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020556141A Pending JPWO2020100945A1 (en) 2018-11-13 2019-11-13 Mobile

Country Status (2)

Country Link
JP (1) JPWO2020100945A1 (en)
WO (1) WO2020100945A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2024005385A (en) * 2022-06-30 2024-01-17 ココネット株式会社 Information processing system, information processing device, information processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018052429A (en) * 2016-09-30 2018-04-05 株式会社エンルートM’s Unmanned work device, method for the same and program
JP2018095394A (en) * 2016-12-12 2018-06-21 株式会社自律制御システム研究所 Work system
JP2018149973A (en) * 2017-03-14 2018-09-27 富士通株式会社 Flight vehicle operation system, crane apparatus control method, and control program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018052429A (en) * 2016-09-30 2018-04-05 株式会社エンルートM’s Unmanned work device, method for the same and program
JP2018095394A (en) * 2016-12-12 2018-06-21 株式会社自律制御システム研究所 Work system
JP2018149973A (en) * 2017-03-14 2018-09-27 富士通株式会社 Flight vehicle operation system, crane apparatus control method, and control program

Also Published As

Publication number Publication date
WO2020100945A1 (en) 2020-05-22

Similar Documents

Publication Publication Date Title
US20200207474A1 (en) Unmanned aerial vehicle and payload delivery system
EP3662335B1 (en) Model for determining drop-off spot at delivery location
US10974911B2 (en) Replenishment station for aerial vehicle with robotic device and conveyor
US9817396B1 (en) Supervisory control of an unmanned aerial vehicle
US20220048625A1 (en) Methods and Systems for Door-Enabled Loading and Release of Payloads in an Unmanned Aerial Vehicle (UAV)
US10249200B1 (en) Deployable delivery guidance
WO2018034295A1 (en) Information processing system
US11667402B2 (en) Landing pad with charging and loading functionality for unmanned aerial vehicle
CN111542795B (en) Adjustable object avoidance proximity threshold based on presence of propeller guard
JP2019513653A (en) Unmanned aerial vehicle system and method interacting with specifically intended objects
JP6527299B1 (en) Method of determining an article delivery location, method of determining a landing location, an article delivery system, and an information processing apparatus
KR20180083342A (en) Robot coordination system
CN106794971A (en) Transported by the load for loading processing equipment
US20210209543A1 (en) Directing secondary delivery vehicles using primary delivery vehicles
JP6748797B1 (en) Unmanned aerial vehicle control system, unmanned aerial vehicle control method, and program
CN111527460A (en) Methods and systems using deployed Unmanned Aerial Vehicles (UAVs) dedicated to operating infrastructure
GB2567142A (en) Delivery system
JPWO2020100945A1 (en) Mobile
WO2021166845A1 (en) Information processing device, information processing method, and program
US11772793B2 (en) Flying object with elongated body
JP6726043B2 (en) Object detection sensor and monitoring system
US20240217659A1 (en) Payload Retrieval Apparatus with Extending Member For Use with a UAV
US20240217682A1 (en) Combination Payload Retrieval and Package Pickup Apparatus for Use with a UAV
US20230406499A1 (en) Curbside UAV Loading
WO2022124392A1 (en) Aircraft and aircraft control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231219