WO2021038622A1 - 無人移動体の制御システムおよび無人移動体の制御方法 - Google Patents

無人移動体の制御システムおよび無人移動体の制御方法 Download PDF

Info

Publication number
WO2021038622A1
WO2021038622A1 PCT/JP2019/032998 JP2019032998W WO2021038622A1 WO 2021038622 A1 WO2021038622 A1 WO 2021038622A1 JP 2019032998 W JP2019032998 W JP 2019032998W WO 2021038622 A1 WO2021038622 A1 WO 2021038622A1
Authority
WO
WIPO (PCT)
Prior art keywords
moving body
control
unmanned moving
unmanned
control system
Prior art date
Application number
PCT/JP2019/032998
Other languages
English (en)
French (fr)
Inventor
賢次 小関
Original Assignee
株式会社トラジェクトリー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社トラジェクトリー filed Critical 株式会社トラジェクトリー
Priority to PCT/JP2019/032998 priority Critical patent/WO2021038622A1/ja
Publication of WO2021038622A1 publication Critical patent/WO2021038622A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/18Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C19/00Aircraft control not otherwise provided for
    • B64C19/02Conjoint controls
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot

Definitions

  • the present disclosure relates to an unmanned moving body control system and an unmanned moving body control method.
  • Patent Document 1 discloses a system for grasping a self-position using distance measurement data and two-dimensional image data.
  • the present invention has been made in view of such a background, and an unmanned moving body is moved in a desired direction without relying on GPS by a simpler configuration than the conventional one to inspect a structure or the like.
  • the purpose is to provide technology.
  • a control system for controlling an unmanned mobile body wherein the control system includes the unmanned moving body and a control device, and the unmanned moving body has at least a first propulsion mechanism.
  • the control device includes one unmanned moving body and a second unmanned moving body having a second propulsion mechanism, and the control device transfers control information for controlling the position of the first unmanned moving body to the first unmanned moving body.
  • the first unmanned mobile body includes a communication unit for transmitting, and the first unmanned mobile body includes a transmission / reception unit for transmitting a control result of the first propulsion mechanism accompanying execution of an operation based on the control information to the second unmanned mobile body. 2
  • the unmanned mobile body is provided with a control system including a control unit that controls the second propulsion mechanism based on the control result.
  • control method for controlling an unmanned moving body wherein control information for controlling the position of the first unmanned moving body is transmitted from the control device to the first unmanned moving body.
  • a control method including a step of controlling the second drive unit is provided.
  • the air vehicle according to the embodiment of the present disclosure has the following configuration.
  • (Item 1) A control system that controls unmanned moving objects
  • the control system includes the unmanned mobile body and a control device.
  • the unmanned mobile includes at least a first unmanned mobile having a first propulsion mechanism and a second unmanned mobile having a second propulsion mechanism.
  • the control device includes a communication unit that transmits control information for controlling the position of the first unmanned moving body to the first unmanned moving body.
  • the first unmanned moving body includes a transmission / reception unit that transmits a control result of the first propulsion mechanism accompanying execution of an operation based on the control information to the second unmanned moving body.
  • the second unmanned moving body includes a control unit that controls the second propulsion mechanism based on the control result.
  • a control system characterized by that.
  • the first unmanned mobile body and the second unmanned mobile body have the same performance as each other.
  • the control device includes a position information acquisition unit that acquires position information of the first unmanned moving body.
  • the control device controls the position of the first unmanned moving body by using the position information.
  • the control system according to item 1 or 2 characterized in that.
  • the control device further includes an environmental data acquisition unit that acquires environmental data around the first unmanned moving body or the second unmanned moving body, and a control result correction unit that corrects the control result based on the environmental data.
  • the unmanned moving body is an unmanned aerial vehicle, The control system according to any one of items 1 to 4, characterized in that.
  • the second unmanned moving body includes a photographing device.
  • FIG. 1 is a diagram showing an outline of a control system 1 for an unmanned moving object according to the present embodiment.
  • control system 1 for an unmanned moving body is composed of a control device 10 and unmanned moving bodies 20 and 30.
  • the control device 10 is connected to at least the unmanned mobile body 20 via a network such as the Internet.
  • networks include local area networks (LAN), wide area networks (WAN), infrared, wireless, WiFi, point-to-point (P2P) networks, telecommunications networks, cloud communications, and the like.
  • the unmanned moving body 20 can autonomously fly based on the control information 40 (including GPS information) obtained in advance from the control device 10, or can be operated and controlled by the control device 10 by the remote control information 40.
  • Examples include unmanned aerial vehicles (eg, drones).
  • Information such as time, acceleration, tilt, and other operating conditions of the device is transmitted automatically or in response to a request from the control device 10.
  • an unmanned aerial vehicle is shown in FIG. 1, but the moving body may be, for example, a vehicle or a ship, and may be a moving body that operates by a control signal.
  • the form is not particularly limited.
  • the unmanned moving body 30 is a moving body of the same type as the unmanned moving body 20, and examples thereof include an unmanned aerial vehicle (for example, a drone) as in the specific example of the present embodiment of FIG.
  • the unmanned moving body 20 and the unmanned moving body 30 are connected to each other via, for example, infrared rays, WiFi, Bluetooth (registered trademark), BLE (Bluetooth Low Energy), wired, etc., thereby transmitting and receiving the control result 50. ing.
  • the unmanned mobile body 30 is located indoors, under a bridge, or the like, and the control information 40 from the control device 10 is difficult to reach (for example, outside the radio range from the control device 10) or cannot reach accurately (for example, multi). It is a moving body that moves (under the condition of the pass phenomenon), and has a form of moving based on at least the control result 50 transmitted from the unmanned moving body 20.
  • control result 50 in the specific example of the present embodiment is, for example, the control related to the propulsion mechanism of the unmanned moving body 20 (for example, the rotation speed of the motor of the unmanned aerial vehicle, the direction of the propeller, and the unmanned vehicle). It can be the result of engine or motor speed, tire orientation, etc.). Then, the propulsion mechanism of the unmanned moving body 30 is controlled based on the control result 50 in the same manner as the propulsion mechanism of the unmanned moving body 20, for example.
  • the performance difference between the unmanned moving body 20 and the unmanned moving body 30 (for example, the performance difference of the motor) and the environmental data (for example, wind direction and wind power, weather data, etc.) at which the unmanned moving body 20 or the unmanned moving body 30 is located, etc. ) Is known in advance, the correction amount calculation unit 114 (described later) calculates the correction amount of the control result 50 based on these data, and based on this correction amount, the unmanned moving body 20 side or the unmanned person By correcting the control result 50 on the moving body 30 side, it is possible to move both unmanned moving bodies with higher accuracy and substantially the same.
  • the environmental data for example, wind direction and wind power, weather data, etc.
  • FIG. 2 is a diagram showing a hardware configuration of the control device 10.
  • the illustrated configuration is an example, and may have other configurations.
  • control device 10 is connected to a database (not shown) to form a part of the system.
  • the control device 10 may be a general-purpose computer such as a workstation or a personal computer, or may be logically realized by cloud computing.
  • the control device 10 includes at least a control unit 11, a memory 12, a storage 13, a communication unit 14, an input / output unit 15, and the like, and these are electrically connected to each other through a bus 16.
  • the control unit 11 is an arithmetic unit that controls the operation of the entire control device 10, controls the transmission and reception of data between each element, and performs information processing and the like necessary for application execution and authentication processing.
  • the control unit 11 is a CPU (Central Processing Unit), and executes each information processing by executing a program or the like stored in the storage 13 and expanded in the memory 12.
  • the memory 12 includes a main memory composed of a volatile storage device such as a DRAM (Dynamic Random Access Memory) and an auxiliary storage composed of a flash memory or a non-volatile storage device such as an HDD (Hard Disk Drive). ..
  • the memory 12 is used as a work area or the like of the control unit 11, and also stores a BIOS (Basic Input / Output System) executed when the control device 10 is started, various setting information, and the like.
  • BIOS Basic Input / Output System
  • the storage 13 stores various programs such as application programs.
  • a database storing data used for each process may be built in the storage 13.
  • the communication unit 14 connects the control device 10 to the network and / or the blockchain network.
  • the communication unit 14 may be provided with a short-range communication interface of Bluetooth (registered trademark) and BLE (Bluetooth Low Energy).
  • the input / output unit 15 is an information input device such as a keyboard and a mouse, and an output device such as a display.
  • the bus 16 is commonly connected to each of the above elements and transmits, for example, an address signal, a data signal, and various control signals.
  • FIG. 3 is a functional block diagram of the unmanned moving body 20 according to the present embodiment.
  • the unmanned moving body 20 is illustrated in FIG. 3, the unmanned moving body 30 may have the same configuration or a partially different configuration.
  • the following functional block diagram is described as a concept stored in a single device (unmanned aerial vehicle in FIG. 3) for the sake of simplicity, but for example, some of its functions are described as an external device (unmanned aerial vehicle). For example, it may be logically configured by exerting it on the control device 10) or by using cloud computing technology.
  • the flight controller 21 can have one or more processors such as a programmable processor (for example, a central processing unit (CPU)).
  • a programmable processor for example, a central processing unit (CPU)
  • CPU central processing unit
  • the flight controller 21 has a memory 211 and can access the memory.
  • Memory 211 stores logic, code, and / or program instructions that the flight controller 21 can execute to perform one or more steps.
  • the memory 211 may include, for example, a separable medium such as an SD card or random access memory (RAM) or an external storage device.
  • the data acquired from the external device 25 such as the camera 251 or the sensor 252 may be directly transmitted and stored in the memory 211.
  • still image / moving image data taken by a camera or the like is recorded in an internal memory or an external memory.
  • the external device 35 is installed on the flying object via the gimbal 24.
  • the flight controller 21 includes a control unit 212 configured to control the state of the flying object.
  • the control unit 212 adjusts the spatial arrangement, velocity, and / or acceleration of an air vehicle having six degrees of freedom (translational motion x, y and z, and rotational motion ⁇ x , ⁇ y and ⁇ z).
  • the propulsion mechanism (motor 27, etc.) of the flying object is controlled via the ESC 26.
  • the motor 27 rotates the propeller 28 to generate lift of the flying object.
  • the control unit 212 can control one or more of the states of the mounting unit and the sensors.
  • the flight controller 21 is a transmitter / receiver configured to transmit and / or receive data from one or more external devices (eg, transmitter / receiver (propo), terminal, display device, or other remote controller). It is possible to communicate with 23.
  • the transmitter / receiver can use any suitable communication means such as wired communication or wireless communication.
  • the transmission / reception unit 23 is one or more of a local area network (LAN), a wide area network (WAN), infrared rays, wireless, wired, WiFi, point-to-point (P2P) networks, telecommunications networks, cloud communications, and the like. Can be used.
  • LAN local area network
  • WAN wide area network
  • P2P point-to-point
  • the transmission / reception unit 23 transmits and / or transmits one or more of data acquired by a camera or various sensors, a processing result generated by the flight controller 21, predetermined control data, a user command from a terminal or a remote controller, and the like. Or you can receive it.
  • the above-mentioned communication between the unmanned moving bodies is performed via the transmission / reception unit 23.
  • the sensor according to this embodiment is an inertial sensor (accelerometer, gyro sensor), positioning sensor (GPS sensor), proximity sensor (eg, rider), geomagnetic sensor, or vision. / May include an image sensor (eg, a camera).
  • FIG. 4 is a block diagram showing the functions of the control unit 11 and the storage 13 in the control device 10 according to the present embodiment.
  • the configuration shown in FIG. 4 is an example, and is not limited to this.
  • the control unit 11 includes a position information acquisition unit 111, a movement control unit 112, a surrounding environment data acquisition unit 113, and a correction amount calculation unit 114. Further, the storage 13 includes a position information storage unit 131 and a surrounding environment data storage unit 132.
  • the position information acquisition unit 111 acquires at least the position information of the unmanned moving body 20.
  • the position information of the unmanned moving body 20 is generated by the positioning sensor (GPS sensor) of the unmanned moving body 20.
  • the position information of the unmanned moving body 20 is continuously transmitted to the control device 10 via the transmission / reception unit 23 of the unmanned moving body 20.
  • the position information acquisition unit 111 acquires the position information of the unmanned moving body 20 via the communication unit 14, and stores the position information in the position information storage unit 131.
  • the position information acquisition unit 111 may acquire the position information of the unmanned moving body 30.
  • the movement control unit 112 generates at least control information 40 for moving the unmanned moving body 20, and transmits the control information 40 to the unmanned moving body 20 via the communication unit 14.
  • the control information 40 is, for example, GPS information.
  • the surrounding environment data acquisition unit 113 acquires the surrounding environment data of the place where the unmanned moving body 20 or the unmanned moving body 30 is planned to be located, and stores it in the surrounding environment data storage unit 132.
  • the surrounding environment data includes, for example, the wind speed and the wind direction of the place where the inspection is carried out, but is not limited to these.
  • the acquisition method is, for example, access to a database (not shown) of environmental data connected via a network, input by a user via an input / output unit 15, but is not limited to these.
  • the correction amount calculation unit 114 uses, for example, a performance difference between the unmanned moving body 20 and the unmanned moving body 30 and the surrounding environment data acquired by the surrounding environment data acquisition unit 113 as teacher data by using a general machine learning method.
  • the correction amount of the control result 50 may be calculated.
  • the correction amount calculation unit 114 has, for example, a data table (not shown) in which the numerical range of the performance difference and the surrounding environment data and the correction amount of the control result 50 are associated with each other, whereby the correction amount of the control result 50 can be calculated. It may be calculated.
  • the calculated correction amount of the control result 50 is transmitted to the unmanned moving body 20 together with the control information 40 via, for example, the communication unit 14.
  • FIG. 5 is a block diagram showing the functions of the control unit 212 and the memory 211 in the unmanned moving body 20 according to the present embodiment.
  • the configuration shown in FIG. 5 is an example, and is not limited to this.
  • the control unit 212 includes a control amount acquisition unit 2121 and a control result correction unit 2122. Further, the memory 211 includes a control amount storage unit 2111 and a correction amount storage unit 2112.
  • the control amount acquisition unit 2121 detects the control amount of the propulsion mechanism, for example, the rotation speed of the motor 27, acquires this rotation speed as the control amount, and transmits it to the unmanned moving body 30 as the control result 50 via the transmission / reception unit 23. .. Further, when the control system 1 has a function of correcting the control result 50, the control unit 212 has a control result correction unit 2122.
  • the control result correction unit 2122 is based on a control amount stored in the control amount storage unit 2111 after being acquired by the control amount acquisition unit 2121 and a correction amount stored in the correction amount storage unit 2112 after receiving from the control device 10.
  • a correction control amount is generated so that the unmanned moving body 20 and the unmanned moving body 30 move substantially in the same manner, and this is transmitted to the unmanned moving body 30 as a control result 50.
  • FIG. 6 is a flowchart of flight control of the unmanned moving body 20 and the unmanned moving body 30 in the control system 1 according to the present embodiment.
  • the position information acquisition unit 111 of the control device 10 acquires position information and the like from the unmanned moving body 20 (step SQ101). Such position information may be acquired sequentially, or may be acquired when the control information 40 is generated.
  • the movement control unit 112 of the control device 10 generates control information 40 indicating the position of the unmanned moving body 20 after movement (step SQ102).
  • the movement control unit 112 of the control device 10 transmits the generated control information 40 to the unmanned moving body 20 (step SQ103). If necessary, the correction amount of the control result 50 may also be transmitted.
  • the unmanned moving body 20 moves to a designated position based on the received control information 40 (step SQ104).
  • the control amount acquisition unit 2121 of the unmanned moving body 20 acquires the control amount of the propulsion mechanism required to move to the designated position (step SQ105).
  • the control amount acquisition unit 2121 transmits the control amount as the control result 50 to the unmanned moving body 30 (step SQ109).
  • the control result 50 may be transmitted sequentially, or may be transmitted at any timing during movement to a specified position. If necessary, the correction control amount corrected based on the received correction amount may be transmitted as the control result 50.
  • the unmanned moving body 30 controls the propulsion mechanism based on the received control result 50, and moves to a position according to the controlled amount (step SQ107).
  • the unmanned moving body 30 may also perform an operation according to the application, such as taking a picture of an inspection target with a camera 251 provided in the unmanned moving body 30.
  • the unmanned moving body is moved in a desired direction and the structure is inspected or the like by using a simpler configuration than the conventional one, without relying on GPS. Can be realized.
  • the device described in the present specification may be realized as a single device, or may be realized by a plurality of devices (for example, a cloud server) in which some or all of them are connected by a network.
  • the control unit 11 and the storage 13 of the control device 10 may be realized by different servers connected to each other by a network.
  • the series of processes by the apparatus described in the present specification may be realized by using any of software, hardware, and a combination of software and hardware. It is possible to create a computer program for realizing each function of the control device 10 according to the present embodiment and implement it on a PC or the like. It is also possible to provide a computer-readable recording medium in which such a computer program is stored.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Further, the above computer program may be distributed via a network, for example, without using a recording medium.
  • the air vehicle disclosed in this disclosure can be expected to be used as an industrial air vehicle in surveys, surveys, observations, etc.
  • the aircraft of the present disclosure can be used in airplane-related industries such as multicopter drones, and further, through this disclosure, it contributes to the improvement of the safety of these aircraft and the flight of the aircraft. be able to.
  • Control system 10 Control device 20 Unmanned moving body 30 Unmanned moving body

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】従来よりも簡易な構成により、GPSに依らずに無人移動体を所望の方向に移動させて構造物の点検等を実施することができる制御システムを提供すること。 【解決手段】本開示に係る無人移動体の制御システムは、前記無人移動体と、制御装置と、を備え、前記無人移動体は、少なくとも第1推進機構を有する第1無人移動体と、第2推進機構を有する第2無人移動体と、を含み、前記制御装置は、前記第1無人移動体の位置を制御するための制御情報を前記第1無人移動体へ送信する通信部を備え、前記第1無人移動体は、前記制御情報に基づく動作の実行に伴う前記第1推進機構の制御結果を前記第2無人移動体へ送信する送受信部を備え、前記第2無人移動体は、前記制御結果に基づいて前記第2推進機構の制御を行う制御部を備える。

Description

無人移動体の制御システムおよび無人移動体の制御方法
 本開示は、無人移動体の制御システムおよび無人移動体の制御方法に関する。
 近年、ドローン(Drone)または無人航空機などの無人飛行体を利用した様々なサービスが提供されている。
 これらの無人飛行体の制御にはGPS(Global Positioning System)が多く用いられているが、構造物の点検時などにはGPSの電波が無人飛行体に届かなかったり、GPSの電波が構造物に反射してマルチパス現象が発生したりすることもあり、GPSに頼らない飛行制御も必要となっている。たとえば、特許文献1には、測距データと2次元画像データとを用いて自己位置を把握するシステムが開示されている。
特開2016-111414号公報
 しかしながら、特許文献1に記載のシステムでは、自己位置を推定するために、測距データの情報と、移動ベクトル算出装置による2枚の画像の解析結果と、に基づき移動ベクトルを求めるなどの複雑な計算処理等を行っていた。
 そこで、本発明はこのような背景を鑑みてなされたものであり、従来よりも簡易な構成により、GPSに依らずに無人移動体を所望の方向に移動させて構造物の点検等を実施する技術を提供することを目的とする。
 本開示によれば、無人移動体を制御する制御システムであって、前記制御システムは、前記無人移動体と、制御装置と、を備え、前記無人移動体は、少なくとも第1推進機構を有する第1無人移動体と、第2推進機構を有する第2無人移動体と、を含み、前記制御装置は、前記第1無人移動体の位置を制御するための制御情報を前記第1無人移動体へ送信する通信部を備え、前記第1無人移動体は、前記制御情報に基づく動作の実行に伴う前記第1推進機構の制御結果を前記第2無人移動体へ送信する送受信部を備え、前記第2無人移動体は、前記制御結果に基づいて前記第2推進機構の制御を行う制御部を備える、ことを特徴とする制御システムが提供される。
 また、本開示によれば、無人移動体を制御する制御方法であって、第1無人移動体の位置を制御するための制御情報を制御装置から前記第1無人移動体へ送信するステップと、前記制御情報に基づく動作の実行に伴う前記第1駆動部の制御結果を前記第1無人移動体から第2無人移動体へ送信するステップと、前記制御結果に基づいて前記第2無人移動体の第2駆動部の制御を行うステップと、を含むことを特徴とする制御方法が提供される。
 本開示によれば、簡易な構成により、GPSに依らずに無人移動体を所望の方向に移動させて構造物の点検等を実現することができる。
本実施形態に係る無人移動体の制御システムの概要を示す図である。 本実施形態に係る制御装置のハードウェア構成を示す図である。 本実施形態に係る無人移動体のハードウェア構成を示す図である。 本実施形態に係る制御装置における制御部及びストレージの機能を示すブロック図である。 本実施形態に係る無人移動体における制御部及びメモリの機能を示すブロック図である。 本実施形態に係る制御システムにおける無人移動体の移動制御に係るフローチャート図である。
 本開示の実施形態の内容を列記して説明する。本開示の実施の形態による飛行体は、以下のような構成を備える。
 (項目1)
 無人移動体を制御する制御システムであって、
 前記制御システムは、前記無人移動体と、制御装置と、を備え、
 前記無人移動体は、少なくとも第1推進機構を有する第1無人移動体と、第2推進機構を有する第2無人移動体と、を含み、
 前記制御装置は、前記第1無人移動体の位置を制御するための制御情報を前記第1無人移動体へ送信する通信部を備え、
 前記第1無人移動体は、前記制御情報に基づく動作の実行に伴う前記第1推進機構の制御結果を前記第2無人移動体へ送信する送受信部を備え、
 前記第2無人移動体は、前記制御結果に基づいて前記第2推進機構の制御を行う制御部を備える、
 ことを特徴とする制御システム。
 (項目2)
 前記第1無人移動体と前記第2無人移動体は、互いに性能が同じである、
 ことを特徴とする項目1に記載の制御システム。
 (項目3) 
 前記制御装置は、前記第1無人移動体の位置情報を取得する位置情報取得部を備え、
 前記制御装置は、前記位置情報を用いて前記第1無人移動体の位置を制御する、
 ことを特徴とする項目1または2に記載の制御システム。
 (項目4) 
 前記制御装置は、第1無人移動体または第2無人移動体の周辺の環境データを取得する環境データ取得部と、前記環境データに基づき、前記制御結果を補正する制御結果補正部と、をさらに備える、
 ことを特徴とする項目1乃至3に記載の制御システム。
 (項目5) 
 前記無人移動体は、無人飛行体である、
 ことを特徴とする項目1乃至4のいずれかに記載の制御システム。
 (項目6)
 前記第2無人移動体は、撮影装置を備える、
 ことを特徴とする項目1乃至5のいずれかに記載の制御システム。
 (項目7)
 無人移動体を制御する制御方法であって、
 第1無人移動体の位置を制御するための制御情報を制御装置から前記第1無人移動体へ送信するステップと、
 前記制御情報に基づく動作の実行に伴う第1推進機構の制御結果を前記第1無人移動体から第2無人移動体へ送信するステップと、
 前記制御結果に基づいて前記第2無人移動体の第2推進機構の制御を行うステップと、
 を含むことを特徴とする制御方法。
 以下、本実施形態に係る無人移動体の制御システムについて、図面を参照しながら説明する。図1は、本実施形態に係る無人移動体の制御システム1の概要を示す図である。
 図1に示すように、無人移動体の制御システム1は、制御装置10、無人移動体20、30から構成される。
 制御装置10は、インターネット等のネットワークを介して、少なくとも無人移動体20と接続する。ネットワークの例として、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信等が挙げられる。
 無人移動体20として、例えば、制御装置10から事前に得た制御情報40(例えばGPS情報を含む)に基づき自律飛行する、または、制御装置10により遠隔からの制御情報40により操作、制御され得る無人飛行体(例えば、ドローン等)が挙げられる。無人移動体20から制御装置10に対して、所定の情報、例えば、無人移動体20の飛行位置情報(緯度、経度、高度等)、飛行経路、バッテリの使用量/残量、飛行速度、飛行時間、加速度、傾き、その他機器の動作状況等の情報を、自動または制御装置10からの要求に応じて送信する。なお、本実施形態の無人移動体の具体的例として、図1では無人飛行体を示しているが、移動体としては、例えば、車両や船舶などでもよく、制御信号により動作する移動体であれば特に形態は限定されない。
 無人移動体30は、無人移動体20と同種の移動体であり、例えば、図1の本実施形態の具体例のように無人飛行体(例えば、ドローン等)が挙げられる。無人移動体20と無人移動体30とは、例えば、赤外線、WiFi、Bluetooth(登録商標)、BLE(Bluetooth Low Energy)、有線等を介して互いに接続されており、これにより制御結果50を送受信している。
 無人移動体30は、例えば、屋内や橋梁下などに位置し、制御装置10からの制御情報40が届きにくい場所(例えば、制御装置10からの電波圏外)または正確に届かない場所(例えば、マルチパス現象の状況下)を移動する移動体であり、少なくとも無人移動体20から送信された制御結果50に基づき移動する形態を有している。
 より具体的には、本実施形態の具体例における制御結果50とは、例えば、無人移動体20が有する推進機構に関する制御(例えば、無人飛行体が有するモータの回転数やプロペラの向き、無人車両が有するエンジンまたはモータの回転数やタイヤの向きなど)の結果であり得る。そして、無人移動体30の推進機構は、制御結果50に基づき、例えば、無人移動体20が有する推進機構と同様に制御される。
 これにより、制御情報40を制御装置10から無人移動体30へ送信せずとも、無人移動体20への制御結果から推測される位置へ無人移動体30を移動させることが可能となる。特に、無人移動体20と無人移動体30が同じ性能を有するものであったり、例えば風のような環境からの影響を受けにくい状況であったりすれば、両無人移動体は実質的に同じように移動するため、無人移動体30を所望の位置に容易に移動させることが可能である。
 なお、無人移動体20と無人移動体30の性能差(例えば、モータの性能差など)や、無人移動体20または無人移動体30の位置する環境データ(例えば、風向き及び風力や、天候データなど)を事前に把握している場合には、これらのデータに基づき補正量算出部114(後述)により制御結果50の補正量を算出し、この補正量を基に、無人移動体20側または無人移動体30側で制御結果50を補正することで、両無人移動体をより精度高く実質的に同じように移動させることも可能である。
 以下、制御システム1の各構成について説明する。
 図2は、制御装置10のハードウェア構成を示す図である。なお、図示された構成は一例であり、これ以外の構成を有していてもよい。
 図示されるように、制御装置10は、データベース(図示せず)と接続されシステムの一部を構成する。制御装置10は、例えばワークステーションまたはパーソナルコンピュータのような汎用コンピュータとしてもよいし、或いはクラウドコンピューティングによって論理的に実現されてもよい。
 制御装置10は、少なくとも、制御部11、メモリ12、ストレージ13、通信部14および入出力部15等を備え、これらはバス16を通じて相互に電気的に接続される。
 制御部11は、制御装置10全体の動作を制御し、各要素間におけるデータの送受信の制御、及びアプリケーションの実行及び認証処理に必要な情報処理等を行う演算装置である。例えば制御部11はCPU(Central Processing Unit)であり、ストレージ13に格納されメモリ12に展開されたプログラム等を実行して各情報処理を実施する。
 メモリ12は、DRAM(Dynamic Random Access Memory)等の揮発性記憶装置で構成される主記憶と、フラッシュメモリまたはHDD(Hard Disc Drive)等の不揮発性記憶装置で構成される補助記憶と、を含む。メモリ12は、制御部11のワークエリア等として使用され、また、制御装置10の起動時に実行されるBIOS(Basic Input/Output System)、及び各種設定情報等を格納する。
 ストレージ13は、アプリケーション・プログラム等の各種プログラムを格納する。各処理に用いられるデータを格納したデータベースがストレージ13に構築されていてもよい。
 通信部14は、制御装置10をネットワークおよび/またはブロックチェーンネットワークに接続する。なお、通信部14は、Bluetooth(登録商標)及びBLE(Bluetooth Low Energy)の近距離通信インタフェースを備えていてもよい。
 入出力部15は、キーボード・マウス類等の情報入力機器、及びディスプレイ等の出力機器である。
 バス16は、上記各要素に共通に接続され、例えば、アドレス信号、データ信号及び各種制御信号を伝達する。
 図3は、本実施形態に係る無人移動体20の機能ブロック図である。なお、図3では無人移動体20を例示しているが、無人移動体30は同一の構成であってもよいし、一部が異なる構成であってもよい。また、以下の機能ブロック図は説明を簡単にするために、単一のデバイス(図3では無人飛行体)に格納された概念として記載しているが、例えば、その一部機能を外部デバイス(例えば、制御装置10)に発揮させたり、クラウドコンピューティング技術を利用することによって論理的に構成されていてもよい。
 フライトコントローラ21は、プログラマブルプロセッサ(例えば、中央演算処理装置(CPU))などの1つ以上のプロセッサを有することができる。
 フライトコントローラ21は、メモリ211を有しており、当該メモリにアクセス可能である。メモリ211は、1つ以上のステップを行うためにフライトコントローラ21が実行可能であるロジック、コード、および/またはプログラム命令を記憶している。
 メモリ211は、例えば、SDカードまたはランダムアクセスメモリ(RAM)などの分離可能な媒体または外部の記憶装置を含んでいてもよい。カメラ251またはセンサ252等の外部機器25から取得したデータは、メモリ211に直接に伝達されかつ記憶されてもよい。例えば、カメラ等で撮影した静止画・動画データが内蔵メモリ又は外部メモリに記録される。外部機器35は飛行体にジンバル24を介して設置される。
 フライトコントローラ21は、飛行体の状態を制御するように構成された制御部212を含んでいる。例えば、制御部212は、6自由度(並進運動x、y及びz、並びに回転運動θ、θ及びθ)を有する飛行体の空間的配置、速度、および/または加速度を調整するために、ESC26を経由して飛行体の推進機構(モータ27等)を制御する。モータ27によりプロペラ28が回転することで飛行体の揚力を生じさせる。制御部212は、搭載部、センサ類の状態のうちの1つ以上を制御することができる。
 フライトコントローラ21は、1つ以上の外部のデバイス(例えば、送受信機(プロポ)、端末、表示装置、または他の遠隔の制御器)からのデータを送信および/または受け取るように構成された送受信部23と通信可能である。送受信機は、有線通信または無線通信などの任意の適当な通信手段を使用することができる。
 例えば、送受信部23は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、有線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信などのうちの1つ以上を利用することができる。
 送受信部23は、カメラまたは各種センサにより取得されたデータ、フライトコントローラ21が生成した処理結果、所定の制御データ、端末または遠隔の制御器からのユーザコマンドなどのうちの1つ以上を送信および/または受け取ることができる。なお、本実施形態においては、上述の無人移動体間の通信(特に、制御結果50の送受信)は、この送受信部23を介して行われる。
 本実施の形態によるセンサ(フライトコントローラ21または外部機器25に含まれる)は、慣性センサ(加速度センサ、ジャイロセンサ)、測位センサ(GPSセンサ)、近接センサ(例えば、ライダー)、地磁気センサ、またはビジョン/イメージセンサ(例えば、カメラ)を含み得る。
 図4は、本実施形態に係る制御装置10における制御部11及びストレージ13の機能を示すブロック図である。なお、図4に図示される構成は一例であり、これに限らない。
 制御部11は、位置情報取得部111、移動制御部112、周辺環境データ取得部113および補正量算出部114を備える。また、ストレージ13は、位置情報記憶部131および周辺環境データ記憶部132を備える。
 位置情報取得部111は、少なくとも無人移動体20の位置情報を取得する。無人移動体20の位置情報は、無人移動体20の測位センサ(GPSセンサ)によって生成される。無人移動体20の位置情報は、無人移動体20の送受信部23を介して制御装置10に継続的に送信される。位置情報取得部111は、通信部14を介して無人移動体20の位置情報を取得し、当該位置情報を位置情報記憶部131に記憶する。なお、無人移動体30が制御装置10と通信可能な位置にいる場合には、位置情報取得部111により無人移動体30の位置情報を取得してもよい。
 移動制御部112は、少なくとも無人移動体20を移動させるための制御情報40を生成し、通信部14を介して無人移動体20へ送信する。制御情報40は、例えば、GPS情報などである。
 周辺環境データ取得部113は、無人移動体20または無人移動体30の位置する予定である場所の周辺環境データを取得し、周辺環境データ記憶部132に記憶する。周辺環境データとは、例えば、点検を実施する場所の風速や風向などであるが、これらに限らない。取得方法は、例えば、ネットワークを介して接続される環境データのデータベース(不図示)へのアクセス、入出力部15を介したユーザによる入力などであるが、これらに限らない。
 補正量算出部114は、例えば、無人移動体20と無人移動体30の性能差や、周辺環境データ取得部113により取得した周辺環境データなどを教師データとして、一般的な機械学習手法を用いて制御結果50の補正量を算出してもよい。また、補正量算出部114は、例えば、性能差や周辺環境データの数値範囲と制御結果50の補正量を対応付けたデータテーブル(不図示)を有し、これにより制御結果50の補正量を算出してもよい。なお、算出された制御結果50の補正量は、例えば通信部14を介して制御情報40とともに、無人移動体20へ送信される。
 図5は、本実施形態に係る無人移動体20における制御部212及びメモリ211の機能を示すブロック図である。なお、図5に図示される構成は一例であり、これに限らない。
 制御部212は、制御量取得部2121および制御結果補正部2122を備える。また、メモリ211は、制御量記憶部2111および補正量記憶部2112を備える。
 制御量取得部2121は、推進機構の制御量、例えばモータ27の回転数を検出し、この回転数を制御量として取得し、送受信部23を介して制御結果50として無人移動体30へ送信する。また、本制御システム1が制御結果50を補正する機能を有する場合には、制御部212は、制御結果補正部2122を有する。
 制御結果補正部2122は、制御量取得部2121が取得した後に制御量記憶部2111に記憶された制御量と、制御装置10から受信した後に補正量記憶部2112に記憶された補正量とに基づき、無人移動体20と無人移動体30とが実質的に同じように移動するような補正制御量を生成し、これを制御結果50として無人移動体30へ送信する。
 図6は、本実施形態に係る制御システム1における無人移動体20と無人移動体30の飛行制御に係るフローチャート図である。まず、制御装置10の位置情報取得部111は、無人移動体20から位置情報等を取得する(ステップSQ101)。かかる位置情報は逐次的に取得されてもよいし、制御情報40の生成時に取得されてもよい。
 次に、制御装置10の移動制御部112は、無人移動体20の移動後の位置を示す制御情報40を生成する(ステップSQ102)。次に、制御装置10の移動制御部112は、生成した制御情報40を無人移動体20に送信する(ステップSQ103)。なお、必要に応じて、制御結果50の補正量を併せて送信してもよい。
 次に、無人移動体20は、受信した制御情報40に基づき、指定された位置まで移動する(ステップSQ104)。次に、無人移動体20の制御量取得部2121は、指定された位置までの移動に要した推進機構の制御量を取得する(ステップSQ105)。次に、制御量取得部2121は、制御量を制御結果50として無人移動体30に送信する(ステップSQ109)。制御結果50は、逐次的に送信されてもよいし、指定された位置までの移動中のいずれかのタイミングに送信されてもよい。なお、必要に応じて、受信した補正量に基づき補正された補正制御量を制御結果50として送信してもよい。
 次に、無人移動体30は、受信した制御結果50に基づき、推進機構を制御し、その制御量に応じた位置へ移動する(ステップSQ107)。なお、無人移動体30は、例えば、無人移動体30に備えられたカメラ251により点検対象を撮影したりなど、用途に応じた動作も併せて実施されてもよい。
 以上説明したように、本実施形態に係る制御システム1によれば、従来よりも簡易な構成により、GPSに依らずに無人移動体を所望の方向に移動させて構造物の点検等を実施することを実現することができる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 本明細書において説明した装置は、単独の装置として実現されてもよく、一部または全部がネットワークで接続された複数の装置(例えばクラウドサーバ)等により実現されてもよい。例えば、制御装置10の制御部11およびストレージ13は、互いにネットワークで接続された異なるサーバにより実現されてもよい。
 本明細書において説明した装置による一連の処理は、ソフトウェア、ハードウェア、及びソフトウェアとハードウェアとの組合せのいずれを用いて実現されてもよい。本実施形態に係る制御装置10の各機能を実現するためのコンピュータプログラムを作製し、PC等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 また、本明細書においてフローチャートを用いて説明した処理は、必ずしも図示された順序で実行されなくてもよい。いくつかの処理ステップは、並列的に実行されてもよい。また、追加的な処理ステップが採用されてもよく、一部の処理ステップが省略されてもよい。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 本開示の飛行体は、調査、測量、観察等における産業用の飛行体としての利用が期待できる。また、本開示の飛行体は、マルチコプター・ドローン等の飛行機関連産業において利用することができ、さらに、本開示を通じて、これらの飛行体及び飛行体の飛行に関連する安全性の向上に寄与することができる。
 1     制御システム
 10    制御装置
 20    無人移動体
 30    無人移動体

 

Claims (7)

  1.  無人移動体を制御する制御システムであって、
     前記制御システムは、前記無人移動体と、制御装置と、を備え、
     前記無人移動体は、少なくとも第1推進機構を有する第1無人移動体と、第2推進機構を有する第2無人移動体と、を含み、
     前記制御装置は、前記第1無人移動体の位置を制御するための制御情報を前記第1無人移動体へ送信する通信部を備え、
     前記第1無人移動体は、前記制御情報に基づく動作の実行に伴う前記第1推進機構の制御結果を前記第2無人移動体へ送信する送受信部を備え、
     前記第2無人移動体は、前記制御結果に基づいて前記第2推進機構の制御を行う制御部を備える、
     ことを特徴とする制御システム。
  2.  前記第1無人移動体と前記第2無人移動体は、互いに性能が同じである、
     ことを特徴とする請求項1に記載の制御システム。
  3.  前記制御装置は、前記第1無人移動体の位置情報を取得する位置情報取得部を備え、
     前記制御装置は、前記位置情報を用いて前記第1無人移動体の位置を制御する、
     ことを特徴とする請求項1または2に記載の制御システム。
  4.  前記制御装置は、第1無人移動体または第2無人移動体の周辺の環境データを取得する環境データ取得部と、前記環境データに基づき、前記制御結果を補正する制御結果補正部と、をさらに備える、
     ことを特徴とする請求項1乃至3に記載の制御システム。
  5.  前記無人移動体は、無人飛行体である、
     ことを特徴とする請求項1乃至4のいずれかに記載の制御システム。
  6.  前記第2無人移動体は、撮影装置を備える、
     ことを特徴とする請求項1乃至5のいずれかに記載の制御システム。
  7.  無人移動体を制御する制御方法であって、
     第1無人移動体の位置を制御するための制御情報を制御装置から前記第1無人移動体へ送信するステップと、
     前記制御情報に基づく動作の実行に伴う第1推進機構の制御結果を前記第1無人移動体から第2無人移動体へ送信するステップと、
     前記制御結果に基づいて前記第2無人移動体の第2推進機構の制御を行うステップと、
     を含むことを特徴とする制御方法。

     
PCT/JP2019/032998 2019-08-23 2019-08-23 無人移動体の制御システムおよび無人移動体の制御方法 WO2021038622A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/032998 WO2021038622A1 (ja) 2019-08-23 2019-08-23 無人移動体の制御システムおよび無人移動体の制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/032998 WO2021038622A1 (ja) 2019-08-23 2019-08-23 無人移動体の制御システムおよび無人移動体の制御方法

Publications (1)

Publication Number Publication Date
WO2021038622A1 true WO2021038622A1 (ja) 2021-03-04

Family

ID=74684130

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/032998 WO2021038622A1 (ja) 2019-08-23 2019-08-23 無人移動体の制御システムおよび無人移動体の制御方法

Country Status (1)

Country Link
WO (1) WO2021038622A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207023A (ja) * 1999-01-20 2000-07-28 Mazda Motor Corp 車両制御装置
JP2011216007A (ja) * 2010-04-01 2011-10-27 Gen Inc 搬送台車システム
JP2018073367A (ja) * 2016-11-04 2018-05-10 株式会社豊田中央研究所 ロボットシステム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207023A (ja) * 1999-01-20 2000-07-28 Mazda Motor Corp 車両制御装置
JP2011216007A (ja) * 2010-04-01 2011-10-27 Gen Inc 搬送台車システム
JP2018073367A (ja) * 2016-11-04 2018-05-10 株式会社豊田中央研究所 ロボットシステム

Similar Documents

Publication Publication Date Title
US10914590B2 (en) Methods and systems for determining a state of an unmanned aerial vehicle
US20220137643A1 (en) Aircraft control method and aircraft
Meyer et al. Comprehensive simulation of quadrotor uavs using ros and gazebo
EP3583675B1 (en) A system having a plurality of unmanned aerial vehicles and a method of controlling a plurality of unmanned aerial vehicles
Sa et al. Build your own visual-inertial drone: A cost-effective and open-source autonomous drone
WO2017206179A1 (en) Simple multi-sensor calibration
JP2021117502A (ja) 着陸制御装置、着陸制御方法およびプログラム。
CN108205328B (zh) 建立供交通工具遵循的与目标相邻的飞行图式的系统和方法
WO2021199449A1 (ja) 位置算出方法及び情報処理システム
JP2021072091A (ja) 計算負荷分散方法、計算負荷分散装置、可動物体、データ処理方法、データ処理装置、およびプログラム
CN112136137A (zh) 一种参数优化方法、装置及控制设备、飞行器
JP6713156B2 (ja) 無人飛行体のフライト管理サーバ及びフライト管理システム
US20210240185A1 (en) Shooting control method and unmanned aerial vehicle
WO2021251441A1 (ja) 方法、システムおよびプログラム
WO2020042159A1 (zh) 一种云台的转动控制方法、装置及控制设备、移动平台
JP6807093B1 (ja) 点検システム及び管理サーバ、プログラム、ヒビ割れ情報提供方法
JP2021118364A (ja) 通信制御装置、通信制御方法およびプログラム。
JP7149569B2 (ja) 建造物の測定方法
WO2021038622A1 (ja) 無人移動体の制御システムおよび無人移動体の制御方法
WO2022264413A1 (ja) 移動体の移動経路生成方法及びプログラム、管理サーバ、管理システム
WO2021064982A1 (ja) 情報処理装置および情報処理方法
WO2020158892A1 (ja) 撮影方法
CN110622086A (zh) 可移动物体应用框架
WO2021087724A1 (zh) 一种控制方法、控制设备、可移动平台及控制系统
WO2021053715A1 (ja) 制御システムおよび制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19942975

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19942975

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP