WO2022124392A1 - 飛行体及び飛行体の制御方法 - Google Patents

飛行体及び飛行体の制御方法 Download PDF

Info

Publication number
WO2022124392A1
WO2022124392A1 PCT/JP2021/045500 JP2021045500W WO2022124392A1 WO 2022124392 A1 WO2022124392 A1 WO 2022124392A1 JP 2021045500 W JP2021045500 W JP 2021045500W WO 2022124392 A1 WO2022124392 A1 WO 2022124392A1
Authority
WO
WIPO (PCT)
Prior art keywords
motor
aircraft
propeller
flying object
obstacle
Prior art date
Application number
PCT/JP2021/045500
Other languages
English (en)
French (fr)
Inventor
周平 小松
Original Assignee
株式会社A.L.I. Technologies
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社A.L.I. Technologies filed Critical 株式会社A.L.I. Technologies
Publication of WO2022124392A1 publication Critical patent/WO2022124392A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C27/00Rotorcraft; Rotors peculiar thereto
    • B64C27/04Helicopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D27/00Arrangement or mounting of power plants in aircraft; Aircraft characterised by the type or position of power plants
    • B64D27/02Aircraft characterised by the type or position of power plants
    • B64D27/24Aircraft characterised by the type or position of power plants using steam or spring force
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D27/00Arrangement or mounting of power plants in aircraft; Aircraft characterised by the type or position of power plants
    • B64D27/40Arrangements for mounting power plants in aircraft
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports
    • B64U30/26Ducted or shrouded rotors

Definitions

  • the present invention relates to a flying object and a method for controlling the flying object.
  • flying objects such as drones and unmanned aerial vehicles (UAVs) used for various purposes.
  • UAVs unmanned aerial vehicles
  • One object of the present invention is to provide an air vehicle having a new shape and characteristics, to improve the control performance of the air vehicle in a closed space, or to realize safer flight depending on the position of an obstacle. And.
  • the motor that drives the propeller and The arm that supports the motor and The main body to which the arm is attached and The camera unit provided in the main body unit and A flying object having a hemispherical cover portion attached to the main body portion so as to cover the camera portion from below can be obtained.
  • the motor that drives the propeller and A flight control unit that controls the drive of the motor Equipped with a laser sensor that detects at least the distance to obstacles in the horizontal direction, An airframe that estimates the yaw angle of the airframe based on the detection result of the laser sensor can be obtained.
  • the motor that drives the propeller and A flight control unit that controls the drive of the motor Equipped with a laser sensor that detects information about the location of obstacles, When an obstacle is detected in the path of the aircraft and it is determined that the aircraft cannot pass through the space without the obstacle, the aircraft landing at a predetermined point can be obtained.
  • the motor that drives the propeller and A flight control unit that controls the drive of the motor Equipped with a laser sensor that detects information about the location of obstacles, An aircraft that flies on a flight path via a preset waypoint. When an obstacle is detected at the point of the waypoint, an air vehicle that lands at a predetermined point is obtained.
  • an air vehicle that can improve flight efficiency, or to improve the control performance of the air vehicle in a closed space, or to realize safer flight depending on the position of an obstacle. Can be done.
  • the flying object according to the embodiment of the present invention has the following configurations.
  • [Item 1] The motor that drives the propeller and The arm that supports the motor and The main body to which the arm is attached and The camera unit provided in the main body unit and A flying object having a hemispherical cover portion attached to the main body portion so as to cover the camera portion from below.
  • [Item 2] With multiple propellers, The motor that drives the propeller and A flight control unit that controls the drive of the motor, Equipped with a laser sensor that detects at least the distance to obstacles in the horizontal direction, An airframe that estimates the yaw angle of the airframe based on the detection results of the laser sensor.
  • [Item 3] The flying object according to claim 2. An air vehicle that further estimates the horizontal position based on the detection result of the laser sensor.
  • FIG. 1 to 4 are diagrams showing the flying object 1a according to the first embodiment.
  • the flying object 1a includes a main body portion 10, a carbon arm 12 provided in the main body portion, a motor 14 provided in the arm 12, and a propeller 16 driven by the motor 14. It is equipped with.
  • a camera is attached to the main body via a gimbal.
  • the main body 10 in the present embodiment is provided with a camera protective cover so as to cover the camera from below.
  • the protective cover has the function of protecting the camera from external storms and blast waves while ensuring the visibility of the camera.
  • the camera protection cover is a transparent cover with a substantially hemispherical shape, and has the functions of fire resistance, durability, and wind resistance.
  • the explosion-proof performance according to this embodiment is as follows. International Harmony Guideline Ex2015 Standard Explosion Proof Area, Zone2 Gas / Temperature Grade, II CT4 Explosion Proof Housing Structure, Non-Ignition Explosion Proof Structure ANSI / UL746B Compliant, ANSI / UL746C f1 Class Compliant, Tracking Index CTI Class 0 Compliant Battery, IEC60086- In conformity with No. 1, other parts that have acquired explosion-proof certification by IEC-Ex will be adopted.
  • the rotation speed (number of flappings) of the motor is increased by the control of the control device according to this operation.
  • the number of revolutions of the propeller attached to the motor also increases. This causes the propeller to gradually generate the lift required to ascend the aircraft.
  • lift exceeds the gravity on the flying object the flying object begins to float in the air and rises.
  • the operator operates the transmitter to adjust the number of revolutions so that the aircraft stops in the air (hovering). That is, the rotation speed at this time is a rotation speed at which the lift due to the rotation of each propeller and the gravity applied to the flying object are balanced.
  • the operator operates the transmitter to change the number of revolutions of the propeller behind in the direction of travel and the number of revolutions of the propeller in front of the direction of travel. More than.
  • the lift of the rear propeller becomes larger than the lift of the front propeller, and the position of the propeller becomes higher than the position of the propeller. Therefore, the airframe of the flying object is in a posture of tilting forward and downward toward the traveling direction.
  • the above-mentioned flying object has, for example, the functional block shown in FIG.
  • the functional block in the figure is the minimum reference configuration.
  • the flight controller can have one or more processors such as a programmable processor (eg, central processing unit (CPU)).
  • processors such as a programmable processor (eg, central processing unit (CPU)).
  • the flight controller has a memory (not shown) and can access the memory.
  • the memory stores the logic, code, and / or program instructions that the flight controller can execute to perform one or more steps.
  • the memory may include, for example, a separable medium such as an SD card or random access memory (RAM) or an external storage device.
  • a separable medium such as an SD card or random access memory (RAM) or an external storage device.
  • the data acquired from the cameras and sensors may be directly transmitted and stored in the memory. For example, still image / moving image data taken by a camera or the like is recorded in the built-in memory or an external memory.
  • the flight controller includes a control module configured to control the state of the flying object.
  • the control module may adjust the spatial placement, velocity, and / or acceleration of an air vehicle with 6 degrees of freedom (translation x, y and z, and rotational motion ⁇ x , ⁇ y and ⁇ z ). Controls the propulsion mechanism (motor, etc.) of the flying object.
  • the control module can control one or more of the states of the mounting unit and the sensors.
  • the flight controller is capable of communicating with a transmitter / receiver configured to transmit and / or receive data from one or more external devices (eg, terminals, display devices, or other remote controls).
  • the transmitter / receiver can use any suitable communication means such as wired communication or wireless communication.
  • the transmitter / receiver uses one or more of a local area network (LAN), wide area network (WAN), infrared, wireless, WiFi, point-to-point (P2P) network, telecommunications network, cloud communication, and the like. be able to.
  • LAN local area network
  • WAN wide area network
  • infrared wireless
  • WiFi point-to-point
  • P2P point-to-point
  • telecommunications network cloud communication, and the like. be able to.
  • the transmitter / receiver can transmit and / or receive one or more of data acquired by sensors, processing results generated by a flight controller, predetermined control data, user commands from a terminal or a remote controller, and the like. ..
  • Sensors according to this embodiment may include an inertial sensor (acceleration sensor, gyro sensor), GPS sensor, proximity sensor (eg, rider), or vision / image sensor (eg, camera).
  • inertial sensor acceleration sensor, gyro sensor
  • GPS sensor GPS sensor
  • proximity sensor eg, rider
  • vision / image sensor eg, camera
  • the flying object 1b includes the flying object 1a and the main body 10 according to the above-described embodiment, the carbon arm 12 provided on the main body, and the motor 14 provided on the arm 12. , A propeller 16 driven by a motor 14.
  • a camera is attached to the main body via a gimbal.
  • the main body 10 in the present embodiment is provided with a camera protective cover so as to cover the camera from below.
  • the protective cover has the function of protecting the camera from external storms and blast waves while ensuring the visibility of the camera.
  • the flying object 1b has a circular propeller guard 20 in a top view.
  • the propeller guard 20 includes a peripheral portion 20a that covers the outer periphery of the propeller, and a connecting portion 20b that connects the upper and lower ends of the peripheral portion 20a in a cross shape in the radial direction. Due to such a structure, a region having no connecting portion is generated above and below each propeller.
  • the propeller guard 20 according to the present embodiment is covered at the top and bottom with a mesh-like net (the mesh is not shown). This is because if the propeller guard is used as a plate that covers the entire surface of the propeller and innumerable holes are provided (lightening), the weight becomes heavy.
  • the flying object of the present invention can be expected to be used as an industrial flying object in surveys, surveys, observations, etc.
  • the air vehicle of the present invention can be used in an airplane-related industry such as a multicopter drone, and further, the present invention can be suitably used as an air vehicle for aerial photography equipped with a camera or the like.
  • it can be used in various industries such as security field, agriculture, and infrastructure monitoring.
  • the flying object (drone) and its control method according to the present embodiment are mainly used in a space such as a boiler or the like indoors, a container, a furnace, or the like, in which a part or all of the space is closed.
  • FIG. 9 is a diagram of an air vehicle system according to a third embodiment.
  • the flight body system 100 includes a flight body 1, a control device 30 connected to the flight body 1 via a network (NW), and a remote management server 40.
  • FIG. 10 is a diagram showing the function of the flying object according to the third embodiment.
  • the flying object 1 includes a target position setting unit, a horizontal Laser Scan unit, a vertical Laser Scan unit, a self-position estimation unit, a position / velocity estimation unit, an IMU (Inertial Measurement Unit), an altitude / velocity estimation unit, and the like. It is equipped with a route / orbit generation unit, a calculation unit, an ESC control board, an ESC, and a motor.
  • the target position setting unit sets the three-dimensional position coordinates (X, Y, Z) of the waypoint set by the control device 30 or the management server 40 as the target position.
  • the horizontal Laser Scan unit is composed of, for example, a LiDAR device that irradiates a laser in the horizontal direction, and measures the distance to an object in the horizontal direction.
  • the vertical Laser Scan unit is composed of, for example, a LiDAR device that irradiates a laser in the vertical direction (downward), and measures the distance to an object in the vertical direction (downward).
  • the IMU Inertial Measurement Unit
  • the self-position estimation unit uses SLAM technology based on the distance data between the horizontal Laser Scan unit and the obstacle input from the vertical Laser Scan unit and the attitude information of Roll and Pith input from the IMU. Generates 3D coordinates (x, y, z) and yaw attitude information.
  • the position / velocity estimation unit uses the position (x, y) and yaw attitude information in plane coordinates acquired from the self-position estimation unit, the Roll and Pith attitudes acquired from the IMU, and accelerations in three directions (ax, ay, az). ) Is filtered by the Kalman filter to generate the filtered plane coordinates (x, y), velocity (Vx, Vy), and yaw attitude.
  • the altitude / velocity estimation unit filters the vertical altitude (z) acquired from the self-position estimation unit and the vertical acceleration (az) information acquired from the IMU by the Kalman filter, and the altitude after the filter processing. Generates (z) and vertical velocity (Vz).
  • the path / trajectory generation unit has three-dimensional position coordinates (X, Y, Z) of the target position acquired from the target position setting unit, and planar coordinates (x, y) after filtering acquired from the position / velocity estimation unit. Based on the speed (Vx, Vy), the filtered altitude (z) acquired from the altitude / velocity estimation unit, and the vertical velocity (Vz), the coordinates and path of the target point are generated, and obstacles are created. If there is, the position of the obstacle is output.
  • the calculation unit is the coordinates and path of the target point acquired from the path / trajectory generation unit, the position of the obstacle, the attitude of Roll and Pith acquired from the IMU, the three-axis angular velocity ( ⁇ x, ⁇ y, ⁇ z), and the acceleration in three directions. (Ax, ay, az), Roll and Pith attitudes obtained from the IMU, 3-axis angular velocity ( ⁇ x, ⁇ y, ⁇ z), and 3-direction acceleration (ax, ay, az) to drive the motor. Generate a control command to do so.
  • FIG. 11 is a diagram showing a hardware configuration in which the functions of the flying object shown in FIG. 10 are implemented.
  • the system includes a 3D SLAM system unit including a laser sensor and a 3D SLAM calculation board, an autonomous control system unit including an IMU and an upper control board, a lower control board, and an ESC (Electric Speed Controller). And a motor.
  • a 3D SLAM system unit including a laser sensor and a 3D SLAM calculation board
  • an autonomous control system unit including an IMU and an upper control board, a lower control board, and an ESC (Electric Speed Controller).
  • ESC Electronic Speed Controller
  • the 3D SLAM calculation board receives IMU information from the host control board, and also receives distance data between the obstacles input from the horizontal Laser Scan section and the vertical Laser Scan section, and based on this information, the 3D SLAM calculation board. Estimate the current 3-axis position and speed of the aircraft within. Furthermore, the distance data input from the horizontal Laser Scan unit is used to perform a calculation to detect an obstacle in the 3D SLAM calculation board, and the distance to the obstacle is estimated. In addition, waypoint setting information and the like are input from an external PC. Send each estimated data to the host control board.
  • the host control board receives attitude, angular velocity, and acceleration information from the IMU. A control calculation is performed based on the estimated value of the position / speed and the distance to the obstacle received from the 3D SLAM calculation board, and an automatic control command is generated. Further, the manual control command transmitted from the radio transmitter is input to the host control board (path / trajectory generator) via the receiver. The host control board determines whether to perform flight control based on the generated automatic control command or the manual control command transmitted from the radio transmitter, and transmits one of the above control commands to the open control board.
  • the lower control board performs flight control based on the automatic control command or the manual control command received from the upper control board, and transmits a drive control signal to the ESC based on the control command received from the upper control board.
  • FIG. 12 is a diagram showing a control flow of an air vehicle according to a third embodiment of the present invention.
  • the target position is input from the control device 30 or the management server 40 (S1101).
  • the route / orbit generation unit the route and orbit of the flying object are generated from the set target positions (S1102, S1103).
  • obstacle detection is performed based on the detection result of the Laser Scan unit (S1104). If no obstacle is detected, control is performed to follow the orbit (S1105). When an obstacle is detected, control is performed to avoid the obstacle (S1106).
  • the control method (and control system) controls the airframe using the Yaw angle estimated by the laser instead of the Yaw angle using the geomagnetism from the IMU. Therefore, it is not affected by electromagnetic waves. Therefore, it is possible to fly within the electromagnetically resistant structure.
  • the graph shown in FIG. 14 confirms the behavior of the position estimation of the aircraft at that time by flying the drone from the landing port and winding the dust in the experimental environment. When dust is sprinkled, the maximum Yaw angle estimated by the laser of the aircraft fluctuates at 0.003 rad, but it can be said that there is no influence of magnetism and the influence of dust is small.
  • the change in the value can be reduced for results other than the Yaw angle as well. Since roll and pitch other than Yaw are values measured by IMU and Yaw is a value estimated by laser, the influence of the angle information of the Yaw axis and other axes is small.
  • the Yaw angle is a value estimated from the aircraft coordinates, and since this control is also controlled by the aircraft-based local coordinates, there is no particular problem with flight fluctuations in the Yaw angle. Since a general GPS-based drone is based on a magnetic sensor, the coordinate system of control is world coordinates, and if the Yaw axis shifts, a large error will occur in the coordinate conversion when calculating the position speed, so Yaw The axis becomes important.
  • the detection of an obstacle is determined to be an obstacle by the continuous laser value.
  • the avoidance of obstacles if there is an obstacle within a distance of 2 m, the position vector of the obstacle (considering the size of the obstacle) is used as a parameter of the control calculation of the aircraft, and finally the calculation is performed.
  • the flight of the aircraft results in avoiding obstacles.
  • the behavior when obstacle avoidance is activated during autonomous control is also controlled under the following two conditions. 1. 1. If there are obstacles on the path during Waypoint flight: If there are no obstacles and there is a space where the obstacles can be avoided, the obstacles will be avoided, but if it is determined that the obstacles cannot be avoided (when there is no space for the aircraft to pass through), the goal (predetermined place such as the starting point) is returned. 2. 2. If there are obstacles at the waypoint during the Waypoint flight: Return to the goal (predetermined place such as the starting point).
  • FIG. 16 is a diagram showing the results of verification of the identification accuracy of minute defects. As shown, the determination was made under definitions and control conditions that were considered identifiable.
  • FIG. 17 shows an image used for the identification test of the minute defect
  • FIG. 18 is a table showing the identification result of the minute defect by binarization of the obtained image. It is possible to identify by the angle of view shown in ⁇ 2 mm to ⁇ 10 mm and the condition of the presence or absence of illumination. We verified the identification accuracy of minute defects using GoPro HERO5 Session. As a result, only the circular defects could be identified by binarization, so it was judged that some of them could be identified.
  • the GoPro HERO5 Session weighs 72g, is lightweight and compact, and has a resolution of 3840 x 2160, so it seemed that the procedure for this test could be met. However, it was difficult to separate the background and defects by binarizing from the histogram.
  • FIG. 19 is a diagram showing the appearance of the testing machine used in the test.
  • Aircraft 10 Main body 12 Arm 14 Motor 16 Propeller

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】飛行効率を向上しつつ防爆性を備える飛行体を提供すること。 【解決手段】本発明による飛行体は、防爆性を備えた回転翼機に関するものである。飛行体は、プロペラを駆動させるモータと、モータを支持するアームと、アームが取り付けられた本体部と、本体部に設けられたカメラ部と、カメラ部を下方から覆うようにして前記本体部に取り付けられている半球状のカバー部を備えている。プロペラガードは、メッシュ状のネットで覆われている。

Description

飛行体及び飛行体の制御方法
 本発明は、飛行体及び飛行体の制御方法に関する。
 近年、様々な用途に利用されるドローン(Drone)や無人航空機(UAV:Unmanned Aerial Vehicle)などの飛行体(以下、単に「飛行体」と総称する)を利用した様々なサービスが提供されている(例えば、特許文献1参照)。
特開2017-15697号公報
 本発明は、新しい形状および特性を有する飛行体を提供すること、または閉所空間における飛行体の制御性能を向上させること、または障害物の位置に応じたより安全な飛行を実現することを一つの目的とする。
 本発明によれば、
 プロペラを駆動させるモータと、
 前記モータを支持するアームと、
 前記アームが取り付けられた本体部と、
 前記本体部に設けられたカメラ部と、
 前記カメラ部を下方から覆うようにして前記本体部に取り付けられている半球状のカバー部を備える
飛行体が得られる。
 または、本発明によれば、
複数のプロペラと、
前記プロペラを駆動させるモータと、
前記モータの駆動を制御する飛行制御部と、
少なくとも水平方向の障害物までの距離を検出するレーザー式センサーと、を備え、
当該レーザー式センサーの検出結果に基づいて機体のヨー角の推定を行う
飛行体が得られる。
 または、本発明によれば、
 複数のプロペラと、
前記プロペラを駆動させるモータと、
前記モータの駆動を制御する飛行制御部と、
障害物の位置に関する情報を検出するレーザー式センサーと、を備え、
飛行体の経路に障害物を検出した場合に、前記障害物のない空間を自機が通れないと判断した場合に、所定地点に着陸する
飛行体が得られる。
 または、本発明によれば、
 複数のプロペラと、
前記プロペラを駆動させるモータと、
前記モータの駆動を制御する飛行制御部と、
障害物の位置に関する情報を検出するレーザー式センサーと、を備え、
予め設定されるウェイポイントを経由する飛行経路を飛行する飛行体であって、
前記ウェイポイントの地点に障害物を検出した場合に、所定地点に着陸する
飛行体が得られる。
 本発明によれば、飛行効率を向上し得る飛行体を提供し得る、または閉所空間における飛行体の制御性能を向上させることができる、または障害物の位置に応じたより安全な飛行を実現することができる。
本発明による第1の実施の形態による飛行体の図である。 本発明による第1の実施の形態による飛行体の図である。 本発明による第1の実施の形態による飛行体の図である。 本発明による第1の実施の形態による飛行体の図である。 本発明による飛行体の機能ブロック図である。 本発明による第2の実施の形態による飛行体の図である。 本発明による第2の実施の形態による飛行体の図である。 本発明による第2の実施の形態による飛行体の図である。 本発明による第3の実施の形態による飛行体システムの図である。 本発明による第3の実施の形態による飛行体の機能図である。 本発明による第3の実施の形態による飛行体のハードウェア構成図である。 本発明による第3の実施の形態による制御フロー図である。 本発明による第3の実施の形態の制御フローの一例を示す図である。 本発明による第3の実施の形態におけるYaw角の推定結果を示す図である。 本発明による第3の実施の形態における飛行体のセンサーが障害物を検出する様子の実施例を示す図である。 本発明による第3の実施の形態の微小欠陥の識別精度検証行った結果を示す図である。 本発明による第3の実施の形態の微小欠陥の識別精度の試験要領の例を示す図である。 本発明による第3の実施の形態の微小欠陥の識別結果を示す図である。 本発明による第3の実施の形態の飛行体の外観を示す図である。
 本発明の実施形態の内容を列記して説明する。本発明の実施の形態による飛行体は、以下のような構成を備える。
[項目1]
 プロペラを駆動させるモータと、
 前記モータを支持するアームと、
 前記アームが取り付けられた本体部と、
 前記本体部に設けられたカメラ部と、
 前記カメラ部を下方から覆うようにして前記本体部に取り付けられている半球状のカバー部を備える
飛行体。
[項目2]
 複数のプロペラと、
前記プロペラを駆動させるモータと、
前記モータの駆動を制御する飛行制御部と、
少なくとも水平方向の障害物までの距離を検出するレーザー式センサーと、を備え、
当該レーザー式センサーの検出結果に基づいて機体のヨー角の推定を行う
飛行体。
[項目3]
 請求項2に記載の飛行体であって、
 前記レーザー式センサーの検出結果に基づいて、更に水平方向の位置を推定する
飛行体。
[項目4]
 複数のプロペラと、
前記プロペラを駆動させるモータと、
前記モータの駆動を制御する飛行制御部と、
障害物の位置に関する情報を検出するレーザー式センサーと、を備え、
飛行体の経路に障害物を検出した場合に、前記障害物のない空間を自機が通れないと判断した場合に、所定地点に着陸する
飛行体。
[項目5]
 複数のプロペラと、
前記プロペラを駆動させるモータと、
前記モータの駆動を制御する飛行制御部と、
障害物の位置に関する情報を検出するレーザー式センサーと、を備え、
予め設定されるウェイポイントを経由する飛行経路を飛行する飛行体であって、
前記ウェイポイントの地点に障害物を検出した場合に、所定地点に着陸する
飛行体。
 
(第1の実施の形態)
 以下、本発明の第1の実施の形態による飛行体について、図面を参照しながら説明する。図1乃至図4は、第1の実施の形態による飛行体1aを示す図である。
 図示されるように、飛行体1aは、本体部10と、当該本体部に設けられたカーボン製のアーム12と、当該アーム12に設けられたモータ14と、モータ14によって駆動されるプロペラ16とを備えている。本体部には、ジンバルを介してカメラが取り付けられている。本実施の形態における本体部10は、カメラを下方から覆うようにしてカメラ保護カバーを備えている。保護カバーは、カメラの視界を確保しつつ、外部の暴風や爆風等から保護する機能を発揮する。
 カメラ保護カバーは略半球状の透明なカバーであり、耐火性、耐久性、耐風性の各機能を有している。本実施の形態による防爆の性能は以下のとおりである。国際整合指針Ex2015 規準防爆領域、Zone2ガス・温度等級、II CT4防爆筐体構造、非点火防爆構造ANSI/UL746Bに準拠、ANSI/UL746C f1クラスに準拠、トラッキング指数 CTI クラス0に準拠バッテリー、IEC60086-1に準拠、その他IEC-Exにて防爆認証取得済部品を採用することとしている。
 実施の形態による飛行体は、例えば、送信機の操作によって、飛行体を上昇させる操作を行うと、この操作に応じた制御装置の制御によって、モータの回転数(羽ばたきの回数)が増加し、モータに取り付けられたプロペラの回転数も増加する。これにより、プロペラは飛行体の上昇に必要な揚力を徐々に生じさせる。揚力が飛行体にかかる重力を超えると、飛行体は空中に浮き始め、浮上する。
 そして、飛行体が所望の高度に到着すると、操縦者は送信機を操作して、飛行体が空中停止(ホバリング)するように、の回転数を調整する。つまり、このときの回転数は、各プロペラの回転による揚力と飛行体にかかる重力とが釣り合う程度の回転数である。
 次に飛行体が水平方向に移動する場合には、操縦者は送信機を操作して、進行方向に向かって後方にあるプロペラの回転数を、進行方向に向かって前方にあるプロペラの回転数よりも多くする。これにより、後方にあるプロペラによる揚力が前方にあるプロペラによる揚力に比べて大きくなり、プロペラの位置がプロペラの位置よりも高くなる。よって、飛行体の機体が進行方向に向かって前下がりに傾いた姿勢となる。
 上述した飛行体は、例えば、図5に示される機能ブロックを有している。なお、図の機能ブロックは最低限の参考構成である。
 フライトコントローラは、プログラマブルプロセッサ(例えば、中央演算処理装置(CPU))などの1つ以上のプロセッサを有することができる。
 フライトコントローラは、図示しないメモリを有しており、当該メモリにアクセス可能である。メモリは、1つ以上のステップを行うためにフライトコントローラが実行可能であるロジック、コード、および/またはプログラム命令を記憶している。
 メモリは、例えば、SDカードやランダムアクセスメモリ(RAM)などの分離可能な媒体または外部の記憶装置を含んでいてもよい。カメラやセンサ類から取得したデータは、メモリに直接に伝達されかつ記憶されてもよい。例えば、カメラ等で撮影した静止画・動画データが内蔵メモリ又は外部メモリに記録される。
 フライトコントローラは、飛行体の状態を制御するように構成された制御モジュールを含んでいる。例えば、制御モジュールは、6自由度(並進運動x、y及びz、並びに回転運動θ、θ及びθ)を有する飛行体の空間的配置、速度、および/または加速度を調整するために飛行体の推進機構(モータ等)を制御する。制御モジュールは、搭載部、センサ類の状態のうちの1つ以上を制御することができる。
 フライトコントローラは、1つ以上の外部のデバイス(例えば、端末、表示装置、または他の遠隔の制御器)からのデータを送信および/または受け取るように構成された送受信部と通信可能である。送受信機は、有線通信または無線通信などの任意の適当な通信手段を使用することができる。
 例えば、送受信部は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、赤外線、無線、WiFi、ポイントツーポイント(P2P)ネットワーク、電気通信ネットワーク、クラウド通信などのうちの1つ以上を利用することができる。
 送受信部は、センサ類で取得したデータ、フライトコントローラが生成した処理結果、所定の制御データ、端末または遠隔の制御器からのユーザコマンドなどのうちの1つ以上を送信および/または受け取ることができる。
 本実施の形態によるセンサ類は、慣性センサ(加速度センサ、ジャイロセンサ)、GPSセンサ、近接センサ(例えば、ライダー)、またはビジョン/イメージセンサ(例えば、カメラ)を含み得る。
(第2の実施の形態)
 図6乃至図8は、第2の実施の形態による飛行体1bを示す図である。図示されるように、飛行体1bは、上述した実施の形態による飛行体1aと本体部10と、当該本体部に設けられたカーボン製のアーム12と、当該アーム12に設けられたモータ14と、モータ14によって駆動されるプロペラ16とを備えている。本体部には、ジンバルを介してカメラが取り付けられている。本実施の形態における本体部10は、カメラを下方から覆うようにしてカメラ保護カバーを備えている。保護カバーは、カメラの視界を確保しつつ、外部の暴風や爆風等から保護する機能を発揮する。
 本実施の形態による飛行体1bは、上面視において円形状のプロペラガード20を有している。プロペラガード20は、プロペラの外周を覆う周辺部20aと、当該周辺部20aの上下それぞれの端部から直径方向に十字上に連結する連結部20bとを備えている。かかる構造によって、各プロペラの上下には連結部が存在しない領域が生じることとなる。
 本実施の形態によるプロペラガード20は、メッシュ状のネットで上下を覆われている(メッシュについては図示せず)。プロペラガードをプロペラ全面を覆う板とし穴を無数に設ける(肉抜きする)こととすると重量が重くなるためである。
 本発明の飛行体は、調査、測量、観察等における産業用の飛行体としての利用が期待できる。また、本発明の飛行体は、マルチコプター・ドローン等の飛行機関連産業において利用することができ、さらに、本発明は、カメラ等を搭載した空撮用の飛行体としても好適に使用することができる他、セキュリティ分野、農業、インフラ監視等の様々な産業にも利用することができる。
(第3の実施の形態)
<障害物の回避>
 本実施の形態による飛行体(ドローン)及びその制御方法は、主にボイラー等の屋内、容器内、炉内など、一部または全部が閉鎖されている空間で利用されるものである。
図9は、第3の実施の形態による飛行体システムの図である。飛行体システム100は、飛行体1と、当該飛行体1とネットワーク(NW)を介して接続される操縦装置30、及び遠隔地の管理サーバー40とを備える。図10は、第3の実施の形態による飛行体の機能を示す図である。図10に示す通り、飛行体1は、目標位置設置部、水平Laser Scan部、垂直Laser Scan部、自己位置推定部、位置・速度推定部、IMU(Inertial Measurement Unit)、高度・速度推定部、経路・軌道生成部、演算部、ESC制御ボード、ESC、モータ、を備える。
目標位置設定部は、操縦装置30又は管理サーバー40により設定されるウェイポイントの3次元位置座標(X,Y,Z)を目標位置として設定する。水平Laser Scan部は、例えば水平方向にレーザーを照射するLiDAR装置で構成され、水平方向の物体までの距離を計測する。垂直Laser Scan部は、例えば、例えば垂直方向(下向き)にレーザーを照射するLiDAR装置で構成され、垂直方向(下側)の物体までの距離を計測する。IMU(Inertial Measurement Unit)は、Roll及びPithの姿勢、3軸の角速度(ωx,ωy,ωz)、3方向の加速度(ax, ay, az)を計測する。自己位置推定部は、水平Laser Scan部と垂直Laser Scan部から入力される障害物との距離データと、IMUから入力されるRoll及びPithの姿勢情報に基づいて、SLAM技術を用いて自己位置の3次元座標(x、y、z)と、yawの姿勢情報を生成する。
位置・速度推定部は、自己位置推定部から取得した平面座標における位置(x、y)とyawの姿勢情報と、IMUから取得したRoll及びPithの姿勢と3方向の加速度(ax, ay, az)の情報を、カルマンフィルタによるフィルタ処理を行って、フィルタ処理後の平面座標(x、y)、速度(Vx,Vy)、及びyaw姿勢を生成する。
高度・速度推定部は、自己位置推定部から取得した鉛直方向の高度(z)と、IMUから取得した鉛直方向の加速度(az)の情報をカルマンフィルタによるフィルタ処理を行って、フィルタ処理後の高度(z)と鉛直方向の速度(Vz)を生成する。
経路・軌道生成部は、目標位置設定部から取得する目標位置の3次元位置座標(X,Y,Z)と、位置・速度推定部から取得するフィルタ処理後の平面座標(x、y)、速度(Vx,Vy)と、高度・速度推定部から取得するフィルタ処理後の高度(z)と鉛直方向の速度(Vz)に基づいて、目標地点の座標と経路を生成すると共に、障害物がある場合には障害物の位置を出力する。
演算部は、経路・軌道生成部から取得する目標地点の座標と経路、障害物の位置、IMUから取得するRoll及びPithの姿勢、3軸の角速度(ωx,ωy,ωz)、3方向の加速度(ax, ay, az)、IMUから取得するRoll及びPithの姿勢、3軸の角速度(ωx,ωy,ωz)、3方向の加速度(ax, ay, az)の情報に基づいて、モーターを駆動するための制御指令を生成する。
図11は、図10で示した飛行体の機能が実装されるハードウエア構成を示す図である。図11に示すように、当該システムは、レーザセンサと3D SLAM演算ボードを備える3D SLAMシステム部と、IMUと上位制御ボードを備える自律制御システム部と、下位制御ボードと、ESC(Electric Speed Controller)と、モータとを有する。
3D SLAM 演算ボードは、上位制御ボードからIMU情報を受け取り、また、水平Laser Scan部と垂直Laser Scan部から入力される障害物との距離データを受け取り、これらの情報に基づいて、3D SLAM 演算ボード内で機体の現在の3軸位置と速度を推定する。更に、水平Laser Scan部から入力される距離データを用いて3D SLAM 演算ボード内で障害物を検知する演算を行い、障害物までの距離を推定する。また、外部PCからwaypoint設定情報等が入力される。上位制御ボードに各推定したデータを送信する。
上位制御ボードは、IMUから姿勢、角速度、加速度情報を受け取る。3D SLAM 演算ボードから受け取った位置・速度および障害物までの距離の推定値を基に制御演算を行い、自動制御指令を生成する。また、プロポ送信機から送信された手動制御指令は、受信機を介して上位制御ボード(経路・軌道生成部)に入力される。上位制御ボードは、生成した自動制御指令とプロポ送信機から送信された手動制御指令のどちらに基づいて飛行制御を行うかを判断し、上記のいずれかの制御指令を開制御ボードに送信する。
下位制御ボードは、上位制御ボードから受信する自動制御指令又は手動制御指令に基づいて飛行制御を行い、上位制御ボードから受信した制御指令に基づいてESCに駆動制御信号を送信する。
図12は、本発明による第3の実施の形態による飛行体の制御フローを示す図である。飛行が開始されると、操縦装置30又は管理サーバー40から目標位置が入力される(S1101)。次に、経路・軌道生成部において、設定された目標位置より飛行体の経路と軌道が生成される(S1102、S1103)。次に、Laser Scan部の検出結果に基づいて、障害物検知を行う(S1104)。障害物を検知しない場合は軌道に追従する制御を行う(S1105)。障害物を検知する場合は障害物を回避する制御を行う(S1106)。次に、自己位置推定部の推定結果に基づいて目標位置に飛行体が到達したか否かを判定し、まだ目標位置に到達していない場合にはS1104の処理に戻り、目標位置に到達している場合は制御を終了する(S1107)。
 一般に、ボイラーの中が金属で覆われているために、IMU(Inertial Measurement Unit)で取得する地磁気を用いた機体のYaw角の推定の問題が生じ得る。本実施の形態による制御方法(及び制御システム)は、IMUからの地磁気を用いたYaw角ではなく、レーザで推定したYaw角を用いて機体を制御する。したがって、電磁波などの影響を受けることがない。よって耐電磁構造内における飛行を可能にすることができる。図14に示されるグラフは、ドローンを着陸ポートにおいてから飛行させ、粉塵を実験環境内巻き、その際の機体の位置推定の挙動を確認したものである。粉塵がまいてる際に、機体のレーザで推定した最大でYaw角が0.003radで変動するが、磁気による影響はなく、かつ、粉塵による影響も少ないと言える。
 かかる方法によればYaw角以外の結果も同様に値の変化を小さくすることができる。Yaw以外のrollとpitchはIMUで計測した値とし、Yawはレーザで推定した値であるため、Yaw軸と他の軸の角度情報の互いの影響は少ない。また、Yaw角は、機体座標で推定した値で、今回の制御も機体ベースのローカル座標で制御するために、Yaw角の変動は飛行に特に問題がない。一般的なGPSベースのドローンは磁気センサがベースであるために、制御の座標系がワールド座標であり、Yaw軸がずれると位置速度の演算をする際の座標変換で大きな誤差が出るためにYaw軸が重要になる。そのため、推定としてのYaw角がずれる場合は、同時に推定したx,yも影響を受け、waypoint飛行にも影響が出る可能性があった。このことは、飛行時の制御不能、ミッション(各waypointsを通る)を達成できないという影響を及ぼす恐れがある。
 図15に示されるように、障害物の検知は連続したレーザの値で障害物と判定する。障害物の回避については距離2mの範囲内で障害物がある場合、障害物の位置ベクトル(障害物の大きさをも考量)を機体の制御演算のパラメータとして用いて計算をし、最終的に機体の飛行が結果として障害物を回避する飛行する。自律制御中に障害物回避が作動した場合の挙動については、以下の2つの条件にも集いて制御される。
1.Waypoint飛行中、その経路に障害物が存在する場合:
 障害物が無く障害物を回避できる空間があれば障害物を回避するが、回避できないと判断した場合は(自機が通れる空間がない場合)ゴール(スタート地点など所定の場所)に戻る。
2.Waypoint飛行中、Waypointの地点に障害物が存在する場合:
 ゴール(スタート地点など所定の場所)に戻る。
 図16は、微小欠陥の識別精度検証行った結果を図にしたものである。図示されるように、識別可能と見做す定義および制御条件の下で判定を行った。
 図17は、微小欠陥の識別試験に用いる画像を示し、図18は、得られた画像の2値化による微小欠陥の識別結果を示す表である。φ2mm~φ10mmで図示された画角及び照明の有無の条件で識別が可能である。 GoPro HERO5 Sessionを使って微小欠陥の識別精度の検証を実施した。結果としては、円形の欠陥のみ二値化により識別は可能であったため、一部で識別可能と判断した。
GoPro HERO5 Sessionは72gと軽量かつ小型であり、解像度も3840×2160となっており、本試験の要領をみたすことが出来ると思われた。しかし、ヒストグラムからの2値化を実施し背景と欠陥を切り分けることは難しかった。また、ヒストグラムから背景と欠陥を切り分け検出するための適正な閾値の算出には大変時間がかかることが予想される。カメラの性能も必要であるが試験体に対しての照明の当て方により、二値化画像から欠陥を識別しやすくするために影が出来るように撮影を行うこととすれば、より識別性は向上する。照明の当て方については、照明の反射光がカメラに写ってしまわないように同じ領域を照明の角度を変えながら撮影し、その領域の画像を重ね合わせ二値化により欠陥の検出をしやすくすることができる。
<試験の内容>
火力発電所ボイラー内の点検は作業に時間と費用がかかっている。その時間と費用の削減をするために、ボイラー内部を点検するドローン(UAV)の導入に向け研究開発を行った。研究開発を始めるにあたり、一般的なボイラーの現場視察とミーティングを通じ、火力ボイラーの点検作業内容からドローンで実現可否の機能を検討して要件定義を実施した。ドローンに実装する機能として、上述した微小欠陥の識別機能、自己位置推定機能や衝突回避機能並びに自動離発着陸機能、ルート飛行機能を定義した。衝突回避機能、自己位置推定機能、ルート飛行機能の実現に向け、レーザーセンサーのLIDARを利用することにした。レーザセンサーLIDARを使用して、衝突回避のための距離を測定したり、XY軸方向のレーザーセンサーLIDARとZ軸方向のレーザーセンサーLIDARの2つを搭載しSLAM(Simultaneous Localization and Mapping)を活用することとした。今回の試験場所として、火力ボイラーの疑似環境であるモックアップを作成し、その中で試作機の機能試験を実施した。
図19は、試験で利用した試験機の外観を示す図である。
 上述した実施の形態は、本発明の理解を容易にするための例示に過ぎず、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更、改良することができると共に、本発明にはその均等物が含まれることは言うまでもない。
 1a    飛行体
 10    本体部
 12    アーム
 14    モータ
 16    プロペラ

 

Claims (5)

  1.  プロペラを駆動させるモータと、
     前記モータを支持するアームと、
     前記アームが取り付けられた本体部と、
     前記本体部に設けられたカメラ部と、
     前記カメラ部を下方から覆うようにして前記本体部に取り付けられている半球状のカバー部を備える
    飛行体。
  2.  複数のプロペラと、
    前記プロペラを駆動させるモータと、
    前記モータの駆動を制御する飛行制御部と、
    少なくとも水平方向の障害物までの距離を検出するレーザー式センサーと、を備え、
    当該レーザー式センサーの検出結果に基づいて機体のヨー角の推定を行う
    飛行体。
  3.  請求項2に記載の飛行体であって、
     前記レーザー式センサーの検出結果に基づいて、更に水平方向の位置を推定する
    飛行体。
  4.  複数のプロペラと、
    前記プロペラを駆動させるモータと、
    前記モータの駆動を制御する飛行制御部と、
    障害物の位置に関する情報を検出するレーザー式センサーと、を備え、
    飛行体の経路に障害物を検出した場合に、前記障害物のない空間を自機が通れないと判断した場合に、所定地点に着陸する
    飛行体。
  5.  複数のプロペラと、
    前記プロペラを駆動させるモータと、
    前記モータの駆動を制御する飛行制御部と、
    障害物の位置に関する情報を検出するレーザー式センサーと、を備え、
    予め設定されるウェイポイントを経由する飛行経路を飛行する飛行体であって、
    前記ウェイポイントの地点に障害物を検出した場合に、所定地点に着陸する
    飛行体。
     

     
PCT/JP2021/045500 2020-12-11 2021-12-10 飛行体及び飛行体の制御方法 WO2022124392A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020205767 2020-12-11
JP2020-205767 2020-12-11
JP2021111668 2021-07-05
JP2021-111668 2021-07-05

Publications (1)

Publication Number Publication Date
WO2022124392A1 true WO2022124392A1 (ja) 2022-06-16

Family

ID=81974516

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/045500 WO2022124392A1 (ja) 2020-12-11 2021-12-10 飛行体及び飛行体の制御方法

Country Status (1)

Country Link
WO (1) WO2022124392A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013114986A1 (ja) * 2012-01-31 2013-08-08 富士フイルム株式会社 ドームカバー付き監視カメラ及びドームカバー
WO2017090230A1 (ja) * 2015-11-24 2017-06-01 パナソニックIpマネジメント株式会社 撮像装置
JP2019031164A (ja) * 2017-08-07 2019-02-28 日本電気株式会社 離発着装置、離発着装置の制御方法、およびプログラム
WO2019190398A1 (en) * 2018-03-26 2019-10-03 Singapore University Of Technology And Design Aerial vehicles, methods of imaging a tunnel and methods of imaging a shaft
JP2019196150A (ja) * 2018-05-11 2019-11-14 株式会社自律制御システム研究所 安全着陸可能領域を識別するためのシステム、方法、プログラム及びプログラムを記憶した記憶媒体
JP2020049981A (ja) * 2018-09-25 2020-04-02 株式会社プロドローン 無人航空機
JP2020059001A (ja) * 2018-10-12 2020-04-16 株式会社プロドローン 無人航空機

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013114986A1 (ja) * 2012-01-31 2013-08-08 富士フイルム株式会社 ドームカバー付き監視カメラ及びドームカバー
WO2017090230A1 (ja) * 2015-11-24 2017-06-01 パナソニックIpマネジメント株式会社 撮像装置
JP2019031164A (ja) * 2017-08-07 2019-02-28 日本電気株式会社 離発着装置、離発着装置の制御方法、およびプログラム
WO2019190398A1 (en) * 2018-03-26 2019-10-03 Singapore University Of Technology And Design Aerial vehicles, methods of imaging a tunnel and methods of imaging a shaft
JP2019196150A (ja) * 2018-05-11 2019-11-14 株式会社自律制御システム研究所 安全着陸可能領域を識別するためのシステム、方法、プログラム及びプログラムを記憶した記憶媒体
JP2020049981A (ja) * 2018-09-25 2020-04-02 株式会社プロドローン 無人航空機
JP2020059001A (ja) * 2018-10-12 2020-04-16 株式会社プロドローン 無人航空機

Similar Documents

Publication Publication Date Title
US11914369B2 (en) Multi-sensor environmental mapping
US11697411B2 (en) Apparatus and methods for obstacle detection
US10599149B2 (en) Salient feature based vehicle positioning
EP3008535B1 (en) Context-based flight mode selection
CN110192122B (zh) 用于无人可移动平台上的雷达控制的系统和方法
EP3599166B1 (en) Chemical sensing autonomuous system for an aerial vehicle
CN110069071A (zh) 无人机导航方法与装置、存储介质、电子设备
CN109923492A (zh) 飞行路径确定
US10459445B2 (en) Unmanned aerial vehicle and method for operating an unmanned aerial vehicle
EP3674657A1 (en) Construction and update of elevation maps
CN111966114A (zh) 递送车辆的放下地点规划
JP2018055695A (ja) ある環境内で無人航空機を制御する方法、ある環境のマップを生成する方法、システム、プログラムおよび通信端末
CN112335190B (zh) 无线电链路覆盖图和减损系统及方法
WO2021199449A1 (ja) 位置算出方法及び情報処理システム
US20240176367A1 (en) Uav dispatching method, server, dock apparatus, system, and storage medium
Ortiz et al. Vessel inspection: A micro-aerial vehicle-based approach
JP2021117502A (ja) 着陸制御装置、着陸制御方法およびプログラム。
WO2022124392A1 (ja) 飛行体及び飛行体の制御方法
EP4180767A1 (en) Route planning for a ground vehicle through unfamiliar terrain
Kim et al. Development of a vision-based recognition and position measurement system for cooperative missions of multiple heterogeneous unmanned vehicles
JP2017068639A (ja) 自律移動ロボット
JP7004374B1 (ja) 移動体の移動経路生成方法及びプログラム、管理サーバ、管理システム
CN114127510A (zh) 3d定位和测绘系统和方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21903488

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21903488

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP