WO2024096387A1 - Gnss 오차 공유를 이용한 드론 협동 항법 - Google Patents

Gnss 오차 공유를 이용한 드론 협동 항법 Download PDF

Info

Publication number
WO2024096387A1
WO2024096387A1 PCT/KR2023/016204 KR2023016204W WO2024096387A1 WO 2024096387 A1 WO2024096387 A1 WO 2024096387A1 KR 2023016204 W KR2023016204 W KR 2023016204W WO 2024096387 A1 WO2024096387 A1 WO 2024096387A1
Authority
WO
WIPO (PCT)
Prior art keywords
drone
absolute position
value
position estimate
gnss
Prior art date
Application number
PCT/KR2023/016204
Other languages
English (en)
French (fr)
Inventor
김영주
Original Assignee
(주)니어스랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)니어스랩 filed Critical (주)니어스랩
Publication of WO2024096387A1 publication Critical patent/WO2024096387A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/24Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for cosmonautical navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/40Correcting position, velocity or attitude
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/48Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
    • G01S19/49Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications

Definitions

  • the present invention relates to a method of cooperative navigation of multiple drones and operation of a navigation device using a GNSS/INS system that combines a GNSS (Global Navigation Satellite System) system and an INS (Inertial Navigation System) system.
  • GNSS Global Navigation Satellite System
  • INS Intelligent Navigation System
  • multiple drone cooperative navigation relates to drone cooperative navigation that accurately obtains the relative position of each drone with respect to a specific structure using GNSS error sharing.
  • the navigation device operation method relates to a method of accurately obtaining the relative position of the drone by estimating the position of the structure by combining updated GNSS/INS measurements and sensor measurements.
  • Small drones have excellent mobility and the availability of various sensors, allowing them to perform a variety of missions in environments that are difficult for humans to access, and the low price and low complexity of small drones have the advantage of enabling multiple operations.
  • GNSS Global Navigation Satellite System
  • the problem that the present invention aims to solve is that when two or more drones are used for a structure inspection mission, data obtained from sensors mounted on each drone and data obtained from a satellite navigation system (GNSS) are shared with each other, so that each drone's It provides relative position data with small errors about the structure.
  • GNSS satellite navigation system
  • Another problem that the present invention aims to solve is to provide relative position data of the drone by estimating the position of the structure by combining updated GNSS/INS measurements and sensor measurements.
  • a plurality of drone cooperative navigation method includes a plurality of drone cooperative navigation including a first drone and a second drone, and the initial value of the first absolute position of the first drone is set based on the GNSS measurement value.
  • Calculating GNSS error which is the error between absolute position estimates, transmitting the calculated GNSS error to a second drone, and relative position of the second drone with respect to the industrial structure based on the received GNSS error. It may include the step of calculating .
  • the step of setting the initial value of the first absolute position of the first drone based on the GNSS measurement value includes combining the GNSS measurement value with the measurement value of the IMU sensor included in the sensor unit of the first drone. It may include setting the absolute position as the initial value.
  • the first sensor measurement may include at least one of distance data between the industrial structure and the first drone and image data of the industrial structure captured from the first drone.
  • setting an initial absolute position of the industrial structure based on the first sensor measurement and the first absolute position estimate, and when the first sensor measurement of the first drone is updated, the updated first sensor It may further include acquiring an absolute position estimate of the industrial structure based on measurements and an initial absolute position value of the industrial structure and transmitting the obtained absolute position estimate of the industrial structure to a second drone.
  • the step of acquiring the absolute position estimate of the industrial structure includes correcting the first absolute position estimate based on the updated first sensor measurement, the corrected first absolute position estimate of the first drone, the An absolute position estimate of the industrial structure can be obtained by combining the updated first sensor measurement and the initial absolute position value of the industrial structure.
  • the step of calculating the relative position of the second drone based on the industrial structure includes setting an initial value of the second absolute position of the second drone based on the GNSS measurements of the second drone, Obtaining a second absolute position estimate of the second drone based on a set second absolute position initial value and the received GNSS error, the obtained second absolute position estimate, and the received absolute position of the industrial structure It may include calculating the relative position of the second drone by combining the estimated values.
  • the step of obtaining the second absolute position estimate includes obtaining the second absolute position estimate by adding the received GNSS error to the second absolute position initial value or using a sensor unit included in the second drone. Obtaining a second sensor measurement value, and combining the second absolute position initial value, the obtained second sensor measurement value, and the received GNSS error to obtain the second absolute position estimate value.
  • a method of operating a navigation device includes the steps of setting an initial absolute position value of a drone based on GNSS measurements, obtaining sensor measurements through a sensor unit included in the drone, and the initial absolute position value. and obtaining an absolute position estimate of the drone based on the sensor measurements, setting an initial absolute position value of the industrial structure based on the sensor measurements and the absolute position estimate, when the sensor measurements of the drone are updated.
  • the sensor measurements may include at least one of distance data between the industrial structure and the drone and image data of the industrial structure captured from the drone.
  • the step of setting the initial value of the absolute position of the drone based on the GNSS measurement includes setting the result of combining the GNSS measurement value and the measurement value of the IMU sensor included in the sensor unit as the initial absolute position value of the drone. may include.
  • the step of acquiring the absolute position estimate of the industrial structure includes correcting the absolute position estimate of the drone based on the updated sensor measurement, the corrected absolute position estimate of the drone, the updated sensor measurement, and the An absolute position estimate of the industrial structure can be obtained by combining the initial absolute position values of the industrial structure.
  • the navigation device using GNSS error sharing of the present invention shares data obtained from sensors mounted on each drone and data obtained from a navigation satellite system (GNSS) when two or more drones are used for a structure inspection mission, It can provide relative position data with low error about the drone's structure. Therefore, it is possible to provide accurate relative position data for each drone while flexibly responding to the conditions of the structure inspection site.
  • GNSS navigation satellite system
  • the drone that has shared the GNSS error can accurately detect the relative position while omitting the process of acquiring separate sensor data or separately calculating the absolute position of the industrial structure. It has a new effect that allows you to determine your location.
  • the absolute and relative positions of the drone can be accurately determined even if the drone that has shared the GNSS error is not equipped with a separate sensor or the drone that has shared the GNSS error is not measuring an industrial structure. Additionally, this can have the effect of reducing the amount of data computation and improving data processing speed.
  • FIG. 1 is a conceptual diagram for explaining a navigation system according to some embodiments of the present invention.
  • FIG. 2 is a block diagram to explain the configuration of the drone in detail.
  • FIG. 3 is a block diagram for explaining in detail the configuration of the distance sensor of FIG. 2.
  • FIG. 4 is a block diagram for explaining in detail the configuration of the GNSS/INS sensor of FIG. 2.
  • FIG. 5 is a block diagram to explain the configuration of the server in detail.
  • Figure 6 is a diagram for explaining the positions of a plurality of drone trajectories and structures in three-dimensional space according to some embodiments of the present invention.
  • FIG. 7 is a diagram illustrating a process for deriving an estimated relative position of a drone according to some embodiments of the present invention.
  • Figure 8 is a conceptual diagram to explain the process of calculating the relative positions of the second and third drones using the GNSS error of the first drone.
  • Figure 9 is a flow chart to explain the process of calculating the relative position of the drone.
  • Figure 10 is a flow chart to explain the process by which each drone calculates the relative position by sharing the absolute position estimate of the structure acquired by each drone.
  • Figure 11 is a flow chart to explain the process of calculating the relative position of the second drone using the GNSS error of the first drone.
  • Figure 12 is a flow chart to explain the process of calculating the relative position of each drone by sharing the GNSS error calculated by the first drone and the second drone.
  • first, second, A, and B used in the present specification and claims may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, a first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component without departing from the scope of the present invention.
  • the term 'and/or' includes any of a plurality of related stated items or a combination of a plurality of related stated items.
  • each configuration, process, process, or method included in each embodiment of the present invention may be shared within the scope of not being technically contradictory to each other.
  • FIG. 1 is a conceptual diagram for explaining a navigation system according to some embodiments of the present invention.
  • the navigation system 10 may include a drone 100, an industrial structure 200, and a server 300.
  • the navigation system 10 may be a system that estimates the relative position of the drone 100 by combining GNSS/INS measurements and sensor measurements obtained from the drone 100.
  • the drone 100 flies around the industrial structure 200 according to control commands from the server 300 and may include a device to check the state of the industrial structure 200.
  • the drone 100 may also be referred to as an unmanned aerial vehicle (UAV).
  • UAV unmanned aerial vehicle
  • Drone 100 may include a plurality of drones 101 to 103.
  • Figure 1 shows that the number of drones 101 to 103 is three, but it is natural that the embodiment of the present invention is not limited thereto.
  • the drone 100 may be configured to automatically fly around the industrial structure 200 along a pre-calculated movement path, but is not limited to this.
  • the drone 100 may manually fly around the industrial structure 200 as needed.
  • the industrial structure 200 may refer to a large facility that requires a large number of people and costs for inspection or is highly risky for humans to directly perform the inspection.
  • the industrial structure 200 may include, but is not limited to, buildings or facilities constructed for the purpose of operating a company, such as wind power generators, factories or buildings, bridges, power lines, distribution lines, roads, etc. 1 shows a wind turbine as some examples of industrial structures 200. For convenience of explanation below, the industrial structure 200 will be described assuming that it is a wind power generator.
  • the server 300 and the drone 100 can exchange data through a communication network.
  • the communication network may include a communication network using wired Internet technology, wireless Internet technology, and short-distance communication technology.
  • Wired Internet technology may include, for example, at least one of a local area network (LAN) and a wide area network (WAN).
  • Wireless Internet technologies include, for example, Wireless LAN (WLAN), DLNA (Digital Living Network Alliance), Wibro (Wireless Broadband), Wimax (World Interoperability for Microwave Access: Wimax), and HSDPA (High Speed Downlink Packet). Access), HSUPA (High Speed Uplink Packet Access), IEEE 802.16, Long Term Evolution (LTE), LTE-A (Long Term Evolution-Advanced), Wireless Mobile Broadband Service (WMBS) and 5G NR (New Radio) technology.
  • LTE Long Term Evolution
  • LTE-A Long Term Evolution-Advanced
  • WMBS Wireless Mobile Broadband Service
  • 5G NR New Radio
  • Short-range communication technologies include, for example, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra-Wideband (UWB), ZigBee, and Near Field Communication.
  • RFID Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra-Wideband
  • ZigBee ZigBee
  • Near Field Communication At least one of NFC), Ultrasound Communication (USC), Visible Light Communication (VLC), Wi-Fi, Wi-Fi Direct, and 5G NR (New Radio) may include.
  • NFC Radio Frequency Identification
  • IrDA Infrared Data Association
  • UWB Ultra-Wideband
  • ZigBee ZigBee
  • NFC Ultrasound Communication
  • VLC Visible Light Communication
  • Wi-Fi Wi-Fi Direct
  • 5G NR New Radio
  • the drone 100 and the server 300 that communicate through a communication network can comply with technical standards and standard communication methods for mobile communication.
  • standard communication methods include GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), and EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only).
  • WCDMA Wideband CDMA
  • HSDPA High Speed Downlink Packet Access
  • HSUPA High Speed Uplink Packet Access
  • LTE Long Term Evolution
  • LTEA Long Term Evolution-Advanced
  • NR 5G New Radio
  • this embodiment is not limited to this.
  • the drone 100 may be connected to the server 300 by at least one of short-range communication technology, wired Internet technology, and wireless Internet technology.
  • this embodiment is not limited to this.
  • the server 300 may receive data related to navigation settings from the drone 100 using the above-described communication network.
  • the server 300 may receive GNSS/INS measurements of each of the plurality of drones 101 to 103 and/or sensor measurements measured by each of the drones 101 to 103 from the drone 100.
  • the server 300 inputs the received data into a navigation system (GNSS/INS) that integrates a satellite navigation system (GNSS, Global Navigation Satellite System) and an inertial navigation system (INS, Inertial Navigation System) to determine the opponent of the drone 100.
  • GNSS/INS navigation system
  • INS Inertial Navigation System
  • FIG. 2 is a block diagram to explain the configuration of the drone in detail.
  • the drone 100 of the navigation system 10 may include a sensor unit 110, a GNSS/INS module 120, a navigation calculation module 130, and a communication module 140.
  • the sensor unit 110 may detect or measure conditions around the drone 100 and/or the industrial structure 200. In other words, the sensor unit 110 may generate sensor measurements for the drone 100 and/or the industrial structure 200.
  • the sensor unit 110 may generate image data of the industrial structure 200, distance data between the drone 100 and the industrial structure 200, etc., but embodiments of the present invention are not limited thereto.
  • the GNSS/INS module 120 may generate GNSS/INS measurements of the drone 100.
  • the GNSS/INS measurements may include state variables of the drone 100.
  • the GNSS/INS measurements may include GNSS measurements, speed, acceleration, and attitude of the drone 100, but embodiments of the present invention are not limited thereto.
  • the navigation calculation module 130 may calculate the navigation of the drone 100 based on data generated by the sensor unit 110 and the GNSS/INS module 120.
  • the navigation calculation module 130 may calculate the relative position of the drone 100 with respect to the industrial structure 200 using sensor measurements and/or GNSS/INS measurements. The process by which the navigation calculation module 130 calculates the relative position will be described later.
  • the communication module 140 may be configured to exchange data with other drones flying around the industrial structure 200 and/or the server 300 through a communication network.
  • the communication module 140 may transmit the generated GNSS error and/or the absolute position estimate of the industrial structure 200 to other drones.
  • the communication module 140 transmits the sensor measurements generated by the sensor unit 110 and/or the GNSS/INS measurements generated by the GNSS/INS module 120 to the server 300, and the server ( 300), processed data can be transmitted.
  • FIG. 3 is a block diagram for explaining in detail the configuration of the distance sensor of FIG. 2.
  • the sensor unit 110 may include a camera 111 and a distance sensor 112, and the distance sensor 112 includes a front distance sensor 112a and a downward distance sensor 112b. may include.
  • the camera 111 of the sensor unit 110 may be mounted on the drone 100.
  • the camera 111 may capture an image of the industrial structure 200 and generate image data for the industrial structure 200. Additionally, the camera 111 may be configured to measure the vertical angle and/or horizontal angle formed by the drone 100 with respect to the industrial structure 200.
  • the distance sensor 112 of the sensor unit 110 may be installed in each drone 100 to generate distance data for each drone 100.
  • the distance sensor 112 is a front distance sensor 112a that measures the horizontal distance between the industrial structure 200 and each drone 100 and the vertical distance between the industrial structure 200 and each drone 100. It may be configured to include a downward distance sensor 112b that measures distance or height.
  • the forward distance sensor 112a may generate forward distance data between the drone 100 and the industrial structure 200
  • the downward distance sensor 112b may generate forward distance data between the drone 100 and the industrial structure 200.
  • Downward distance data may be generated, but embodiments of the present invention are not limited thereto.
  • FIG. 4 is a block diagram for explaining in detail the configuration of the GNSS/INS module of FIG. 2.
  • the GNSS/INS module 120 may generate GNSS/INS measurements of the drone 100 as described above, and at this time, the GNSS/INS module 120 uses the GNSS receiver 120a. and an IMU (Inertial Measurement Unit) sensor 120b.
  • IMU Inertial Measurement Unit
  • the GNSS/INS measurements generated by the GNSS/INS module 120 may include state variables of the drone 100, such as GNSS measurements, speed, acceleration, and attitude of the drone 100.
  • state variables of the drone 100 such as GNSS measurements, speed, acceleration, and attitude of the drone 100.
  • the example is not limited to this.
  • the GNSS receiver 120a may measure the GNSS measurement value of the drone 100 and/or the speed of the drone 100.
  • the IMU sensor 120b can measure acceleration, angular velocity, posture, etc. of the drone 100.
  • the embodiment of the present invention is not limited to this, and for example, some of the GNSS receiver 120a and IMU sensor 120b are omitted from the GNSS/INS module 120, or each component is integrated with each other to form a separate configuration. Alternatively, one of each configuration may be separated into another detailed configuration.
  • FIG. 5 is a block diagram to explain the configuration of the server in detail.
  • the server 300 of the navigation system 10 may include a data transmission/reception module 310, a processor 320, and a data storage module 330.
  • the data transmission/reception module 310 may be configured to exchange data with the drone 100 through a communication network.
  • the data transmission/reception module 310 can receive GNSS/INS measurements and sensor measurements from the drone 100, and can transmit data processed through the received GNSS measurements and sensor measurements to the drone 100.
  • this embodiment is not limited to this.
  • the processor 320 receives data from the data transmission/reception module 310 and performs calculations on the data.
  • the processor 320 may calculate navigation of the drone 100 based on data received from the data transmission/reception module 310. In some examples, the processor 320 may calculate the relative position of the drone 100 with respect to the industrial structure 200 using received sensor measurements and/or GNSS/INS measurements.
  • the processor 320 may perform the same role as the navigation calculation module 130 included in the drone 100.
  • the navigation calculation of the drone 100 and the relative position calculation of the drone 100 based on the industrial structure 200 are performed by the navigation calculation module 130 of the drone 100. This explains.
  • the data storage module 330 may be configured to store data required for data processing by the data transmission/reception module 310 and the processor 320 and data generated by the processor 320.
  • the data storage module 330 may store GNSS/INS measurements and sensor measurements received from the drone 100.
  • the data storage module 330 may store data generated by the processor 320 using GNSS/INS measurements and sensor measurements, such as relative position data of the drone 100.
  • this embodiment is not limited to this.
  • Figure 6 is a diagram for explaining the positions of a plurality of drone trajectories and structures in three-dimensional space according to some embodiments of the present invention.
  • a drone 100 may fly around an industrial structure 200 in a three-dimensional space.
  • the drone 100 may include a first drone 101, a second drone 102, and a third drone 103. Although the number of drones 100 is shown as three, some embodiments of the present invention are not limited to this number.
  • Each drone 100 can fly around the industrial structure 200 along a designated flight path.
  • the industrial structure 200 may be composed of a horizontal plane and a vertical plane based on the structure center point (CP).
  • the structure center point (CP) represents the location of the industrial structure 200 and may be the origin of a relative coordinate system based on the industrial structure 200.
  • FIG. 7 is a diagram illustrating a process for deriving an estimated relative position of a drone according to some embodiments of the present invention.
  • FIG. 7 explains the process of deriving the relative position of the first drone 101, which is one of the drones 101 to 103.
  • the relative position derivation process may be performed by the navigation calculation module of the first drone 101 or by the processor 320 of the server 300, as described above.
  • the process of deriving the relative position of the first drone 101 is performed by the navigation calculation module included in the first drone 101.
  • the first drone 101, the second drone 102, and the third drone 103 fly around the industrial structure 200 and use the sensor unit 110.
  • Sensor measurements can be generated through, and GNSS/INS measurements can be generated using the GNSS/INS module 120.
  • the sensor measurements include distance data between the industrial structure 200 and each drone 101 to 103, image data of the industrial structure 200 captured from each drone 101 to 103, etc. It may be possible, and the GNSS/INS measurements may include state variables of each drone (101 to 103), such as GNSS measurements, speed, acceleration, and attitude of each drone (101 to 103), but the embodiment of the present invention does not include this. It is not limited.
  • the navigation calculation module 130 may set the initial absolute position value of the first drone 101, that is, the first absolute position initial value (IAP_D1). For example, the navigation calculation module 130 may set the initial absolute position value (IAP_D1) of the first drone 101 based on the GNSS/INS measurement value of the first drone 101.
  • the navigation calculation module 130 may set the GNSS measurement value of the first drone 101 as the initial absolute position value (IAP_D1) of the first drone 101.
  • the navigation calculation module 130 may set the result of combining the GNSS measurement value of the first drone 101 and the acceleration measurement value of the first drone 101 as the first initial absolute position value (IAP_D1).
  • the GNSS measurement value may be measured by the GNSS receiver (120a in FIG. 4) of the first drone 101, and the acceleration measurement value may be measured by the IMU sensor (120b in FIG. 4) of the first drone 101.
  • the navigation calculation module 130 sets the initial absolute position value (IAP_D1) using not only the GNSS measurement value but also the acceleration measurement value, so that the absolute position of the first drone 101 can be determined more accurately.
  • the navigation calculation module 130 may obtain the absolute position estimate value of the first drone 101, that is, the first absolute position estimate value (EAP_D1), based on the set first absolute position initial value (IAP_D1).
  • the navigation calculation module 130 calculates the number based on sensor measurements obtained through the sensor unit 110 of the first drone 101, that is, the first sensor measurement value (SD_D1) and the first absolute position initial value (IAP_D1). 1
  • the absolute position estimate value (EAP_D1) can be obtained.
  • the navigation calculation module 130 may obtain the first absolute position estimate value (EAP_D1) by correcting the set first absolute position initial value (IAP_D1) using the first sensor measurement value (SD_D1).
  • the first sensor measurement SD_D1 is image data of the industrial structure 200 acquired by the sensor unit 110 of the first drone 101, and the first drone 101 and the industrial structure 200 ) may include distance data between distances, etc., but embodiments of the present invention are not limited thereto.
  • the navigation calculation module 130 may calculate the relative position (RP_D1) of the first drone 101 with respect to the industrial structure 200 based on the first absolute position estimate value (EAP_D1).
  • the navigation calculation module 130 determines the absolute position of the structure 200 based on the first absolute position estimate value (EAP_D1) and calculates the relative position (RP_D1) based on the determined absolute position of the structure 200. You can.
  • the navigation calculation module 130 may set the initial absolute position value of the structure 200 using the first sensor measurement SD_D1 and the first absolute position estimate value EAP_D1. At this time, the navigation calculation module 130 combines the first sensor measurement value (SD_D1) and the first absolute position estimate value (EAP_D1) using a predetermined position determination algorithm, etc., and uses the combined result to determine the initial absolute position of the structure 200. It may be set to a value, but embodiments of the present invention are not limited thereto.
  • the navigation calculation module 130 may obtain the absolute position estimate value (EAP_TB) of the structure 200 based on the update result of the first sensor measurement value (SD_D1) of the first drone 101.
  • the navigation calculation module 130 may control the sensor unit 110 to update the first sensor measurement value (SD_D1) according to a predetermined period (e.g., 1 second or less), and the updated first sensor measurement value Based on (SD_D1), the absolute position estimate value (EAP_TB) of the structure 200 can be obtained.
  • SD_D1 first sensor measurement value
  • EAP_TB absolute position estimate value
  • the navigation calculation module 130 when the first sensor measurement value (SD_D1) is updated, the navigation calculation module 130 generates the updated first sensor measurement value (SD_D1) and the first absolute position estimate value (EAP_D1) corrected according to the update of the first sensor measurement value (SD_D1). ) and the set absolute position initial value of the structure 200 can be combined to obtain the absolute position estimate value (EAP_TB) of the structure 200.
  • the navigation calculation module 130 whenever the first sensor measurement value (SD_D1) is updated, the navigation calculation module 130 generates an EKF (Extended The SLAM (Simultaneous Localization and Mapping) step can be performed by configuring a Kalman Filter.
  • EKF Extended The SLAM (Simultaneous Localization and Mapping) step can be performed by configuring a Kalman Filter.
  • the navigation calculation module 130 calculates the difference between the first absolute position estimate value (EAP_D1) corrected according to the update of the first sensor measurement value (SD_D1) and the obtained absolute position estimate value (EAP_TB) of the structure 200. 1
  • the relative position of the drone 101 can be calculated.
  • Each drone (101 to 103) can more accurately calculate the relative position of each drone (101 to 103) through a data sharing process with each other.
  • the absolute position estimate value (EAP_TB) of the structure acquired by each drone (101 to 103) may be shared with each other.
  • each drone ( The absolute position estimate value (EAP_TB) of the structure acquired by 101 to 103) can be shared with each other.
  • each drone 101 to 103 and the entire navigation system (10 in FIG. 1) that shares the processed data of each drone perform the Multi-Agent SLAM algorithm.
  • the absolute position estimate of the structure (EAP_TB) acquired by the first drone 101 and the absolute position estimate of the structure (EAP_TB) acquired by the second drone 102 are partially different from each other due to differences in state variables or sensing values. can do. To reduce these differences, the obtained estimated absolute position of the structure (EAP_TB) can be shared between multiple drones.
  • the navigation calculation module 130 of the first drone 101 calculates the absolute position estimate (EAP_TB) of the structure acquired by the first drone 101 and other drones (e.g. : The combination value (e.g. average) of the absolute position estimate (EAP_TB) of the structure shared from the second and third drones can be determined as the absolute position estimate of the final structure.
  • the first drone 101 may additionally correct the first absolute position estimate value (EAP_D1) of the first drone 101 using the determined absolute position estimate value of the final structure. Subsequently, the first drone 101 may calculate the difference between the determined absolute position estimate of the final structure and the additionally corrected first absolute position estimate (EAP_D1) as the relative position of the first drone 101.
  • Figure 8 is a conceptual diagram to explain the process of calculating the relative positions of the second and third drones using the GNSS error of the first drone.
  • the navigation calculation module 130 of the first drone 101 calculates the first absolute position initial value (IAP_D1) and the first absolute position through the process described above in FIG. 7. After determining the estimated value (EAP_D1), the difference between the first absolute position initial value (IAP_D1) and the first absolute position estimated value (EAP_D1), that is, the GNSS error (GE), can be calculated.
  • the GNSS error can be calculated separately for each of the three coordinate axes (X-axis, Y-axis, and Z-axis).
  • the first drone 101 may share the calculated GNSS error (GE) and the absolute position estimate (EAP_TB) of the industrial structure 200 with the second drone 102. At this time, the first drone 101 can share the corresponding data with the second drone 102 through the communication module 140.
  • GE GNSS error
  • EAP_TB absolute position estimate
  • the GNSS error (GE) can be shared separately for each of the three coordinate axes (X-axis, Y-axis, and Z-axis).
  • the first drone 101 can distinguish between GNSS errors related to the X-axis, GNSS errors related to the Y-axis, and GNSS errors related to the Z-axis and share them with the second drone 102.
  • the second drone 102 may set the initial absolute position value of the second drone 102, that is, the second absolute position initial value (IAP_D2).
  • the second drone 102 can set the second initial absolute position value (IAP_D2) in the same way as the first drone 101.
  • the second drone 102 sets the GNSS measurement value of the second drone 102 to the second absolute position initial value (IAP_D2) or sets the GNSS measurement value of the second drone 102 and the second absolute position initial value (IAP_D2).
  • the result of combining the acceleration measurements can be set as the second absolute position initial value (IAP_D2).
  • the GNSS measurement value may be measured by the GNSS receiver (120a in FIG. 4) of the second drone 102, and the acceleration measurement value may be measured by the IMU sensor (120b in FIG. 4) of the second drone 102. .
  • the second drone 102 estimates the absolute position of the second drone 102, that is, the second absolute position based on the GNSS error (GE) received from the first drone 101 and the set initial value of the second absolute position (IAP_D2).
  • a position estimate value (EAP_D2) can be obtained.
  • the navigation calculation module 130 of the second drone 102 may determine the result of adding the GNSS error (GE) to the second absolute position initial value (IAP_D2) as the second absolute position estimate value (EAP_D2).
  • GE GNSS error
  • IAP_D2 second absolute position initial value
  • EAP_D2 second absolute position estimate value
  • the second drone 102 has a new effect of obtaining an accurate absolute position estimate value (EAP_D2) while omitting the process of acquiring separate sensor data (second sensor data).
  • EAP_D2 an accurate absolute position estimate value
  • the second drone 102 only sets the second absolute position initial value (IAP_D2) using the GNSS/INS module (120 in FIG. 4), and the sensor unit (110 in FIG. 2) of the second drone 102 ) can be determined without driving the second absolute position estimate value (EAP_D2).
  • the second drone 102 is not equipped with a separate sensor unit (110 in FIG. 4) or the second drone 102 is not measuring the industrial structure 200, the This has the new effect of being able to acquire absolute and/or relative positions more accurately.
  • the navigation calculation module 130 of the second drone 102 calculates the sensor data acquired by the sensor unit of the second drone, that is, the second absolute position initial value (IAP_D2) and the GNSS error (GE). 2
  • IAP_D2 the second absolute position initial value
  • GE the GNSS error
  • a second absolute position estimate value (EAP_D2) may be determined based further on the sensor measurements (SD_D2).
  • the navigation calculation module 130 of the second drone 102 corrects the set second absolute position initial value (IAP_D2) using the second sensor measurement value (SD_D2), and adds GNSS error (GE) to the corrected result. ) can be obtained by adding the second absolute position estimate value (EAP_D2).
  • the second sensor measurement value (SD_D2) is image data of the industrial structure 200 acquired by the sensor unit 110 of the second drone 102, and the distance between the second drone 102 and the industrial structure 200. It may include data, etc., but embodiments of the present invention are not limited thereto.
  • the navigation calculation module 130 of the second drone 102 calculates the absolute position estimate value (EAP_TB) and the second absolute position estimate value (EAP_D2) of the industrial structure received from the first drone 101 and/or the server 300.
  • the difference can be calculated, and the calculated difference can be determined as the relative position (RP_D2) of the second drone.
  • the second drone 102 has a new effect of being able to determine the exact relative position (RP_D2) while omitting the process of separately calculating the absolute position of the industrial structure.
  • the second drone 102 does not need to perform the process of calculating the absolute position estimate value (EAP_TB) of the industrial structure as described above, and the absolute position estimate value of the industrial structure calculated by the first drone 101 Since (EAP_TB) can be received and used, it can have the effect of reducing the amount of data calculation and improving data processing speed.
  • one drone in the navigation system 10 may use data shared from a plurality of other drones.
  • the third drone 103 in the navigation system 10 may share the GNSS error (GE) and the absolute position estimate (EAP_TB) of the industrial structure from the other drones 101 and 102, respectively.
  • GE GNSS error
  • EAP_TB absolute position estimate
  • the third drone 103 can select and use either the GNSS error (GE) shared from the first drone 101 or the GNSS error (GE) shared from the second drone 102.
  • GE GNSS error
  • the GNSS error (GE) when sharing the GNSS error (GE), the GNSS error (GE) can be shared for each of the three coordinate axes as described above. At this time, the GNSS error (GE) shared from the first drone 101 and the second drone ( If the GNSS errors (GE) shared from 102) share the same coordinate axis, the third drone 103 can compare their error covariances and select and use the GNSS error (GE) with the smallest covariance.
  • the third drone 103 may use both the GNSS error (GE) shared from the first drone 101 and the GNSS error (GE) shared from the second drone 102.
  • the third drone 103 can use a combination value (e.g., average value) of the GNSS error (GE) shared from the first drone 101 and the GNSS error (GE) shared from the second drone 102. there is.
  • a plurality of drones 101 to 103 in the navigation system 10 may perform data operations for each drone 101 to 103, and the data processing results of each drone 101 to 103 may be shared with each other. can be used.
  • each drone (101 to 103) can separately calculate the GNSS error (GE) and the absolute position estimate of the industrial structure (EAP_TB), and calculate the calculated GNSS error (GE) and the absolute position estimate of the industrial structure (EAP_TB). can be shared with each other.
  • the absolute position estimate value (EAP_TB) of the structure calculated by the first drone 101 and the second drone 102, respectively, is calculated by each drone (101 , 102), and the GNSS errors of each drone 101 and 102 calculated by the first drone 101 and the second drone 102, respectively, can also be shared with each other.
  • the navigation calculation module 130 of each drone calculates the GNSS error (GE) directly calculated by the drone and the absolute position estimate (EAP_TB) of the industrial structure, the shared GNSS error (GE) and the industrial structure
  • the relative position of the drone can be calculated by combining (e.g. average) with the absolute position estimate (EAP_TB).
  • the navigation calculation module 130 of the first drone 101 uses the absolute position estimate value (EAP_TB) of the structure acquired by the first drone 101 and the absolute position estimate value of the structure received from the second drone 102.
  • the combination value (e.g. average) of (EAP_TB) can be determined as the final absolute position estimate of the structure.
  • the navigation calculation module 130 of the first drone 101 corrects or post-processes the first absolute position estimate (EAP_D1) with the GNSS error (GE) calculated by the second drone to obtain the final absolute position estimate of the first drone. can be calculated.
  • the navigation calculation module 130 of the first drone 101 may determine the difference between the final absolute position estimate of the structure and the final absolute position estimate of the first drone as the relative position (RP_D1) of the first drone 101. .
  • each drone (101 to 103) uses both the individually calculated position of the structure and the GNSS error, which has a new and significant effect of further increasing the relative position accuracy.
  • Figure 9 is a flow chart to explain the process of calculating the relative position of the drone. Each step in FIG. 9 may be performed by the drone 100 or the server 300 in FIG. 1. Below is a brief description, excluding duplicate content.
  • the initial absolute position of the drone can be set based on GNSS/INS measurements.
  • GNSS/INS measurements may include state variables of the drone, such as GNSS measurements, speed, acceleration, and attitude of the drone, but embodiments of the present invention are not limited thereto.
  • the GNSS measurement value of the drone can be set as the initial absolute position value of the drone.
  • the result of combining the drone's GNSS measurements and acceleration measurements can be set as the initial absolute position value of the drone.
  • the GNSS measurement can be measured by the drone's GNSS receiver (120a in FIG. 4), and the acceleration measurement can be measured by the drone's IMU sensor (120b in FIG. 4).
  • the absolute position of the drone can be determined more accurately.
  • the sensor measurement may include at least one of distance data between the industrial structure and the drone and image data of the industrial structure captured by the drone.
  • an estimate of the drone's absolute position can be obtained based on sensor measurements and the initial absolute position of the drone.
  • the absolute position estimate can be obtained by correcting the initial absolute position value of the drone using sensor measurements.
  • the initial value of the absolute position of the structure can be set using sensor measurements and the drone's absolute position estimate.
  • sensor measurements and absolute position estimates can be combined using a predetermined positioning algorithm, etc., and the combined result can be set as the initial absolute position value of the structure, but the embodiment of the present invention is not limited to this.
  • an absolute position estimate of the structure can be obtained based on the updated sensor measurements. For example, when the pre-estimated absolute position estimate and sensor measurements are updated over time, the absolute position estimate of the structure is obtained by combining the corrected absolute position estimate, updated sensor measurements, and the initial absolute position value of the set structure. It can be.
  • the relative position of the drone can be calculated by calculating the difference between the absolute position estimate of the drone and the absolute position estimate of the structure, corrected according to the update of sensor measurements.
  • Figure 10 is a flow chart to explain the process by which each drone calculates the relative position by sharing the absolute position estimate of the structure acquired by each drone.
  • Each step of FIG. 10 may be performed by the drone 100 or the server 300 of FIG. 1. Below is a brief description, excluding duplicate content.
  • the initial value of the first absolute position of the first drone can be set (S200) and the first sensor measurement value of the first drone can be obtained (S210). Additionally, similarly, the initial value of the second absolute position of the second drone can be set (S201) and the second sensor measurement value of the second drone can be obtained (S211). Subsequently, the first absolute position estimate of the first drone can be obtained (S220), and the second absolute position estimate of the second drone can be obtained (S221). Subsequently, the first drone can obtain an absolute position estimate of the structure (S230), and similarly, the second drone can obtain an absolute position estimate of the structure (S231).
  • Steps S200 to S230 and steps S201 to S231 mean that the first drone and the second drone respectively perform the same steps as the steps S100 to S130 described above in FIG. 9. You can. Detailed information is omitted.
  • the first drone and the second drone can share the estimated absolute position of the structure calculated by each other (S1).
  • the absolute position estimate of the structure acquired by the first drone and the absolute position estimate of the structure acquired by the second drone may be partially different from each other due to differences in state variables or sensing values.
  • the obtained estimate of the absolute position of the structure may be shared between the first drone and the second drone.
  • the first drone can correct the first absolute position estimate and the absolute position estimate of the structure using the shared data (S240), and similarly, the second drone can also correct the second absolute position estimate using the shared data. and the absolute position estimate of the structure can be corrected (S241).
  • the first drone may determine a combination value (e.g., average) of the absolute position estimate of the structure acquired by the first drone and the absolute position estimate of the structure shared from the second drone as the absolute position estimate of the final structure. . Subsequently, the first drone may further correct the first absolute position estimate using the determined absolute position estimate of the final structure.
  • a combination value e.g., average
  • the second drone may also determine the absolute position estimate of the final structure in the same manner as the first drone, and then further correct the second absolute position estimate.
  • step S240 and S241 that is, the absolute position estimate of the determined final structure, the additionally corrected first absolute position estimate, and the second absolute position estimate can be used. Detailed explanation is omitted.
  • Figure 11 is a flow chart to explain the process of calculating the relative position of the second drone using the GNSS error of the first drone. Each step in FIG. 11 may be performed by the drone 100 or the server 300 in FIG. 1. Below is a brief description, excluding duplicate content.
  • the initial value of the first absolute position of the first drone can be set (S300) and the first sensor measurement value of the first drone can be obtained (S310). Subsequently, the first absolute position estimate of the first drone can be obtained (S320).
  • steps S300 to S320 may mean the same steps as steps S100 to S120 described above in FIG. 9. Detailed information is omitted.
  • the first drone can calculate the GNSS error (S330).
  • the GNSS error may mean the difference between the first absolute position initial value and the first absolute position estimate value.
  • the calculated GNSS error can be communicated to other drones.
  • the description will be made assuming that the drone that receives the GNSS error of the first drone is the second drone.
  • the initial value of the second absolute position of the second drone can be set (S340).
  • the second drone sets the GNSS measurement value of the second drone as the second absolute position initial value in the same way as the first drone, or sets the result of combining the GNSS measurement value of the second drone and the acceleration measurement value of the second drone.
  • the second absolute position can be set as the initial value. Detailed explanation is omitted.
  • the second absolute position estimate of the second drone can be obtained (S350).
  • the second absolute position estimate may be determined as a result of adding the GNSS error received from the first drone to the set initial value of the second absolute position.
  • the second drone has a new effect of being able to obtain an accurate absolute position estimate while omitting the process of the second drone acquiring separate sensor data (second sensor data).
  • the second drone only sets the initial value of the second absolute position using the GNSS/INS module (120 in FIG. 4) and sets the second absolute position without driving the sensor unit (110 in FIG. 2) of the second drone.
  • a position estimate can be determined. Accordingly, the second drone has a new effect of being able to obtain an accurate absolute position estimate even without being equipped with a separate sensor unit (110 in FIG. 4).
  • the second absolute position estimate may be determined based further on sensor data acquired by the sensor unit of the second drone, that is, second sensor measurements.
  • the second absolute position estimate may be determined by correcting the set initial value of the second absolute position using the second sensor measurement and adding the GNSS error to the corrected result.
  • the second sensor measurement may include image data of the industrial structure acquired by the sensor unit of the second drone, distance data between the second drone and the industrial structure, etc., but the embodiment of the present invention is not limited thereto. .
  • the absolute position estimate of the industrial structure acquired by the first drone can be transmitted to the second drone (S360), and the relative position of the second drone can be calculated (S370).
  • the relative position of the second drone may be determined by the difference between the absolute position estimate of the industrial structure and the second absolute position estimate.
  • the second drone has the new effect of being able to determine the exact relative position while omitting the process of separately calculating the absolute position of the industrial structure.
  • the second drone does not need to perform the process of calculating the absolute position estimate of the industrial structure as described above, and can receive and use the absolute position estimate of the industrial structure calculated by the first drone, thus reducing the amount of data calculation. It can have the effect of reducing data processing speed and improving data processing speed.
  • Figure 12 is a flow chart to explain the process of calculating the relative position of each drone by sharing the GNSS error calculated by the first drone and the second drone. Each step of FIG. 12 may be performed by the drone 100 or the server 300 of FIG. 1. Below is a brief description, excluding duplicate content.
  • the initial value of the first absolute position of the first drone can be set (S400) and the first sensor measurement value of the first drone can be obtained (S410). Additionally, similarly, the initial value of the second absolute position of the second drone can be set (S401) and the second sensor measurement value of the second drone can be obtained (S411). Subsequently, the first absolute position estimate of the first drone can be obtained (S420), and the second absolute position estimate of the second drone can be obtained (S421). Subsequently, the first drone can obtain an absolute position estimate of the structure (S430), and similarly, the second drone can obtain an absolute position estimate of the structure (S431).
  • Steps S400 to S430 and steps S401 to S431 mean that the first drone and the second drone respectively perform the same steps as the steps S100 to S130 described above in FIG. 9. You can. Detailed information is omitted.
  • the first drone and the second drone can share the estimated absolute position of the structure calculated by each other (S1).
  • the absolute position estimate of the structure acquired by the first drone and the absolute position estimate of the structure acquired by the second drone may be partially different from each other due to differences in state variables or sensing values.
  • the obtained absolute position estimate of the structure may be shared between the first drone and the second drone.
  • the GNSS error of the first drone can be calculated (S440), and the GNSS error of the second drone can be calculated (S441).
  • Steps S340 and S440 may mean that the first drone and the second drone respectively perform the same steps as step S230 described above in FIG. 10 . Detailed information is omitted.
  • the first drone and the second drone may share the GNSS error calculated respectively (S2).
  • the GNSS error of the first drone and the GNSS error of the second drone may be partially different from each other due to differences in state variables or sensing values.
  • the calculated GNSS error may be shared between the first drone and the second drone.
  • the relative position of the first drone can be calculated (S450) and the relative position of the second drone can be calculated by additionally using the shared data (S451).
  • the relative position of the first drone is the difference between a combination (e.g., average) of the absolute position estimates of the structure acquired by each drone and the value corrected by the GNSS error of the second drone. It can be decided as a difference.
  • the relative position of the second drone is a combination of the absolute position estimates of the structure acquired by each drone (e.g., average), and the absolute position estimate of the second drone is corrected by the GNSS error of the first drone. It can be determined as the difference between a combination (e.g., average) of the absolute position estimates of the structure acquired by each drone and the value corrected by the GNSS error of the second drone. It can be decided as a difference.
  • the relative position of the second drone is a combination of the absolute position estimates of the structure acquired by each drone (e.g., average), and the absolute position estimate of the second drone is corrected by the GNSS error of the first drone. It can be determined as the difference between

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Astronomy & Astrophysics (AREA)
  • Navigation (AREA)

Abstract

본 발명은 GNSS 오차 공유를 이용한 복수의 드론 협동 항법 및 항법 장치 동작 방법에 관한 것이다. 상기 복수의 드론 협동 항법은, 제1 드론과 제2 드론을 포함하는 복수의 드론 협동 항법에 있어서, GNSS 측정치를 기초로 제1 드론의 제1 절대위치 초기값을 설정하는 단계, 상기 제1 절대위치 초기값 및 상기 제1 드론에 포함된 센서부를 통해 획득된 제1 센서 측정치를 기초로 제1 절대위치 추정값을 획득하는 단계, 상기 제1 절대위치 초기값과 상기 제1 절대위치 추정값 사이의 오차인 GNSS 오차를 계산하는 단계, 계산된 상기 GNSS 오차를 제2 드론에 전달하는 단계 및 상기 전달받은 GNSS 오차를 기초로 상기 제2 드론의 산업 구조물을 기준으로 한 상대위치를 계산하는 단계를 포함할 수 있다.

Description

GNSS 오차 공유를 이용한 드론 협동 항법
본 발명은 GNSS(Global Navigation Satellite System) 시스템과 INS(Inertial Navigation System) 시스템이 결합된 GNSS/INS 시스템을 이용한 복수의 드론 협동 항법 및 항법 장치 동작 방법에 관한 것이다.
구체적으로, 복수의 드론 협동 항법은 GNSS 오차 공유를 이용하여 특정 구조물에 대한 각 드론의 상대위치를 정확하게 얻는 드론 협동 항법에 관한 것이다.
또한, 항법 장치 동작 방법은, 업데이트 되는 GNSS/INS 측정치와 센서 측정치를 조합하여 구조물의 위치를 추정함으로써 해당 드론의 상대위치를 정확하게 얻는 방법에 관한 것이다.
소형 드론은 뛰어난 이동성과 다양한 센서의 이용가능성을 가지고 있어, 인간이 접근하기 어려운 환경에서 다양한 임무를 수행할 수 있으며, 소형 드론의 낮은 가격과 낮은 복잡도는 다수 운용이 가능한 장점을 가지고 있다.
일반적으로 실외 임무에 사용되는 일반적인 드론은 위성 항법 시스템(GNSS, Global Navigation Satellite System)을 기반으로 임무 경로가 결정되며 위치가 제어된다.
다만 구조물 검사 임무 등에서는 구조물과 드론의 상대위치의 높은 정확도가 요구되나, GNSS를 기반으로 한 임무 수행 시 항법 정확도가 매우 감소되는 문제점이 존재하였다.
본 발명이 해결하고자 하는 과제는, 2개 이상의 드론이 구조물 검사 임무에 사용될 때, 각각의 드론에 탑재된 센서로부터 얻은 데이터와 위성 항법 시스템(GNSS)으로부터 얻은 데이터를 서로 공유하여, 각각의 드론의 구조물에 대한 오차가 적은 상대위치 데이터를 제공하는 것이다.
본 발명이 해결하고자 하는 다른 과제는, 업데이트 되는 GNSS/INS 측정치와 센서 측정치를 조합하여 구조물의 위치를 추정함으로써 해당 드론의 상대위치 데이터를 제공하는 것이다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
본 발명의 몇몇 실시예에 따른 복수의 드론 협동 항법은, 제1 드론과 제2 드론을 포함하는 복수의 드론 협동 항법에 있어서, GNSS 측정치를 기초로 제1 드론의 제1 절대위치 초기값을 설정하는 단계, 상기 제1 절대위치 초기값 및 상기 제1 드론에 포함된 센서부를 통해 획득된 제1 센서 측정치를 기초로 제1 절대위치 추정값을 획득하는 단계, 상기 제1 절대위치 초기값과 상기 제1 절대위치 추정값 사이의 오차인 GNSS 오차를 계산하는 단계, 계산된 상기 GNSS 오차를 제2 드론에 전달하는 단계 및 상기 전달받은 GNSS 오차를 기초로 상기 제2 드론의 산업 구조물을 기준으로 한 상대위치를 계산하는 단계를 포함할 수 있다.
또한, 상기 GNSS 측정치를 기초로 제1 드론의 제1 절대위치 초기값을 설정하는 단계는, 상기 GNSS 측정치와 상기 제1 드론의 센서부에 포함된 IMU 센서의 측정치를 조합한 결과를 상기 제1 절대위치 초기값으로 설정하는 단계를 포함할 수 있다.
또한, 상기 제1 센서 측정치는, 상기 산업 구조물과 상기 제1 드론 사이의 거리 데이터 및 상기 제1 드론으로부터 촬영된 상기 산업 구조물의 이미지 데이터 중 적어도 하나를 포함할 수 있다.
또한, 상기 제1 센서 측정치와 상기 제1 절대위치 추정값을 기초로 상기 산업 구조물의 절대위치 초기값을 설정하는 단계 및 상기 제1 드론의 상기 제1 센서 측정치가 업데이트되면, 상기 업데이트되는 제1 센서 측정치 및 상기 산업 구조물의 절대위치 초기값을 기초로 상기 산업 구조물의 절대위치 추정값을 획득하는 단계 및 상기 획득된 산업 구조물의 절대위치 추정값을 제2 드론에 전달하는 단계를 더 포함할 수 있다.
또한, 상기 산업 구조물의 절대위치 추정값을 획득하는 단계는, 상기 업데이트되는 제1 센서 측정치를 기초로 상기 제1 절대위치 추정값을 보정하고, 상기 제1 드론의 상기 보정된 제1 절대위치 추정값, 상기 업데이트되는 제1 센서 측정치 및 상기 산업 구조물의 절대위치 초기값을 조합하여 상기 산업 구조물의 절대위치 추정값을 획들할 수 있다.
또한, 상기 제2 드론의 상기 산업 구조물을 기준으로 한 상대위치를 계산하는 단계는, 기 제2 드론의 GNSS 측정치를 기초로 상기 제2 드론의 제2 절대위치 초기값을 설정하는 단계와, 상기 설정된 제2 절대위치 초기값과 상기 전달받은 GNSS 오차에 기초하여 상기 제2 드론의 제2 절대위치 추정값을 획득하는 단계와, 상기 획득된 제2 절대위치 추정값과, 상기 전달받은 산업 구조물의 절대위치 추정값을 조합하여 상기 제2 드론의 상대위치를 계산하는 단계를 포함할 수 있다.
또한, 상기 제2 절대위치 추정값을 획득하는 단계는, 상기 제2 절대위치 초기값에 상기 전달받은 GNSS 오차를 합산하여 상기 제2 절대위치 추정값을 획득하거나 또는 상기 제2 드론에 포함된 센서부를 통해 제2 센서 측정치를 획득하고, 상기 제2 절대위치 초기값, 획득된 상기 제2 센서 측정치 및 상기 전달받은 GNSS 오차를 조합하여 상기 제2 절대위치 추정값을 획득하는 단계를 포함할 수 있다.
본 발명의 몇몇 실시예에 따른 항법 장치 동작 방법은, GNSS 측정치를 기초로 드론의 절대위치 초기값을 설정하는 단계, 상기 드론에 포함된 센서부를 통해 센서 측정치를 획득하는 단계, 상기 절대위치 초기값과 상기 센서 측정치를 기초로 상기 드론의 절대위치 추정값을 획득하는 단계, 상기 센서 측정치와 상기 절대위치 추정값을 기초로 산업 구조물의 절대위치 초기값을 설정하는 단계, 상기 드론의 상기 센서 측정치가 업데이트되면, 상기 업데이트되는 센서 측정치 및 상기 산업 구조물의 절대위치 초기값을 기초로 상기 산업 구조물의 절대위치 추정값을 획득하는 단계, 상기 획득된 산업 구조물의 절대위치 추정값을 기타 드론과 공유하는 단계, 상기 공유받은 산업 구조물의 절대위치 추정값을 이용하여 상기 드론이 획득한 산업 구조물의 절대위치 추정값과 상기 드론의 절대위치 추정값을 보정하는 단계 및 상기 보정된 드론의 절대위치 추정값과 상기 산업 구조물의 절대위치 추정값을 이용하여 상기 드론의 상대위치를 계산하는 단계를 포함하되, 상기 센서 측정치는 상기 산업 구조물과 상기 드론 사이의 거리 데이터 및 상기 드론으로부터 촬영된 상기 산업 구조물의 이미지 데이터 중 적어도 하나를 포함할 수 있다.
또한, 상기 GNSS 측정치를 기초로 드론의 절대위치 초기값을 설정하는 단계는, 상기 GNSS 측정치와 상기 센서부에 포함된 IMU 센서의 측정치를 조합한 결과를 상기 드론의 절대위치 초기값으로 설정하는 단계를 포함할 수 있다.
또한, 상기 산업 구조물의 절대위치 추정값을 획득하는 단계는, 상기 업데이트되는 센서 측정치를 기초로 상기 드론의 절대위치 추정값을 보정하고, 상기 드론의 상기 보정된 절대위치 추정값, 상기 업데이트되는 센서 측정치 및 상기 산업 구조물의 절대위치 초기값을 조합하여 상기 산업 구조물의 절대위치 추정값을 획득할 수 있다.
본 발명의 GNSS 오차 공유를 이용한 항법 장치는, 2개 이상의 드론이 구조물 검사 임무에 사용될 때, 각각의 드론에 탑재된 센서로부터 얻은 데이터와 위성 항법 시스템(GNSS)으로부터 얻은 데이터를 서로 공유하여, 각각의 드론의 구조물에 대한 오차가 적은 상대위치 데이터를 제공할 수 있다. 따라서, 구조물 검사 현장의 조건에 유연하게 대응하면서 각각의 드론에 대한 정확한 상대위치 데이터를 제공할 수 있다.
또한, 본 발명의 GNSS 오차 공유를 이용한 항법 장치의 일 실시예는, GNSS 오차를 공유받은 드론이 별도의 센서 데이터를 획득하는 과정 또는 별도로 산업 구조물의 절대위치를 계산하는 과정을 생략한 채로 정확한 상대위치를 결정할 수 있는 새로운 효과를 갖는다.
이를 통해 GNSS 오차를 공유받은 드론이 별도의 센서를 탑재하지 않거나 또는 GNSS 오차를 공유받은 드론이 산업 구조물을 측정하고 있지 않아도 해당 드론의 절대위치와 상대위치를 정확하게 결정할 수 있다. 또한 이를 통해 데이터 연산량이 감소되고 데이터 처리속도가 향상되는 효과 또한 가질 수 있다.
상술한 내용과 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.
도 1은 본 발명의 몇몇 실시예에 따른 항법 시스템을 설명하기 위한 개념도이다.
도 2는 드론의 구성을 세부적으로 설명하기 위한 블록도이다.
도 3은 도 2의 거리 센서의 구성을 세부적으로 설명하기 위한 블록도이다.
도 4는 도 2의 GNSS/INS 센서의 구성을 세부적으로 설명하기 위한 블록도이다.
도 5는 서버의 구성을 세부적으로 설명하기 위한 블록도이다.
도 6은 본 발명의 몇몇 실시예에 따른 3차원 공간에서의 복수의 드론 궤적과 구조물의 위치를 설명하기 위한 도면이다.
도 7은 본 발명의 몇몇 실시예에 따른 드론의 상대위치 추정값을 도출하는 과정을 설명하기 위한 도면이다.
도 8은 제1 드론의 GNSS 오차를 이용하여 제2 드론과 제3 드론이 상대위치를 계산하는 과정을 설명하기 위한 개념도이다.
도 9는 드론의 상대위치를 계산하는 과정을 설명하기 위한 흐름도이다.
도 10은 각 드론이 획득한 구조물의 절대위치 추정값을 공유함으로써 각 드론이 상대위치를 계산하는 과정을 설명하기 위한 흐름도이다.
도 11은 제1 드론의 GNSS 오차를 이용하여 제2 드론의 상대위치를 계산하는 과정을 설명하기 위한 흐름도이다.
도 12는 제1 드론과 제2 드론이 각자 계산된 GNSS 오차를 서로 공유함으로써 각 드론의 상대위치를 계산하는 과정을 설명하기 위한 흐름도이다.
본 명세서 및 특허청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.
본 명세서 및 특허청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성 요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
본 명세서 및 특허청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
“a, b 및 c 중 적어도 하나”라는 부분이 포함된 문장의 의미는 그 부분이 a만을 포함하는 경우, b만을 포함하는 경우, c만을 포함하는 경우, a와 b를 포함하는 경우, a와 c를 포함하는 경우, b와 c를 포함하는 경우와, a, b 및 c를 포함하는 경우를 포함할 수 있다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.
일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다.
이하에서는, 도 1 내지 도 5를 참조하여, 본 발명의 몇몇 실시예들에 따른 GNSS 오차 공유를 이용한 항법 시스템의 구성 요소에 대해 자세히 설명하도록 한다.
도 1은 본 발명의 몇몇 실시예에 따른 항법 시스템을 설명하기 위한 개념도이다.
도 1을 참조하면, 본 발명의 몇몇 실시예들에 따른 항법 시스템(10)은 드론(100), 산업 구조물(200) 및 서버(300)를 포함할 수 있다.
항법 시스템(10)은 드론(100)으로부터 얻은 GNSS/INS 측정치 및 센서 측정치를 조합하여 드론(100)의 상대위치를 추정하는 시스템일 수 있다.
드론(100)은 서버(300)의 제어 명령에 따라 산업 구조물(200) 주위를 비행하며, 산업 구조물(200)의 상태를 점검하는 장치를 포함할 수 있다. 드론(100)은 UAV(unmanned aerial vehicle)로도 호칭될 수 있다.
드론(100)은 복수의 드론(101 내지 103)을 포함할 수 있다. 이때 도 1에는 복수의 드론(101 내지 103)의 개수가 3개인 것으로 도시되어 있으나, 본 발명의 실시예가 이에 제한되지 않음은 당연하다.
드론(100)은 미리 계산된 이동 경로를 따라 산업 구조물(200) 주변을 자동 비행하도록 구성될 수 있으나, 이에 한정되는 것은 아니다. 예컨대, 드론(100)은 필요에 따라 산업 구조물(200) 주변을 수동으로 비행할 수도 있다.
산업 구조물(200)은 점검에 많은 인원과 비용이 필요하거나, 인간이 직접 점검을 수행하기에는 위험성이 높은 대형 시설물을 의미할 수 있다.
산업 구조물(200)은 풍력 발전기, 공장이나 건물 등 기업의 운영을 목적으로 건설한 건축물 또는 시설물, 교량, 전력선, 배전선, 도로 등을 포함할 수 있으나 이에 한정되는 것은 아니다. 도 1에는 산업 구조물(200)의 몇몇 예로서 풍력발전기가 도시되어 있다. 이하 설명의 편의를 위해 산업 구조물(200)은 풍력발전기인 것으로 가정하여 설명한다.
서버(300) 및 드론(100)은 통신망을 통해서 데이터를 교환할 수 있다. 이때, 통신망은 유선 인터넷 기술, 무선 인터넷 기술 및 근거리 통신 기술에 의한 통신망을 포함할 수 있다. 유선 인터넷 기술은 예를 들어, 근거리 통신망(LAN, Local area network) 및 광역 통신망(WAN, wide area network) 중 적어도 하나를 포함할 수 있다.
무선 인터넷 기술은 예를 들어, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 및 5G NR(New Radio) 기술 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
근거리 통신 기술은 예를 들어, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra-Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct), 5G NR (New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
통신망을 통해서 통신하는 드론(100) 및 서버(300)는 이동 통신을 위한 기술 표준 및 표준 통신 방식을 준수할 수 있다. 예를 들어, 표준 통신 방식은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTEA(Long Term Evolution-Advanced) 및 5G NR(New Radio) 중 적어도 하나를 포함할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
예를 들어, 드론(100)은 서버(300)와 근거리 통신 기술, 유선 인터넷 기술 및 무선 인터넷 기술 중 적어도 하나에 의해 연결될 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
서버(300)는 전술한 통신망을 이용하여 드론(100)으로부터 항법 설정에 관련된 데이터를 수신할 수 있다. 몇몇 예로, 서버(300)는 드론(100)으로부터 복수의 드론(101 내지 103) 각각의 GNSS/INS 측정치 및/또는 각 드론(101 내지 103)이 측정한 센서 측정치를 수신할 수 있다.
서버(300)는 위성 항법 시스템(GNSS, Global Navigation Satellite System)과 관성 항법 시스템(INS, Inertial Navigation System)이 통합된 항법 시스템(GNSS/INS)에 수신한 데이터들을 입력해 드론(100)의 상대위치 데이터를 생성할 수 있다.
도 2는 드론의 구성을 세부적으로 설명하기 위한 블록도이다.
도 2를 참조하면, 항법 시스템(10)의 드론(100)은 센서부(110), GNSS/INS 모듈(120), 항법 계산 모듈(130) 및 통신 모듈(140)을 포함할 수 있다.
센서부(110)는 드론(100) 및/또는 산업 구조물(200) 주변의 상태를 감지 또는 측정할 수 있다. 다시 말하면, 센서부(110)는 드론(100) 및/또는 산업 구조물(200)에 대한 센서 측정치를 생성할 수 있다.
몇몇 예로, 센서부(110)는 산업 구조물(200)의 이미지 데이터, 드론(100)과 산업 구조물(200)사이의 거리 데이터 등을 생성할 수 있으나, 본 발명의 실시예가 이에 제한되는 것은 아니다.
GNSS/INS 모듈(120)은 드론(100)의 GNSS/INS 측정치를 생성할 수 있다. 이때 GNSS/INS 측정치는 드론(100)의 상태 변수를 포함할 수 있다. 몇몇 예로, GNSS/INS 측정치는 드론(100)의 GNSS 측정치, 속도, 가속도 및 자세(attitude) 등을 포함할 수 있으나, 본 발명의 실시예가 이에 제한되는 것은 아니다.
항법 계산 모듈(130)은 센서부(110) 및 GNSS/INS 모듈(120)이 생성한 데이터를 기초로 드론(100)의 항법을 계산할 수 있다.
몇몇 예로, 항법 계산 모듈(130)은 센서 측정치 및/또는 GNSS/INS 측정치를 이용하여 산업 구조물(200)을 기준으로 한 드론(100)의 상대위치를 계산할 수 있다. 항법 계산 모듈(130)이 상대위치를 계산하는 과정에 대하여는 후술하기로 한다.
통신 모듈(140)은 산업 구조물(200) 주변을 비행하는 다른 드론들 및/또는 서버(300) 와 통신망을 통해 데이터를 교환하도록 구성될 수 있다.
몇몇 예로, 통신 모듈(140)은 생성된 GNSS 오차 및/또는 산업 구조물(200)의 절대위치 추정값 등을 다른 드론들에 전송할 수 있다.
다른 몇몇 예로, 통신 모듈(140)은 센서부(110)에 의해 생성된 센서 측정치 및/또는 GNSS/INS 모듈(120)에 의해 생성된 GNSS/INS 측정치를 서버(300)에 전송하고, 서버(300)로부터 가공된 데이터를 전송받을 수 있다.
도 3은 도 2의 거리 센서의 구성을 세부적으로 설명하기 위한 블록도이다.
도 2 및 도 3을 참조하면, 센서부(110)는 카메라(111) 및 거리 센서(112)를 포함할 수 있고, 거리 센서(112)는 전방 거리 센서(112a) 및 하방 거리 센서(112b)를 포함할 수 있다.
센서부(110)의 카메라(111)는 드론(100)에 탑재될 수 있다. 카메라(111)는 산업 구조물(200)의 이미지를 촬영하여 산업 구조물(200)에 대한 이미지 데이터를 생성할 수 있다. 또한, 카메라(111)는 산업 구조물(200)을 기준으로 드론(100)이 이루는 수직 각도 및/또는 수평 각도를 측정하도록 구성될 수 있다.
센서부(110)의 거리 센서(112)는 각각의 드론(100)에 설치되어 각 드론(100)의 거리 데이터를 생성할 수 있다.
예를 들어, 거리 센서(112)는, 산업 구조물(200)과 각 드론(100) 사이의 수평 거리를 측정하는 전방 거리 센서(112a) 및 산업 구조물(200)과 각 드론(100) 사이의 수직 거리 또는 높이를 측정하는 하방 거리 센서(112b)를 포함하도록 구성될 수 있다.
다시 말하면, 전방 거리 센서(112a)는 드론(100)과 산업 구조물(200)사이의 전방 거리 데이터를 생성할 수 있고, 하방 거리 센서(112b)는 드론(100)과 산업 구조물(200)사이의 하방 거리 데이터를 생성할 수 있으나, 본 발명의 실시예가 이에 제한되는 것은 아니다.
도 4는 도 2의 GNSS/INS 모듈의 구성을 세부적으로 설명하기 위한 블록도이다.
도 2 및 도 4를 참조하면, GNSS/INS 모듈(120)은 전술한 바와 같이 드론(100)의 GNSS/INS 측정치를 생성할 수 있고, 이때 GNSS/INS 모듈(120)은 GNSS 수신기(120a) 및 IMU(Inertial Measurement Unit) 센서(120b)를 포함할 수 있다.
이때, GNSS/INS 모듈(120)이 생성하는 GNSS/INS 측정치는 드론(100)의 상태 변수, 예컨대 드론(100)의 GNSS 측정치, 속도, 가속도 및 자세 등을 포함할 수 있으나, 본 발명의 실시예가 이에 제한되는 것은 아니다.
구체적으로 설명하면, GNSS 수신기(120a)는 드론(100)의 GNSS 측정치 및/또는 드론(100)의 속도를 측정할 수 있다. IMU 센서(120b)는 드론(100)의 가속도, 각속도, 자세 등을 측정할 수 있다.
다만, 본 발명의 실시예가 이에 제한되는 것은 아니며, 예컨대 GNSS/INS 모듈(120)에서 GNSS 수신기(120a) 및 IMU 센서(120b) 중 일부가 생략되거나, 각 구성이 서로 통합되어 별개의 구성을 이루거나 또는 각 구성 중 어느 하나의 구성이 또 다른 세부 구성으로 분리될 수도 있다.
도 5는 서버의 구성을 세부적으로 설명하기 위한 블록도이다.
도 5를 참조하면, 항법 시스템(10)의 서버(300)는 데이터 송수신 모듈(310), 프로세서(320) 및 데이터 저장 모듈(330)을 포함할 수 있다.
데이터 송수신 모듈(310)은 통신망을 통해 드론(100)과 데이터를 교환하도록 구성될 수 있다. 데이터 송수신 모듈(310)은 드론(100)으로부터 GNSS/INS 측정치와 센서 측정치를 수신할 수 있고, 수신된 GNSS 측정치와 센서 측정치를 통해 가공한 데이터를 드론(100)으로 전송할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
프로세서(320)는 데이터 송수신 모듈(310)로부터 데이터를 받아 데이터의 연산이 이루어지도록 한다.
프로세서(320)는 데이터 송수신 모듈(310)로부터 전달받은 데이터를 기초로 드론(100)의 항법을 계산할 수 있다. 몇몇 예로, 프로세서(320)는 전달받은 센서 측정치 및/또는 GNSS/INS 측정치를 이용하여 산업 구조물(200)을 기준으로 한 드론(100)의 상대위치를 계산할 수 있다.
다시 말하면, 프로세서(320)는 드론(100)에 포함된 항법 계산 모듈(130)과 동일한 역할을 수행할 수 있다. 이하, 설명의 편의를 위해 드론(100)의 항법 계산, 드론(100)의 산업 구조물(200)을 기준으로 하는 상대위치 계산은 드론(100)의 항법 계산 모듈(130)에 의해 수행되는 것으로 가정하여 설명한다.
데이터 저장 모듈(330)은 데이터 송수신 모듈(310) 및 프로세서(320)에 의한 데이터 처리 과정에 필요한 데이터와 프로세서(320)에 의해 생성되는 데이터를 저장하도록 구성될 수 있다.
예를 들어, 데이터 저장 모듈(330)은 드론(100)으로부터 수신된 GNSS/INS 측정치와 센서 측정치를 저장할 수 있다. 다른 예를 들어, 데이터 저장 모듈(330)은 프로세서(320)가 GNSS/INS 측정치와 센서 측정치를 이용하여 생성한 데이터, 예컨대 드론(100)의 상대위치 데이터를 저장할 수 있다. 단, 본 실시예가 이에 제한되는 것은 아니다.
이하에서는, 도 6 내지 도 12를 참조하여, 본 발명의 몇몇 실시예들에 따른 GNSS 오차 공유를 이용한 복수의 드론 협동 방법과 항법 장치 동작 방법에 대해 자세히 설명하도록 한다.
도 6은 본 발명의 몇몇 실시예에 따른 3차원 공간에서의 복수의 드론 궤적과 구조물의 위치를 설명하기 위한 도면이다.
도 6을 참조하면, 3차원의 공간 상에 드론(100)이 산업 구조물(200) 주위를 비행할 수 있다. 드론(100)은 제1 드론(101), 제2 드론(102) 및 제3 드론(103)을 포함할 수 있다. 드론(100)의 개수가 3개로 도시되었지만, 본 발명의 몇몇 실시예들이 이러한 개수에 제한되는 것은 아니다. 드론(100)은 각각 정해진 비행 경로를 따라 산업 구조물(200) 주위를 비행할 수 있다.
산업 구조물(200)은 구조물 중심점(CP)을 기준으로 수평 평면과 수직 평면으로 구성될 수 있다. 구조물 중심점(CP)은 산업 구조물(200)의 위치를 나타내며, 산업 구조물(200)을 기준으로 하는 상대 좌표계의 원점이 될 수 있다.
도 7은 본 발명의 몇몇 실시예에 따른 드론의 상대위치 추정값을 도출하는 과정을 설명하기 위한 도면이다.
도 7에서는 각 드론(101 내지 103)중 어느 하나인, 제1 드론(101)의 상대위치 도출과정을 설명한다. 이때 상대위치 도출과정은 전술한 바와 같이 제1 드론(101)의 항법 계산 모듈에 의해 수행되거나 또는 서버(300)의 프로세서(320)에 의해 수행될 수 있다. 다만 이하 설명의 편의를 위해 제1 드론(101)의 상대위치 도출과정은 제1 드론(101)에 포함된 항법 계산 모듈에 의해 수행되는 것으로 가정하여 설명한다.
도 2, 도 6 및 도 7을 참조하면, 먼저 제1 드론(101), 제2 드론(102) 및 제3 드론(103)은 산업 구조물(200) 주위를 비행하며, 센서부(110)를 통해 센서 측정치를 생성할 수 있고, GNSS/INS 모듈(120)을 이용하여 GNSS/INS 측정치를 생성할 수 있다.
이때, 전술한 바와 같이 센서 측정치는 산업 구조물(200)과 각각의 드론(101 내지 103) 사이의 거리 데이터, 각각의 드론(101 내지 103)으로부터 촬영된 산업 구조물(200)의 이미지 데이터 등을 포함할 수 있고, GNSS/INS 측정치는 각 드론(101 내지 103)의 상태 변수, 예컨대 각 드론(101 내지 103)의 GNSS 측정치, 속도, 가속도 및 자세 등을 포함할 수 있으나, 본 발명의 실시예가 이에 제한되는 것은 아니다.
항법 계산 모듈(130)은 제1 드론(101)의 절대위치 초기값, 즉 제1 절대위치 초기값(IAP_D1)을 설정할 수 있다. 예컨대, 항법 계산 모듈(130)은 제1 드론(101)의 GNSS/INS 측정치를 기초로 제1 드론(101)의 절대위치 초기값(IAP_D1)을 설정할 수 있다.
일 예로, 항법 계산 모듈(130)은 제1 드론(101)의 GNSS 측정치를 제1 드론(101)의 절대위치 초기값(IAP_D1)으로 설정할 수 있다.
다른 예로, 항법 계산 모듈(130)은 제1 드론(101)의 GNSS 측정치와 제1 드론(101)의 가속도 측정치를 조합한 결과를 제1 절대위치 초기값(IAP_D1)으로 설정할 수 있다. 이때 GNSS 측정치는 제1 드론(101)의 GNSS 수신기(도 4의 120a)에 의해 측정될 수 있고, 가속도 측정치는 제1 드론(101)의 IMU 센서(도 4의 120b)에 의해 측정될 수 있다. 이때, 항법 계산 모듈(130)이 GNSS 측정치 뿐만 아니라 가속도 측정치 까지 이용하여 절대위치 초기값(IAP_D1)을 설정함으로써, 제1 드론(101)의 절대위치를 더욱 정확하게 파악할 수 있다.
이어서, 항법 계산 모듈(130)은 설정된 제1 절대위치 초기값(IAP_D1)을 기초로 제1 드론(101)의 절대위치 추정값, 즉 제1 절대위치 추정값(EAP_D1)을 획득할 수 있다.
몇몇 예로, 항법 계산 모듈(130)은 제1 드론(101)의 센서부(110)를 통해 얻은 센서 측정치, 즉 제1 센서 측정치(SD_D1)와 제1 절대위치 초기값(IAP_D1)을 기초로 제1 절대위치 추정값(EAP_D1)을 획득할 수 있다. 예컨대, 항법 계산 모듈(130)은 설정된 제1 절대위치 초기값(IAP_D1)을 제1 센서 측정치(SD_D1)를 이용하여 보정함으로써 제1 절대위치 추정값(EAP_D1)을 획득할 수 있다.
이때, 제1 센서 측정치(SD_D1)는 전술한 바와 같이 제1 드론(101)의 센서부(110)에 의해 획득되는 산업 구조물(200)의 이미지 데이터, 제1 드론(101)과 산업 구조물(200)사이의 거리 데이터 등을 포함할 수 있으나, 본 발명의 실시예가 이에 제한되는 것은 아니다.
이어서, 항법 계산 모듈(130)은 제1 절대위치 추정값(EAP_D1)을 기초로 제1 드론(101)의 산업 구조물(200)을 기준으로 한 상대위치(RP_D1)를 계산할 수 있다.
이때, 항법 계산 모듈(130)은 제1 절대위치 추정값(EAP_D1)을 기초로 구조물(200)의 절대위치를 판단하고, 판단된 구조물(200)의 절대위치에 기초하여 상대위치(RP_D1)를 계산할 수 있다.
구체적으로 설명하면, 항법 계산 모듈(130)은 제1 센서 측정치(SD_D1)와 제1 절대위치 추정값(EAP_D1)을 이용하여 구조물(200)의 절대위치 초기값을 설정할 수 있다. 이때, 항법 계산 모듈(130)은 미리 정해진 위치 결정 알고리즘 등을 이용하여 제1 센서 측정치(SD_D1)와 제1 절대위치 추정값(EAP_D1)을 조합하고, 조합한 결과를 구조물(200)의 절대위치 초기값으로 설정할 수 있으나, 본 발명의 실시예가 이에 제한되는 것은 아니다.
이어서, 항법 계산 모듈(130)은 제1 드론(101)의 제1 센서 측정치(SD_D1)의 업데이트 결과에 기초하여 구조물(200)의 절대위치 추정값(EAP_TB)을 획득할 수 있다.
예를 들어, 항법 계산 모듈(130)은 미리 정해진 주기(예: 1초 이하)에 따라 제1 센서 측정치(SD_D1)를 업데이트 하도록 센서부(110)를 제어할 수 있고, 업데이트 되는 제1 센서 측정치(SD_D1)에 기초하여 구조물(200)의 절대위치 추정값(EAP_TB)을 획득할 수 있다.
이때, 항법 계산 모듈(130)은 제1 센서 측정치(SD_D1)가 업데이트되면, 업데이트되는 제1 센서 측정치(SD_D1), 제1 센서 측정치(SD_D1)의 업데이트에 따라 보정되는 제1 절대위치 추정값(EAP_D1) 및 설정된 구조물(200)의 절대위치 초기값을 조합하여 구조물(200)의 절대위치 추정값(EAP_TB)을 획득할 수 있다.
다시 말하면, 항법 계산 모듈(130)은 제1 센서 측정치(SD_D1)가 업데이트 될 때 마다, 제1 절대위치 추정값(EAP_D1)과 설정된 구조물(200)의 절대위치 초기값을 상태 벡터로 하는 EKF(Extended Kalman Filter)를 구성하여 SLAM(Simultaneous Localization and Mapping)단계를 수행할 수 있다.
이어서, 항법 계산 모듈(130)은 제1 센서 측정치(SD_D1)의 업데이트에 따라 보정된 제1 절대위치 추정값(EAP_D1) 및 획득된 구조물(200)의 절대위치 추정값(EAP_TB)의 차이를 계산함으로써 제1 드론(101)의 상대위치를 계산할 수 있다.
각 드론(101 내지 103)은 서로 간에 데이터 공유 과정을 통해 각 드론(101 내지 103)의 상대위치를 더욱 정확하게 계산할 수 있다.
예를 들어, 각 드론(101 내지 103)이 획득한 구조물의 절대위치 추정값(EAP_TB)은 서로 공유될 수 있다.
예컨대, 제2 드론(102)과 제3 드론(103)이 각각 제2 절대위치 추정치와 제3 절대위치 추정값을 획득하고, 이를 통해 구조물의 절대위치 추정값(EAP_TB)을 획득하게 되면, 각 드론(101 내지 103)이 획득한 구조물의 절대위치 추정값(EAP_TB)은 서로 공유될 수 있다. 다시 말하면, 이때 각 드론(101 내지 103) 및 각 드론의 처리 데이터를 공유하는 전체 항법 시스템(도 1의 10)은 Multi-Agent SLAM 알고리즘을 수행하게 되는 것이다.
즉, 제1 드론(101)이 획득한 구조물의 절대위치 추정값(EAP_TB)과, 제2 드론(102)이 획득한 구조물의 절대위치 추정값(EAP_TB)은 상태 변수 또는 센싱 값의 차이로 서로 일부 상이할 수 있다. 이러한 차이를 감소시키기 위해 획득된 구조물의 절대위치 추정값(EAP_TB)은 복수의 드론 간에 서로 공유될 수 있다.
제1 드론(101)을 예를 들어 설명하면, 제1 드론(101)의 항법 계산 모듈(130)은 제1 드론(101)이 획득한 구조물의 절대위치 추정값(EAP_TB)과 기타 다른 드론(예: 제2 드론 및 제3 드론)으로부터 공유 받은 구조물의 절대위치 추정값(EAP_TB)의 조합값(예: 평균)을 최종 구조물의 절대위치 추정값으로 결정할 수 있다. 이때, 제1 드론(101)은 결정된 최종 구조물의 절대위치 추정값을 이용하여 제1 드론(101)의 제1 절대위치 추정값(EAP_D1)을 추가로 보정할 수 있다. 이어서, 제1 드론(101)은 결정된 최종 구조물의 절대위치 추정값과 추가로 보정된 제1 절대위치 추정값(EAP_D1)의 차이를 제1 드론(101)의 상대위치로 계산할 수 있다.
도 8은 제1 드론의 GNSS 오차를 이용하여 제2 드론과 제3 드론이 상대위치를 계산하는 과정을 설명하기 위한 개념도이다.
이하 설명의 편의를 위해 제2 드론(102)의 상대위치를 계산하는 경우만을 예로 들어 설명한다.
도 2, 도 6 및 도 8을 참조하면, 우선, 제1 드론(101)의 항법 계산 모듈(130)은 도 7에서 전술한 과정을 통해 제1 절대위치 초기값(IAP_D1)과 제1 절대위치 추정값(EAP_D1)을 결정한 후, 제1 절대위치 초기값(IAP_D1)과 제1 절대위치 추정값(EAP_D1)의 차이, 즉 GNSS 오차(GE)를 계산할 수 있다.
이때, GNSS 오차(GE)는 3개의 좌표축(X축, Y축, Z축) 각각에 대하여 별도로 계산될 수 있다.
이어서, 제1 드론(101)은 계산된 GNSS 오차(GE)와 산업 구조물(200)의 절대위치 추정값(EAP_TB)을 제2 드론(102)에 공유할 수 있다. 이때, 제1 드론(101)은 통신 모듈(140)을 통해 해당 데이터들을 제2 드론(102)에 공유할 수 있다.
이때, GNSS 오차(GE)는 3개의 좌표축(X축, Y축, Z축) 각각에 대하여 별도로 공유될 수 있다. 다시 말하면, 제1 드론(101)은 X축에 관련된 GNSS 오차와, Y축에 관련된 GNSS 오차와, Z축에 관련된 GNSS 오차를 구분하여 제2 드론(102)에 공유할 수 있다.
제2 드론(102)은 제2 드론(102)의 절대위치 초기값, 즉 제2 절대위치 초기값(IAP_D2)을 설정할 수 있다.
이때, 제2 드론(102)은 제1 드론(101)에서와 같은 방식으로 제2 절대위치 초기값(IAP_D2)을 설정할 수 있다. 다시 말하면, 제2 드론(102)은 제2 드론(102)의 GNSS 측정치를 제2 절대위치 초기값(IAP_D2)으로 설정하거나 또는 제2 드론(102)의 GNSS 측정치와 제2 드론(102)의 가속도 측정치를 조합한 결과를 제2 절대위치 초기값(IAP_D2)으로 설정할 수 있다. 이때 GNSS 측정치는 제2 드론(102)의 GNSS 수신기(도 4의 120a)에 의해 측정될 수 있고, 가속도 측정치는 제2 드론(102)의 IMU 센서(도 4의 120b)에 의해 측정될 수 있다.
제2 드론(102) 은 제1 드론(101)으로부터 전달받은 GNSS 오차(GE)와 설정된 제2 절대위치 초기값(IAP_D2)에 기초하여 제2 드론(102)의 절대위치 추정값, 즉 제2 절대위치 추정값(EAP_D2)을 획득할 수 있다.
일 예로, 제2 드론(102)의 항법 계산 모듈(130)은 제2 절대위치 초기값(IAP_D2)에 GNSS 오차(GE)를 합산한 결과를 제2 절대위치 추정값(EAP_D2)으로 결정할 수 있다.
이때, 제2 드론(102)은 제2 드론(102)이 별도의 센서 데이터(제2 센서 데이터)를 획득하는 과정을 생략한 채로, 정확한 절대위치 추정값(EAP_D2)을 획득할 수 있는 새로운 효과를 갖는다. 다시 말하면, 제2 드론(102)은 GNSS/INS 모듈(도 4의 120)을 이용하여 제2 절대위치 초기값(IAP_D2)을 설정할 뿐, 제2 드론(102)의 센서부(도 2의 110)를 구동함이 없이 제2 절대위치 추정값(EAP_D2)을 결정할 수 있다.
이에 따라, 제2 드론(102)이 별도의 센서부(도 4의 110)를 탑재하지 않거나 또는 제2 드론(102)이 산업 구조물(200)을 측정하고 있지 않아도, 제2 드론(102)의 절대위치 및/또는 상대위치를 더욱 정확하게 획득할 수 있는 새로운 효과를 갖게 되는 것이다.
다른 예로, 제2 드론(102)의 항법 계산 모듈(130)은 제2 절대위치 초기값(IAP_D2)과 GNSS 오차(GE)와 함께, 제2 드론의 센서부에 의해 획득된 센서 데이터, 즉 제2 센서 측정치(SD_D2)에 더 기초하여 제2 절대위치 추정값(EAP_D2)을 결정할 수 있다.
예를 들어, 제2 드론(102)의 항법 계산 모듈(130)은 설정된 제2 절대위치 초기값(IAP_D2)을 제2 센서 측정치(SD_D2)를 이용하여 보정하고, 보정된 결과에 GNSS 오차(GE)를 합산함으로써 제2 절대위치 추정값(EAP_D2)을 획득할 수 있다. 이때, 제2 센서 측정치(SD_D2)는 제2 드론(102)의 센서부(110)에 의해 획득되는 산업 구조물(200)의 이미지 데이터, 제2 드론(102)과 산업 구조물(200)사이의 거리 데이터 등을 포함할 수 있으나, 본 발명의 실시예가 이에 제한되는 것은 아니다.
이어서, 제2 드론(102)의 항법 계산 모듈(130)은 제1 드론(101) 및/또는 서버(300)로부터 수신되는 산업 구조물의 절대위치 추정값(EAP_TB)과 제2 절대위치 추정값(EAP_D2)의 차이를 계산하고, 계산된 차이를 제2 드론의 상대위치(RP_D2)로 결정할 수 있다.
이때, 제2 드론(102)은 별도로 산업 구조물의 절대위치를 계산하는 과정을 생략한 채로, 정확한 상대위치(RP_D2)를 결정할 수 있는 새로운 효과를 갖는다. 다시 말하면, 제2 드론(102)은 전술한 바와 같은 산업 구조물의 절대위치 추정값(EAP_TB)을 계산하는 과정을 수행할 필요가 없고, 제1 드론(101)에 의해 계산된 산업 구조물의 절대위치 추정값(EAP_TB)을 수신하여 이용할 수 있으므로, 데이터 연산량 감소 및 데이터 처리속도 향상의 효과를 가질 수 있다.
도 8에는 GNSS 오차(GE)와 산업 구조물의 절대위치 추정값(EAP_TB)을 제1 드론(101)만이 계산하고 이를 제2 드론(102)과 제3 드론(103)에 공유하는 과정만이 도시되어 있으나, 본 발명의 실시예가 이에 제한되는 것은 아니다.
몇몇 예로, 항법 시스템(10)내의 어느 하나의 드론은 다른 복수의 드론들로부터 공유받은 데이터를 이용할 수도 있다.
예컨대, 항법 시스템(10)내의 제3 드론(103)은 기타 드론들(101 및 102)로부터 GNSS 오차(GE)와 산업 구조물의 절대위치 추정값(EAP_TB)을 각각 공유받을 수 있다.
일 예로, 제3 드론(103)은 제1 드론(101)으로부터 공유받은 GNSS 오차(GE)와 제2 드론(102)으로부터 공유받은 GNSS 오차(GE) 중 어느 하나를 선택하여 이용할 수 있다.
예컨대, GNSS 오차(GE) 공유시 전술한 바와 같이 3개의 좌표축 각각에 대하여 GNSS 오차(GE)를 공유받을 수 있는데, 이때 제1 드론(101)으로부터 공유받은 GNSS 오차(GE)와 제2 드론(102)으로부터 공유받은 GNSS 오차(GE)가 같은 좌표축을 공유하고 있는 경우, 제3 드론(103)은 이들의 오차 공분산을 비교하여 공분산이 가장 작은 GNSS 오차(GE)를 선택하여 이용할 수 있다.
다른 예로, 제3 드론(103)은 제1 드론(101)으로부터 공유받은 GNSS 오차(GE)와 제2 드론(102)으로부터 공유받은 GNSS 오차(GE)를 모두 이용할 수도 있다. 예컨대, 제3 드론(103)은 제1 드론(101)으로부터 공유받은 GNSS 오차(GE)와 제2 드론(102)으로부터 공유받은 GNSS 오차(GE)의 조합값(예: 평균값)등을 이용할 수 있다.
다른 몇몇 예로, 항법 시스템(10)내의 복수의 드론(101 내지 103)은 각 드론(101 내지 103) 별로 데이터 연산을 수행할 수 있고, 각 드론(101 내지 103)의 데이터 처리 결과는 서로 간에 공유되어 이용될 수 있다.
다시 말하면, 각 드론(101 내지 103)들은 GNSS 오차(GE)와 산업 구조물의 절대위치 추정값(EAP_TB)을 별도로 계산할 수 있고, 계산된 GNSS 오차(GE)와 산업 구조물의 절대위치 추정값(EAP_TB)을 서로간에 공유할 수 있다.
제1 드론(101)과 제2 드론(102)을 예를 들어 설명하면, 제1 드론(101)과 제2 드론(102)이 각각 계산한 구조물의 절대위치 추정값(EAP_TB)은 각 드론(101, 102)간에 공유될 수 있고, 제1 드론(101)과 제2 드론(102)이 각각 계산한 각 드론(101, 102)의 GNSS 오차 또한 서로 간에 공유될 수 있다.
이때, 각 드론(101 내지 103)의 항법 계산 모듈(130)은 해당 드론이 직접 계산한 GNSS 오차(GE)와 산업 구조물의 절대위치 추정값(EAP_TB)을, 공유 받은 GNSS 오차(GE)와 산업 구조물의 절대위치 추정값(EAP_TB)과 조합(예: 평균)하여 해당 드론의 상대위치를 계산할 수 있다.
예를 들어, 제1 드론(101)의 항법 계산 모듈(130)은 제1 드론(101)이 획득한 구조물의 절대위치 추정값(EAP_TB)과 제2 드론(102)으로부터 전달받은 구조물의 절대위치 추정값(EAP_TB)의 조합값(예: 평균)을 구조물의 최종 절대위치 추정값으로 결정할 수 있다. 또한, 제1 드론(101)의 항법 계산 모듈(130)은 제1 절대위치 추정값(EAP_D1)을 제2 드론이 계산한 GNSS 오차(GE)로 보정 또는 후처리하여 제1 드론의 최종 절대위치 추정값을 계산할 수 있다. 이어서, 제1 드론(101)의 항법 계산 모듈(130)은 구조물의 최종 절대위치 추정값과 제1 드론의 최종 절대위치 추정값 간의 차이를 제1 드론(101)의 상대위치(RP_D1)로 결정할 수 있다. 이때 각 드론(101 내지 103)이 개별적으로 계산한 구조물의 위치와 GNSS 오차를 모두 이용함으로써, 상대위치 정확도가 더욱 상승할 수 있는 새롭고도 현저한 효과를 갖는다.
도 9는 드론의 상대위치를 계산하는 과정을 설명하기 위한 흐름도이다. 도 9의 각 단계는 도 1의 드론(100) 또는 서버(300)에 의해 수행될 수 있다. 이하 중복되는 내용은 제외하고 간략하게 설명한다.
먼저, 드론의 절대위치 초기값을 설정하고(S100), 드론의 센서 측정치를 획득할 수 있다(S110).
드론의 절대위치 초기값은 GNSS/INS 측정치를 기초로 설정될 수 있다. GNSS/INS 측정치는 드론의 상태 변수, 예컨대 드론의 GNSS 측정치, 속도, 가속도 및 자세 등을 포함할 수 있으나, 본 발명의 실시예가 이에 제한되는 것은 아니다.
일 예로, 드론의 GNSS 측정치를 드론의 절대위치 초기값으로 설정할 수 있다. 다른 예로, 드론의 GNSS 측정치와 가속도 측정치를 조합한 결과를 드론의 절대위치 초기값으로 설정할 수 있다. 이때 GNSS 측정치는 드론의 GNSS 수신기(도 4의 120a)에 의해 측정될 수 있고, 가속도 측정치는 드론의 IMU 센서(도 4의 120b)에 의해 측정될 수 있다. 이때, GNSS 측정치 뿐만 아니라 가속도 측정치 까지 이용하여 절대위치 초기값을 설정함으로써, 드론의 절대위치를 더욱 정확하게 파악할 수 있다.
센서 측정치는 산업 구조물과 드론 사이의 거리 데이터, 드론으로부터 촬영된 산업 구조물의 이미지 데이터 중 적어도 하나를 포함할 수 있다.
이어서, 드론의 절대위치 추정값을 획득할 수 있다(S120).
몇몇 예로, 센서 측정치와 드론의 절대위치 초기값을 기초로 드론의 절대위치 추정값을 획득할 수 있다. 예컨대, 절대위치 추정값은 설정된 드론의 절대위치 초기값을 센서 측정치를 이용하여 보정함으로써 획득될 수 있다.
이어서 구조물의 절대위치 추정값을 획득할 수 있다(S130).
구체적으로 설명하면, 센서 측정치와 드론의 절대위치 추정값을 이용하여 구조물의 절대위치 초기값을 설정할 수 있다. 이때, 미리 정해진 위치 결정 알고리즘 등을 이용하여 센서 측정치와 절대위치 추정값을 조합하고, 조합한 결과를 구조물의 절대위치 초기값으로 설정할 수 있으나, 본 발명의 실시예가 이에 제한되는 것은 아니다.
이어서, 구조물의 절대위치 추정값은 업데이트 되는 센서 측정치에 기초하여 획득될 수 있다. 예를 들어, 구조물의 절대위치 추정값은 시간의 흐름에 따라 기 추정된 절대위치 추정값과 센서 측정치가 업데이트되면, 보정되는 절대위치 추정값, 업데이트 되는 센서 측정치 및 설정된 구조물의 절대위치 초기값을 조합함으로써 획득될 수 있다.
이어서, 드론의 상대위치를 계산할 수 있다(S140).
드론의 상대위치는 센서 측정치의 업데이트에 따라 보정된 드론의 절대위치 추정값 및 구조물의 절대위치 추정값의 차이를 계산함으로써 산출될 수 있다.
*도 10은 각 드론이 획득한 구조물의 절대위치 추정값을 공유함으로써 각 드론이 상대위치를 계산하는 과정을 설명하기 위한 흐름도이다. 도 10의 각 단계는 도 1의 드론(100) 또는 서버(300)에 의해 수행될 수 있다. 이하 중복되는 내용은 제외하고 간략하게 설명한다.
먼저, 제1 드론의 제1 절대위치 초기값을 설정하고(S200), 제1 드론의 제1 센서 측정치를 획득할 수 있다(S210). 또한, 이와 유사하게, 제2 드론의 제2 절대위치 초기값을 설정하고(S201), 제2 드론의 제2 센서 측정치를 획득할 수 있다(S211). 이어서, 제1 드론의 제1 절대위치 추정값을 획득할 수 있고(S220), 제2 드론의 제2 절대위치 추정값을 획득할 수 있다(S221). 이어서, 제1 드론이 구조물의 절대위치 추정값을 획득할 수 있고(S230), 이와 유사하게, 제2 드론이 구조물의 절대위치 추정값을 획득할 수 있다(S231).
단계(S200) 내지 단계(S230) 및 단계(S201) 내지 단계(S231)는, 도 9에서 전술한 단계(S100 내지 S130)과 동일한 단계를 제1 드론과 제2 드론이 각각 수행하는 것을 의미할 수 있다. 자세한 내용은 생략한다.
이어서, 제1 드론과 제2 드론이 각각 계산한 구조물의 절대위치 추정값을 서로 공유할 수 있다(S1).
즉, 제1 드론이 획득한 구조물의 절대위치 추정값과, 제2 드론이 획득한 구조물의 절대위치 추정값은 상태 변수 또는 센싱 값의 차이로 서로 일부 상이할 수 있다. 이러한 차이를 감소시키기 위해 획득된 구조물의 절대위치 추정값은 제1 드론과 제2 드론간에 서로 공유될 수 있다.
이어서, 제1 드론은 공유한 데이터를 이용하여 제1 절대위치 추정값과 구조물의 절대위치 추정값을 보정할 수 있고(S240), 이와 유사하게 제2 드론 또한 공유한 데이터를 이용하여 제2 절대위치 추정값과 구조물의 절대위치 추정값을 보정할 수 있다(S241).
몇몇 예로, 제1 드론은 제1 드론이 획득한 구조물의 절대위치 추정값과, 제2 드론으로부터 공유받은 구조물의 절대위치 추정값의 조합값(예: 평균)을 최종 구조물의 절대위치 추정값으로 결정할 수 있다. 이어서, 제1 드론은 결정된 최종 구조물의 절대위치 추정값을 이용하여 제1 절대위치 추정값을 추가로 보정할 수 있다.
제2 드론 또한 제1 드론과 마찬가지의 방식으로 최종 구조물의 절대위치 추정값을 결정한 후 제2 절대위치 추정값을 추가로 보정할 수 있다.
이어서, 제1 드론과 제2 드론의 상대위치를 계산할 수 있다(S250, S251).
이때 단계(S240, S241)의 데이터 처리결과, 즉 결정된 최종 구조물의 절대위치 추정값, 추가로 보정된 제1 절대위치 추정값 및 제2 절대위치 추정값이 이용될 수 있다. 자세한 설명은 생략한다.
도 11은 제1 드론의 GNSS 오차를 이용하여 제2 드론의 상대위치를 계산하는 과정을 설명하기 위한 흐름도이다. 도 11의 각 단계는 도 1의 드론(100) 또는 서버(300)에 의해 수행될 수 있다. 이하 중복되는 내용은 제외하고 간략하게 설명한다.
먼저, 제1 드론의 제1 절대위치 초기값을 설정하고(S300), 제1 드론의 제1 센서 측정치를 획득할 수 있다(S310). 이어서, 제1 드론의 제1 절대위치 추정값을 획득할 수 있다(S320).
이때, 단계(S300) 내지 단계(S320)는 도 9에서 전술한 단계(S100 내지 S120)과 동일한 단계를 의미할 수 있다. 자세한 내용은 생략한다.
이어서, 제1 드론이 GNSS 오차를 계산할 수 있다(S330).
이때, GNSS 오차는 제1 절대위치 초기값과 제1 절대위치 추정값 사이의 차이를 의미할 수 있다. 계산된 GNSS 오차는 다른 드론들에 전달될 수 있다. 이하 제1 드론의 GNSS 오차를 전달받는 드론은 제2 드론인 것으로 가정하여 설명한다.
이어서, 제2 드론의 제2 절대위치 초기값을 설정할 수 있다(S340).
이때, 제2 드론은 제1 드론에서와 같은 방식으로, 제2 드론의 GNSS 측정치를 제2 절대위치 초기값으로 설정하거나 또는 제2 드론의 GNSS 측정치와 제2 드론의 가속도 측정치를 조합한 결과를 제2 절대위치 초기값으로 설정할 수 있다. 자세한 설명은 생략한다.
이어서, 제2 드론의 제2 절대위치 추정값을 획득할 수 있다(S350).
일 예로, 제2 절대위치 추정값은 설정된 제2 절대위치 초기값에 제1 드론으로부터 전달받은 GNSS 오차를 합산한 결과로 결정될 수 있다. 이때, 제2 드론은 제2 드론이 별도의 센서 데이터(제2 센서 데이터)를 획득하는 과정을 생략한 채로, 정확한 절대위치 추정값을 획득할 수 있는 새로운 효과를 갖는다. 다시 말하면, 제2 드론은 GNSS/INS 모듈(도 4의 120)을 이용하여 제2 절대위치 초기값을 설정할 뿐, 제2 드론의 센서부(도 2의 110)를 구동함이 없이 제2 절대위치 추정값을 결정할 수 있다. 이에 따라, 제2 드론이 별도의 센서부(도 4의 110)를 탑재하지 않아도 정확한 절대위치 추정값을 획득할 수 있는 새로운 효과를 갖게 되는 것이다.
다른 예로, 제2 절대위치 추정값은 제2 드론의 센서부에 의해 획득된 센서 데이터, 즉 제2 센서 측정치에 더 기초하여 결정될 수 있다. 예를 들어, 제2 절대위치 추정값은 설정된 제2 절대위치 초기값을 제2 센서 측정치를 이용하여 보정하고, 보정된 결과에 GNSS 오차를 합산함으로써 결정될 수 있다. 이때, 제2 센서 측정치는 제2 드론의 센서부에 의해 획득되는 산업 구조물의 이미지 데이터, 제2 드론과 산업 구조물사이의 거리 데이터 등을 포함할 수 있으나, 본 발명의 실시예가 이에 제한되는 것은 아니다.
이어서, 제1 드론이 획득한 산업 구조물의 절대위치 추정값을 제2 드론에 전달할 수 있고(S360), 제2 드론의 상대위치를 계산할 수 있다(S370).
예컨대, 제2 드론의 상대위치는, 산업 구조물의 절대위치 추정값과 제2 절대위치 추정값의 차이로 결정될 수 있다. 이때, 제2 드론은 별도로 산업 구조물의 절대위치를 계산하는 과정을 생략한 채로, 정확한 상대위치를 결정할 수 있는 새로운 효과를 갖는다. 다시 말하면, 제2 드론은 전술한 바와 같은 산업 구조물의 절대위치 추정값을 계산하는 과정을 수행할 필요가 없고, 제1 드론에 의해 계산된 산업 구조물의 절대위치 추정값을 수신하여 이용할 수 있으므로, 데이터 연산량 감소 및 데이터 처리속도 향상의 효과를 가질 수 있다.
도 12는 제1 드론과 제2 드론이 각자 계산된 GNSS 오차를 서로 공유함으로써 각 드론의 상대위치를 계산하는 과정을 설명하기 위한 흐름도이다. 도 12의 각 단계는 도 1의 드론(100) 또는 서버(300)에 의해 수행될 수 있다. 이하 중복되는 내용은 제외하고 간략하게 설명한다.
먼저, 제1 드론의 제1 절대위치 초기값을 설정하고(S400), 제1 드론의 제1 센서 측정치를 획득할 수 있다(S410). 또한, 이와 유사하게, 제2 드론의 제2 절대위치 초기값을 설정하고(S401), 제2 드론의 제2 센서 측정치를 획득할 수 있다(S411). 이어서, 제1 드론의 제1 절대위치 추정값을 획득할 수 있고(S420), 제2 드론의 제2 절대위치 추정값을 획득할 수 있다(S421). 이어서, 제1 드론이 구조물의 절대위치 추정값을 획득할 수 있고(S430), 이와 유사하게, 제2 드론이 구조물의 절대위치 추정값을 획득할 수 있다(S431).
단계(S400) 내지 단계(S430) 및 단계(S401) 내지 단계(S431)는, 도 9에서 전술한 단계(S100 내지 S130)과 동일한 단계를 제1 드론과 제2 드론이 각각 수행하는 것을 의미할 수 있다. 자세한 내용은 생략한다.
이어서, 제1 드론과 제2 드론이 각각 계산한 구조물의 절대위치 추정값을 서로 공유할 수 있다(S1).
즉, 제1 드론이 획득한 구조물의 절대위치 추정값과, 제2 드론이 획득한 구조물의 절대위치 추정값은 상태 변수 또는 센싱 값의 차이로 서로 일부 상이할 수 있다. 이러한 차이를 감소시키기 위해 획득된 구조물의 절대위치 추정값은 제1 드론과 제2 드론간에 서로 공유될 수 있다.
이어서, 제1 드론의 GNSS 오차를 계산하고(S440), 제2 드론의 GNSS 오차를 계산할 수 있다(S441).
단계(S340) 및 단계(S440)는 도 10에서 전술한 단계(S230)와 동일한 단계를 제1 드론과 제2 드론이 각각 수행하는 것을 의미할 수 있다. 자세한 내용은 생략한다.
이어서, 제1 드론과 제2 드론이 각각 계산한 GNSS 오차를 서로 공유할 수 있다(S2).
즉, 제1 드론의 GNSS 오차와 제2 드론의 GNSS 오차는, 상태 변수 또는 센싱 값의 차이로 서로 일부 상이할 수 있다. 이러한 차이를 감소시키기 위해 계산된 GNSS 오차는 제1 드론과 제2 드론간에 서로 공유될 수 있다.
이어서, 서로 공유한 데이터를 추가로 이용하여 제1 드론의 상대위치를 계산할 수 있고(S450), 제2 드론의 상대위치를 계산할 수 있다(S451).
예를 들어, 제1 드론의 상대위치는 각 드론이 획득한 구조물의 절대위치 추정값의 조합값(예: 평균)과, 제1 드론의 절대위치 추정값을 제2 드론의 GNSS 오차로 보정한 값 간의 차이로서 결정될 수 있다. 또는, 이와 유사하게 제2 드론의 상대위치는 각 드론이 획득한 구조물의 절대위치 추정값의 조합값(예: 평균)과, 제2 드론의 절대위치 추정값을 제1 드론의 GNSS 오차로 보정한 값 간의 차이로서 결정될 수 있다.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (10)

  1. 제1 드론과 제2 드론을 포함하는 복수의 드론 협동 항법에 있어서,
    GNSS 측정치를 기초로 제1 드론의 제1 절대위치 초기값을 설정하는 단계;
    상기 제1 절대위치 초기값 및 상기 제1 드론에 포함된 센서부를 통해 획득된 제1 센서 측정치를 기초로 제1 절대위치 추정값을 획득하는 단계;
    상기 제1 절대위치 초기값과 상기 제1 절대위치 추정값 사이의 오차인 GNSS 오차를 계산하는 단계;
    계산된 상기 GNSS 오차를 제2 드론에 전달하는 단계; 및
    상기 전달받은 GNSS 오차를 기초로 상기 제2 드론의 산업 구조물을 기준으로 한 상대위치를 계산하는 단계를 포함하는 복수의 드론 협동 항법.
  2. 제1 항에 있어서,
    상기 GNSS 측정치를 기초로 제1 드론의 제1 절대위치 초기값을 설정하는 단계는,
    상기 GNSS 측정치와 상기 제1 드론의 센서부에 포함된 IMU 센서의 측정치를 조합한 결과를 상기 제1 절대위치 초기값으로 설정하는 단계를 포함하는 복수의 드론 협동 항법.
  3. 제1 항에 있어서,
    상기 제1 센서 측정치는,
    상기 산업 구조물과 상기 제1 드론 사이의 거리 데이터 및 상기 제1 드론으로부터 촬영된 상기 산업 구조물의 이미지 데이터 중 적어도 하나를 포함하는 복수의 드론 협동 항법.
  4. 제1 항에 있어서,
    상기 제1 센서 측정치와 상기 제1 절대위치 추정값을 기초로 상기 산업 구조물의 절대위치 초기값을 설정하는 단계;
    상기 제1 드론의 상기 제1 센서 측정치가 업데이트되면, 상기 업데이트되는 제1 센서 측정치 및 상기 산업 구조물의 절대위치 초기값을 기초로 상기 산업 구조물의 절대위치 추정값을 획득하는 단계; 및
    상기 획득된 산업 구조물의 절대위치 추정값을 제2 드론에 전달하는 단계를 더 포함하는 복수의 드론 협동 항법.
  5. 제4 항에 있어서,
    상기 산업 구조물의 절대위치 추정값을 획득하는 단계는,
    상기 업데이트되는 제1 센서 측정치를 기초로 상기 제1 절대위치 추정값을 보정하고, 상기 제1 드론의 상기 보정된 제1 절대위치 추정값, 상기 업데이트되는 제1 센서 측정치 및 상기 산업 구조물의 절대위치 초기값을 조합하여 상기 산업 구조물의 절대위치 추정값을 획득하는 항법 장치 동작 방법.
  6. 제4 항에 있어서,
    상기 제2 드론의 상기 산업 구조물을 기준으로 한 상대위치를 계산하는 단계는,
    상기 제2 드론의 GNSS 측정치를 기초로 상기 제2 드론의 제2 절대위치 초기값을 설정하는 단계와,
    상기 설정된 제2 절대위치 초기값과 상기 전달받은 GNSS 오차에 기초하여 상기 제2 드론의 제2 절대위치 추정값을 획득하는 단계와,
    상기 획득된 제2 절대위치 추정값과, 상기 전달받은 산업 구조물의 절대위치 추정값을 조합하여 상기 제2 드론의 상대위치를 계산하는 단계를 포함하는 복수의 드론 협동 항법.
  7. 제6 항에 있어서,
    상기 제2 절대위치 추정값을 획득하는 단계는,
    상기 제2 절대위치 초기값에 상기 전달받은 GNSS 오차를 합산하여 상기 제2 절대위치 추정값을 획득하거나 또는
    상기 제2 드론에 포함된 센서부를 통해 제2 센서 측정치를 획득하고, 상기 제2 절대위치 초기값, 획득된 상기 제2 센서 측정치 및 상기 전달받은 GNSS 오차를 조합하여 상기 제2 절대위치 추정값을 획득하는 단계를 포함하는 복수의 드론 협동 항법.
  8. GNSS 측정치를 기초로 드론의 절대위치 초기값을 설정하는 단계;
    상기 드론에 포함된 센서부를 통해 센서 측정치를 획득하는 단계;
    상기 절대위치 초기값과 상기 센서 측정치를 기초로 상기 드론의 절대위치 추정값을 획득하는 단계;
    상기 센서 측정치와 상기 절대위치 추정값을 기초로 산업 산업 구조물의 절대위치 초기값을 설정하는 단계;
    상기 드론의 상기 센서 측정치가 업데이트되면, 상기 업데이트되는 센서 측정치 및 상기 산업 구조물의 절대위치 초기값을 기초로 상기 산업 구조물의 절대위치 추정값을 획득하는 단계;
    상기 획득된 산업 구조물의 절대위치 추정값을 기타 드론과 공유하는 단계;
    상기 공유받은 산업 구조물의 절대위치 추정값을 이용하여 상기 드론이 획득한 산업 구조물의 절대위치 추정값과 상기 드론의 절대위치 추정값을 보정하는 단계; 및
    상기 보정된 드론의 절대위치 추정값과 상기 산업 구조물의 절대위치 추정값을 이용하여 상기 드론의 상대위치를 계산하는 단계를 포함하되,
    상기 센서 측정치는 상기 산업 구조물과 상기 드론 사이의 거리 데이터 및 상기 드론으로부터 촬영된 상기 산업 구조물의 이미지 데이터 중 적어도 하나를 포함하는 항법 장치 동작 방법.
  9. 제8 항에 있어서,
    상기 GNSS 측정치를 기초로 드론의 절대위치 초기값을 설정하는 단계는,
    상기 GNSS 측정치와 상기 센서부에 포함된 IMU 센서의 측정치를 조합한 결과를 상기 드론의 절대위치 초기값으로 설정하는 단계를 포함하는 항법 장치 동작 방법.
  10. 제8 항에 있어서,
    상기 산업 구조물의 절대위치 추정값을 획득하는 단계는,
    상기 업데이트되는 센서 측정치를 기초로 상기 드론의 절대위치 추정값을 보정하고, 상기 드론의 상기 보정된 절대위치 추정값, 상기 업데이트되는 센서 측정치 및 상기 산업 구조물의 절대위치 초기값을 조합하여 상기 산업 구조물의 절대위치 추정값을 획득하는 항법 장치 동작 방법.
PCT/KR2023/016204 2022-10-31 2023-10-18 Gnss 오차 공유를 이용한 드론 협동 항법 WO2024096387A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0143010 2022-10-31
KR1020220143010A KR102488642B1 (ko) 2022-10-31 2022-10-31 Gnss 오차 공유를 이용한 드론 협동 항법

Publications (1)

Publication Number Publication Date
WO2024096387A1 true WO2024096387A1 (ko) 2024-05-10

Family

ID=85106774

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/016204 WO2024096387A1 (ko) 2022-10-31 2023-10-18 Gnss 오차 공유를 이용한 드론 협동 항법

Country Status (2)

Country Link
KR (1) KR102488642B1 (ko)
WO (1) WO2024096387A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102488642B1 (ko) * 2022-10-31 2023-01-18 (주)니어스랩 Gnss 오차 공유를 이용한 드론 협동 항법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101821992B1 (ko) * 2016-08-22 2018-03-08 아주대학교 산학협력단 무인비행체를 이용한 목표물의 3차원 위치 산출 방법 및 장치
KR102248964B1 (ko) * 2020-11-30 2021-05-07 세종대학교산학협력단 항체 사이의 상대 측위 오차를 보상하는 위성항법 시스템
US20210341527A1 (en) * 2016-05-18 2021-11-04 Skydio, Inc. Unmanned Aerial Vehicle Electromagnetic Avoidance And Utilization System
KR102348289B1 (ko) * 2020-07-07 2022-01-10 한국철도기술연구원 드론을 이용하여 시설물을 점검하는 시스템 및 그 제어방법
KR20220118008A (ko) * 2021-02-18 2022-08-25 광주과학기술원 다중 드론 측위 및 촬영 시스템
KR102488642B1 (ko) * 2022-10-31 2023-01-18 (주)니어스랩 Gnss 오차 공유를 이용한 드론 협동 항법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210341527A1 (en) * 2016-05-18 2021-11-04 Skydio, Inc. Unmanned Aerial Vehicle Electromagnetic Avoidance And Utilization System
KR101821992B1 (ko) * 2016-08-22 2018-03-08 아주대학교 산학협력단 무인비행체를 이용한 목표물의 3차원 위치 산출 방법 및 장치
KR102348289B1 (ko) * 2020-07-07 2022-01-10 한국철도기술연구원 드론을 이용하여 시설물을 점검하는 시스템 및 그 제어방법
KR102248964B1 (ko) * 2020-11-30 2021-05-07 세종대학교산학협력단 항체 사이의 상대 측위 오차를 보상하는 위성항법 시스템
KR20220118008A (ko) * 2021-02-18 2022-08-25 광주과학기술원 다중 드론 측위 및 촬영 시스템
KR102488642B1 (ko) * 2022-10-31 2023-01-18 (주)니어스랩 Gnss 오차 공유를 이용한 드론 협동 항법

Also Published As

Publication number Publication date
KR102488642B1 (ko) 2023-01-18

Similar Documents

Publication Publication Date Title
WO2024096387A1 (ko) Gnss 오차 공유를 이용한 드론 협동 항법
WO2011129617A2 (en) Determination of a location of an apparatus
WO2020130679A1 (en) Vehicle driving control apparatus and calibration method performed by the vehicle driving control apparatus
WO2018043820A1 (ko) 기상 정보를 이용한 무인 비행체의 경로 안내 시스템, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체
WO2016112733A1 (zh) 无人机调度方法及系统、无人机
WO2014104574A1 (ko) 선형배열 영상 센서와 자세제어 센서 간의 절대 오정렬 보정방법
WO2016186458A1 (ko) 영상 정보 수집 시스템 및 이동 객체에 대한 영상 정보를 수집하는 방법
WO2014065540A1 (ko) 하향링크 액세스 포인트를 이용한 위치추정장치 및 위치추정방법
WO2019124894A1 (ko) 무인 비행체 및 그의 동작 방법, 그리고 상기 무인 비행체의 이동을 제어하기 위한 무인 운반체
WO2021112376A1 (ko) 디지털 트윈을 이용한 음성 명령 선박 조종 시스템 및 이를 이용한 선박 조종 방법
WO2017048067A1 (en) Terminal and method for measuring location thereof
WO2015183049A1 (ko) 옵티컬 트래킹 시스템 및 옵티컬 트래킹 시스템의 마커부 자세 산출방법
WO2019199112A1 (ko) 자율 작업 시스템, 방법 및 컴퓨터 판독 가능한 기록매체
WO2015147371A1 (ko) 차량의 위치 보정 장치 및 방법과 이를 이용한 차량 위치 보정 시스템 및 무인 운행이 가능한 차량
WO2020138760A1 (ko) 전자 장치 및 그의 제어 방법
EP3351023A1 (en) Terminal and method for measuring location thereof
WO2023033323A1 (ko) 무인 비행체 편대 제어 시스템 및 그 방법
WO2018021681A1 (ko) 비행 가이드용 플레이트를 이용한 드론 스테이션
WO2024117539A1 (ko) 장애물을 고려한 드론의 최적 경로 계획 장치 및 방법
WO2024106899A1 (ko) 단일 주파수 수신기에서 다중 채널에서 발생하는 신호의 차이를 감지하는 장치 및 방법
EP3639584A1 (en) Method and apparatus for determining location by using identification information corresponding to external electronic device
WO2019009624A1 (ko) 무인비행체의 안전 운항을 위한 디지털 무빙 맵 서비스 제공 방법 및 장치
WO2023022305A1 (ko) 보행자 실내 위치 측위 장치 및 방법
WO2022080844A1 (ko) 스켈레톤 분석을 이용한 객체 추적 장치 및 방법
WO2021261695A1 (ko) 군집 드론 비행을 이용한 태양광 패널 표면의 이물질 제거 방법 및 시스템