WO2022131584A1 - 항공기용 제어장치 및 그것의 제어방법 - Google Patents

항공기용 제어장치 및 그것의 제어방법 Download PDF

Info

Publication number
WO2022131584A1
WO2022131584A1 PCT/KR2021/016901 KR2021016901W WO2022131584A1 WO 2022131584 A1 WO2022131584 A1 WO 2022131584A1 KR 2021016901 W KR2021016901 W KR 2021016901W WO 2022131584 A1 WO2022131584 A1 WO 2022131584A1
Authority
WO
WIPO (PCT)
Prior art keywords
aircraft
delivery
area
address
image
Prior art date
Application number
PCT/KR2021/016901
Other languages
English (en)
French (fr)
Inventor
홍유정
Original Assignee
디스이즈엔지니어링주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 디스이즈엔지니어링주식회사 filed Critical 디스이즈엔지니어링주식회사
Priority to US18/267,482 priority Critical patent/US20240062135A1/en
Priority to EP21906889.7A priority patent/EP4266143A1/en
Publication of WO2022131584A1 publication Critical patent/WO2022131584A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/16Flying platforms with five or more distinct rotor axes, e.g. octocopters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/10Propulsion
    • B64U50/13Propulsion using external fans or propellers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U60/00Undercarriages
    • B64U60/50Undercarriages with landing legs
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/20Control system inputs
    • G05D1/24Arrangements for determining position or orientation
    • G05D1/243Means capturing signals occurring naturally from the environment, e.g. ambient optical, acoustic, gravitational or magnetic signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/656Interaction with payloads or external entities
    • G05D1/667Delivering or retrieving payloads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • G06Q10/0835Relationships between shipper or supplier and carriers
    • G06Q10/08355Routing methods
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • G08G5/0039Modification of a flight plan
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/60UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/102Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2105/00Specific applications of the controlled vehicles
    • G05D2105/20Specific applications of the controlled vehicles for transportation
    • G05D2105/28Specific applications of the controlled vehicles for transportation of freight
    • G05D2105/285Specific applications of the controlled vehicles for transportation of freight postal packages
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2107/00Specific environments of the controlled vehicles
    • G05D2107/10Outdoor regulated spaces
    • G05D2107/17Spaces with priority for humans, e.g. populated areas, pedestrian ways, parks or beaches
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2109/00Types of controlled vehicles
    • G05D2109/20Aircraft, e.g. drones
    • G05D2109/25Rotorcrafts
    • G05D2109/254Flying platforms, e.g. multicopters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D2111/00Details of signals used for control of position, course, altitude or attitude of land, water, air or space vehicles
    • G05D2111/10Optical signals
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0004Transmission of traffic-related information to or from an aircraft
    • G08G5/0013Transmission of traffic-related information to or from an aircraft with a ground station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0021Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located in the aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/02Automatic approach or landing aids, i.e. systems in which flight data of incoming planes are processed to provide landing data
    • G08G5/025Navigation or guidance aids

Definitions

  • the present invention relates to a control device for an aircraft and a control method thereof.
  • Aircraft refers to a means of transportation that can float in the air and move people or luggage using kinetic energy.
  • Representative examples of aircraft include airplanes, helicopters, multicopters, airships, and unmanned aerial vehicles.
  • the function of the aircraft may be divided into a convenience function for the convenience of the pilot and a safety function for the safety of the pilot and/or passengers.
  • an autonomous flying aircraft capable of automatically driving to a destination without the intervention of a pilot is being developed.
  • the present invention aims to solve the above and other problems.
  • An object of the present invention is to provide a control device for an aircraft and a control method thereof for controlling an aircraft so that a delivery product can be quickly and accurately delivered to a delivery destination.
  • One embodiment of the present invention for realizing the above problems relates to a control device for an aircraft and a control method thereof. Furthermore, it includes an aircraft including the control device for the aircraft.
  • control method of the control device for an aircraft including a communication unit and a processor, receiving the address of the delivery address to which the delivery should be delivered; and controlling the aircraft through the communication unit so that the pre-delivered product is delivered to the delivery location, wherein the controlling the aircraft through the pre-delivery unit comprises a plurality of deliveries defining an area where the aircraft should drop the shipment.
  • selecting one of the criteria for delivery based on the address setting a delivery area and a flight route to the delivery area based on the delivery standard; controlling the aircraft to fly along the flight path; and controlling the aircraft to drop the shipment into the delivery area when the aircraft arrives at the delivery area.
  • the controlling of the aircraft through the communication unit may include: acquiring a map image including the delivery address; classifying at least one region of the map image into a plurality of regions; and setting at least one of the plurality of areas as the delivery area based on the delivery standard.
  • the method comprising: receiving, by a sensor mounted on the aircraft, sensing information sensed for the delivery area; resetting the delivery area from a first area to a second area when the sensing information satisfies a reference condition; and controlling the aircraft so that the shipment falls in a second area other than the first area.
  • resetting the delivery area to the second area may include: searching for a predetermined area satisfying a drop condition of the delivered product using the sensing information; and resetting the predetermined area to the second area.
  • control method may include, when the predetermined area is not searched, setting a new flight path using the sensing information; and controlling the aircraft to fly along a new flight path.
  • the predetermined area may be a flat land in which the elevation of the land is within a predetermined range.
  • the drop condition may vary depending on the delivered product.
  • the sensing information is an image of the delivery area, and when an object that makes delivery impossible is found from the image, the delivery area may be reset from the first area to the second area have.
  • control method may include controlling the aircraft to hover at a point while resetting the delivery area.
  • control method may further include receiving terminal location information of a recipient who is scheduled to receive the delivered product, and the delivery area may vary according to the terminal location information.
  • control method may include setting a first area facing a first door and a second area facing a second door based on the delivery destination; and setting the first area or the second area as the delivery area according to the terminal location information.
  • control method based on the address, setting a waypoint spaced apart from the delivery area by a reference distance, characterized in that the waypoint is included in the flight route; receiving, by the aircraft, an image of the delivery area at the stopover; and searching for the delivery area using the image.
  • the reference distance may vary according to the number of floors of the delivery place included in the address.
  • the reference distance in the step of setting the waypoint, may be varied according to characteristics of a camera mounted on the aircraft to capture the image.
  • the waypoint in the step of setting the waypoint, is expressed in three-dimensional coordinates defined by latitude, longitude, and altitude, and the altitude value of the waypoint is different depending on the number of floors of the delivery place included in the address. can be set.
  • the step of setting the waypoint may include: obtaining height information of a building including the delivery location; and determining the elevation value by comparing the number of floors of the delivery address included in the address with the height information.
  • the step of searching for the delivery area using the image may include: overlapping a matrix of rectangles of a predetermined size on the image; and starting counting from a reference rectangle and searching for a delivery area corresponding to any one rectangle from the image in which the matrix overlaps.
  • the predetermined size may vary according to the address.
  • the present invention includes an aircraft control device for performing the control method according to the above-described embodiment, and an aircraft controlled thereby.
  • the control device for an aircraft can search for a delivery destination more quickly and accurately, thereby minimizing energy consumption for delivery.
  • FIG. 1 is a perspective view showing one form of an aircraft according to the present invention.
  • FIG. 2 is a block diagram illustrating an aircraft according to the present invention
  • FIG. 3 is a block diagram illustrating a control relationship between main components of an aviation control system according to an embodiment of the present invention
  • FIG. 4 is a conceptual diagram for explaining a control device for an aircraft according to an embodiment of the present invention.
  • FIG. 5 is a flowchart for explaining a control method of the control device for an aircraft of FIG. 4
  • FIG. 6 is a flowchart illustrating a method of setting a delivery area using sensing information received from an aircraft
  • FIG. 7A and 7B are conceptual views for explaining the control method of FIG. 6
  • FIG. 8 is a flowchart illustrating a method of resetting a delivery area
  • FIG. 9 is a flowchart illustrating a method of controlling an aircraft to reset a delivery area
  • FIG. 10 is a flowchart illustrating a method of resetting a delivery area based on a user who will receive a delivery product
  • FIG. 11 is a conceptual diagram for explaining the method of FIG.
  • FIG. 12 is a flowchart for explaining a control method for searching a delivery area
  • FIG. 13A and 13B are exemplary views for explaining the control method of FIG. 12
  • FIG. 14 is a flowchart illustrating a method of searching a delivery area using an image.
  • 15A to 15C are exemplary views for explaining the method of FIG. 14
  • FIGS. 1 and 2 An aircraft will be described in more detail with reference to FIGS. 1 and 2 .
  • 1 is a perspective view showing a form of an aircraft according to the present invention
  • Figure 2 is a block diagram for explaining the aircraft according to the present invention.
  • the aircraft described herein include an internal combustion engine vehicle having an engine as a power source, a hybrid vehicle having an engine and an electric motor as a power source, an electric vehicle having an electric motor as a power source, a hydrogen fuel cell vehicle utilizing hydrogen energy, etc. includes all
  • the aircraft includes an unmanned aerial vehicle (UAV).
  • UAV unmanned aerial vehicle
  • An unmanned aerial vehicle means an object flying by itself and/or by induction of radio waves received from a remote controller without a pilot.
  • unmanned aerial vehicles are increasingly used for commercial purposes such as observation/delivery and for civilian purposes such as video recording.
  • the aircraft 100 flies unmanned while being manually operated by a ground manager or automatically controlled by a set flight program.
  • the aircraft 100 includes at least one of a main body 20 , a power supply unit 10 , and a landing leg 130 as shown in FIG. 1 .
  • the body 20 is a body part on which the work module 40 is mounted.
  • the work module 40 is a hardware module detachable from the main body 20 according to a function required for the aircraft 100 .
  • a robot arm capable of gripping or placing an object, a gimbal that minimizes shaking, an image sensor that generates an image, and the like may be detachably attached to the main body 20 .
  • the power supply unit 10 is composed of one or more propellers 11 installed vertically to the body 20, and the power supply unit 10 according to an embodiment of the present invention includes a plurality of propellers 11 spaced apart from each other. and a motor 12 .
  • the power supply unit 10 may be formed of an air injection type thruster structure rather than the propeller 11 .
  • a plurality of propeller supports are formed radially from the body 20 .
  • Each propeller support may be equipped with a motor 12 .
  • Each motor 12 is equipped with a propeller 11 .
  • the plurality of propellers 11 may be symmetrically disposed with respect to the center of the body 20 .
  • the rotation direction of the plurality of propellers 11 may be determined such that the rotation direction of the motor 12 is combined with a clockwise direction and a counterclockwise direction.
  • the rotation direction of the pair of propellers 11 symmetrical with respect to the center of the main body 20 may be set to be the same (eg, clockwise).
  • the other pair of propellers 11 may have opposite rotational directions (eg, counterclockwise).
  • the landing legs 30 are spaced apart from each other on the bottom surface of the main body 20 .
  • a buffer support member (not shown) that minimizes the impact caused by a collision with the ground when the aircraft 100 is landed may be mounted on the lower portion of the landing leg 30 .
  • the aircraft 100 may have various structures of different aircraft configurations than those described above.
  • the aircraft 100 measures its own flight state using various sensors in order to fly stably.
  • the aircraft 100 may include a sensor 130 including at least one sensor.
  • the flight state of the aircraft 100 is defined as a rotational state and a translational state.
  • the rotational state means ‘Yaw’, ‘Pitch’ and ‘Roll’
  • the translational state means longitude, latitude, altitude, and speed.
  • roll, pitch, and yaw are called Euler angles, and the three axes of the plane aircraft coordinates x, y, and z are rotated about certain specific coordinates, for example, the NED coordinates N, E, and D. indicates When the front of the airplane rotates left and right based on the z-axis of the aircraft coordinates, the x-axis of the aircraft coordinates is angularly different with respect to the N-axis of the NED coordinates, and this angle is called "yaw" ( ⁇ ).
  • the aircraft 100 uses three-axis gyroscopes, three-axis acceleration sensors, and three-axis magnetometers to measure the rotational motion state, and a GPS sensor to measure the translational motion state.
  • a barometric pressure sensor is used.
  • the sensor 130 of the present invention includes at least one of a gyro sensor, an acceleration sensor, a GPS sensor, an image sensor, and a barometric pressure sensor.
  • the gyro sensor and the acceleration sensor measure a state in which the body frame coordinate of the aircraft 100 is rotated and an accelerated state with respect to the Earth Centered Inertial Coordinate, MicroElectro-Mechanical Systems (MEMS) It can also be manufactured as a single chip called an inertial measurement unit (IMU) using semiconductor process technology.
  • MEMS MicroElectro-Mechanical Systems
  • the IMU chip there is a microcontroller that converts the measured values based on the Earth's inertial coordinates measured by the gyro sensor and the acceleration sensor into local coordinates, for example, NED (North-East-Down) coordinates used by GPS. may be included.
  • NED North-East-Down coordinates used by GPS.
  • the gyro sensor measures the angular velocity at which the aircraft 100's three axes, x, y, and z rotate with respect to the earth inertia coordinates, and then converts the values (Wx.gyro, Wy.gyro, Wz.gyro) into fixed coordinates. Calculate and convert this value to Euler angles ( ⁇ gyro, ⁇ gyro, ⁇ gyro) using a linear differential equation.
  • the acceleration sensor measures the acceleration with respect to the Earth's inertial coordinates on the aircraft 100's three axes, x, y, and z, and then calculates the converted values (fx,acc, fy,acc, fz,acc) into fixed coordinates, This value is converted into roll ( ⁇ acc) and pitch ( ⁇ acc), and these values are used to remove the bias error included in the roll ( ⁇ gyro) and pitch ( ⁇ gyro) calculated using the measurement values of the gyro sensor.
  • the geomagnetic sensor measures the direction of the aircraft 100 with respect to the magnetic north point of the three axes of the aircraft 100, y, and z, and calculates a yaw value for the NED coordinates of the aircraft 100 using this value.
  • the GPS sensor uses the signals received from the GPS satellites to obtain the translational motion state of the aircraft 100 on the NED coordinates, that is, latitude (Pn.GPS), longitude (Pe.GPS), altitude (hMSL.GPS), and speed on the latitude. (Vn.GPS), the velocity in the longitude phase (Ve.GPS), and the velocity in the altitude phase (Vd.GPS).
  • MSL Mean Sea Level
  • the barometric pressure sensor may measure the altitude (hALP.baro) of the aircraft 100 .
  • the subscript ALP means air pressure (Air-Level Pressor), and the air pressure sensor calculates the current altitude from the take-off point by comparing the air pressure at the time of take-off of the aircraft 100 and the air pressure at the current flight altitude.
  • the camera sensor includes at least one optical lens and an image sensor (eg, CMOS image sensor) configured to include a plurality of photodiodes (eg, pixels) that are imaged by light passing through the optical lens; It may include a digital signal processor (DSP) that configures an image based on signals output from the photodiodes.
  • the digital signal processor may generate a still image as well as a moving picture composed of frames composed of still images.
  • the aircraft 100 includes a communication module 170 that receives or receives information and outputs or transmits information.
  • the communication module 170 is a device for communication between the aircraft 100 and a user.
  • the communication module 170 may receive a user input and provide information generated in the aircraft 100 to the user.
  • the aircraft 100 may implement User Interfaces (UIs) or User Experiences (UXs) through the communication module 170 .
  • UIs User Interfaces
  • UXs User Experiences
  • the communication module 170 may include an input unit 171 and an output unit 173 . Furthermore, the communication module 170 may include a wireless communication unit 175 for transmitting and receiving information with other external devices.
  • the input unit 171 is for receiving information from the user, and the data collected by the input unit 171 may be analyzed by the processor 140 and processed as a user's control command.
  • the input unit 171 may include a voice input unit, a gesture input unit, a touch input unit, a mechanical input unit, and a camera.
  • the voice input unit may convert the user's voice input into an electrical signal.
  • the converted electrical signal may be provided to the processor 140 .
  • the voice input unit may include one or more microphones.
  • the gesture input unit may convert the user's gesture input into an electrical signal.
  • the converted electrical signal may be provided to the processor 140 .
  • the gesture input unit may include at least one of an infrared sensor and an image sensor for detecting a user's gesture input.
  • the gesture input unit may detect a user's 3D gesture input.
  • the gesture input unit may include a light output unit that outputs a plurality of infrared rays or a plurality of image sensors.
  • the gesture input unit may detect the user's 3D gesture input through a time of flight (TOF) method, a structured light method, or a disparity method.
  • TOF time of flight
  • the touch input unit may convert the user's touch input into an electrical signal.
  • the converted electrical signal may be provided to the processor 140 .
  • the touch input unit may include a touch sensor for sensing a user's touch input.
  • the touch input unit may be formed integrally with the display unit to implement a touch screen.
  • a touch screen may provide an input interface and an output interface between the aircraft 100 and a user together.
  • the mechanical input unit may include at least one of a button, a dome switch, a jog wheel, and a jog switch.
  • the electrical signal generated by the mechanical input unit may be provided to the processor 140 .
  • the camera may acquire a user image.
  • the processor 140 may detect the user's state based on the user image.
  • the processor 140 may obtain the user's gaze information from the user image.
  • the processor 140 may detect the user's gesture from the user image.
  • the biometric sensor may obtain biometric information of the user.
  • the biometric sensor may include a sensor capable of obtaining the user's biometric information, and may obtain the user's fingerprint information, heartbeat information, and the like, using the sensor.
  • the biometric information may be used for user authentication.
  • the output unit 173 is for generating an output related to sight, hearing, or touch.
  • the output unit 173 may include at least one of a display unit, a sound output unit, and a haptic output unit.
  • the display unit may display graphic objects corresponding to various pieces of information.
  • the display unit includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display, 3 It may include at least one of a 3D display and an e-ink display.
  • the display unit may implement a touch screen by forming a layer structure with the touch input unit or being formed integrally with the touch input unit.
  • the sound output unit converts the electrical signal provided from the processor 140 into an audio signal and outputs the converted signal.
  • the sound output unit may include one or more speakers.
  • the haptic output unit generates a tactile output.
  • the haptic output unit may vibrate the actuator to operate so that the user can recognize the output.
  • the input unit 171 and/or the output unit 173 may be formed in the terminal 300 instead of being formed in the aircraft 100 .
  • the aircraft 100 may receive information input through the input unit 171 or receive information input into a separate terminal 300 or server 200 through the wireless communication unit 175 .
  • the aircraft 100 may directly output information to the output unit 173 .
  • the aircraft 100 may transmit information to a separate terminal 300 through the wireless communication unit 175 so that the terminal 300 may output the information.
  • the wireless communication unit 175 is a device for performing communication with an external device and may be provided to communicate with the server 200 , the terminal 300 , and the like.
  • the wireless communication unit 175 may receive information input from the terminal 300 such as a smartphone or a computer.
  • the wireless communication unit 175 may transmit information to be output to the terminal 300 .
  • the terminal 300 may output information received from the wireless communication unit 175 .
  • the wireless communication unit 175 may include at least one of a transmit antenna, a receive antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.
  • RF radio frequency
  • the wireless communication unit 175 may receive various command signals from the terminal 300 and/or the server 200 .
  • the wireless communication unit 175 may receive zone information for driving, a driving route, and a driving command from the terminal 300 and/or the server 200 .
  • the zone information may include flight restricted area (A) information and access restriction distance information.
  • the wireless communication unit 175 may include a short-range communication unit, a location information unit, a V2X communication unit, and a communication unit 440 .
  • the wireless communication unit 175 may further include other components in addition to the described components, or may not include some of the described components.
  • the short-range communication unit is a unit for short-range communication.
  • the short-distance communication unit BluetoothTM, RFID (Radio Frequency Identification), Infrared Data Association (IrDA), UWB (Ultra Wideband), ZigBee, NFC (Near Field Communication), Wi-Fi (Wireless-Fidelity) , Wi-Fi Direct, and at least one of Wireless USB (Wireless Universal Serial Bus) technologies may be used to support short-distance communication.
  • the short-range communication unit may form wireless area networks to perform short-range communication between the aircraft 100 and at least one external device.
  • the location information unit is a unit for obtaining location information of the aircraft 100 .
  • the location information unit may include a Global Positioning System (GPS) module or a Differential Global Positioning System (DGPS) module.
  • GPS Global Positioning System
  • DGPS Differential Global Positioning System
  • the V2X communication unit is a unit for performing wireless communication with a server (V2I: Vehicle to Infra), another aircraft (V2V: Vehicle to Vehicle), or a pedestrian (V2P: Vehicle to Pedestrian).
  • the V2X communication unit may include an RF circuit capable of implementing protocols for communication with infrastructure (V2I), inter-aircraft communication (V2V), and communication with pedestrians (V2P).
  • the optical communication unit is a unit for performing communication with an external device via light.
  • the optical communication unit may include an optical transmitter that converts an electrical signal into an optical signal to transmit to the outside, and an optical receiver that converts the received optical signal into an electrical signal.
  • the aircraft 100 includes a processor 140 that processes and determines various types of information, such as mapping and/or recognizing a current location.
  • the processor 140 may control the overall operation of the aircraft 100 through control of various components constituting the aircraft 100 .
  • the processor 140 may receive information from the communication module 170 and process it.
  • the processor 140 may receive information from the input unit 171 and process it.
  • the processor 140 may receive and process information from the wireless communication unit 175 .
  • the processor 140 may receive sensing information from the sensor 130 and process it.
  • the processor 140 may control driving of the motor 12 .
  • the processor 140 may control the operation of the operation module 40 .
  • the aircraft 100 includes a memory 150 for storing various data.
  • the memory 150 records various types of information necessary for controlling the aircraft 100 , and may include a volatile or nonvolatile recording medium.
  • the memory 150 may store a map for the driving area.
  • the map may be input by the external terminal 300 capable of exchanging information through the aircraft 100 and the wireless communication unit 175, or may be generated by the aircraft 100 learning itself.
  • examples of the external terminal 300 include a remote controller, a PDA, a laptop, a smart phone, a tablet, etc. equipped with an application for setting a map.
  • FIG. 3 is a block diagram illustrating a control relationship between main components of an aviation control system according to an embodiment of the present invention.
  • the flight control system may include the aircraft 100 and the server 200 , or may include the aircraft 100 , the terminal 300 and the server 200 . .
  • the aircraft 100 , the terminal 300 , and the server 200 are connected to each other through a wireless communication method.
  • the wireless communication method is GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000), EV-DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband) CDMA), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), etc. may be used.
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • CDMA2000 Code Division Multi Access 2000
  • EV-DO Enhanced Voice-Data Optimized or Enhanced Voice-Data Only
  • WCDMA Wideband CDMA
  • High Speed Downlink Packet Access HSDPA
  • High Speed Uplink Packet Access HSUPA
  • LTE Long Term Evolution-Advanced
  • LTE-A Long Term Evolution-Advanced
  • wireless Internet technology may be used.
  • wireless Internet technology for example, WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), WiMAX (World Interoperability for Microwave Access), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), 5G, and the like.
  • WLAN Wireless LAN
  • Wi-Fi Wireless-Fidelity
  • Wi-Fi Wireless Fidelity
  • Direct Direct
  • DLNA Digital Living Network Alliance
  • WiBro Wireless Broadband
  • WiMAX Worldwide Interoperability for Microwave Access
  • HSDPA High Speed Downlink Packet Access
  • HSUPA High Speed Uplink Packet Access
  • LTE Long Term Evolution-Advanced
  • 5G 5G
  • the base station has a meaning as a terminal node of a network that directly communicates with the terminal.
  • a specific operation described as being performed by the base station in this specification may be performed by an upper node of the base station in some cases. That is, it is obvious that various operations performed for communication with the terminal in a network including a plurality of network nodes including the base station may be performed by the base station or other network nodes other than the base station.
  • BS Base Station
  • BS Base Station
  • eNB evolved-NodeB
  • BTS base transceiver system
  • AP Access Point
  • gNB Next generation NodeB
  • 'terminal' may be fixed or have mobility, and UE (User Equipment), MS (Mobile Station), UT (user terminal), MSS (Mobile Subscriber Station), SS (Subscriber Station), AMS ( Advanced Mobile Station), a wireless terminal (WT), a machine-type communication (MTC) device, a machine-to-machine (M2M) device, a device-to-device (D2D) device, and the like.
  • UE User Equipment
  • MS Mobile Station
  • UT user terminal
  • MSS Mobile Subscriber Station
  • SS Subscriber Station
  • AMS Advanced Mobile Station
  • WT wireless terminal
  • MTC machine-type communication
  • M2M machine-to-machine
  • D2D device-to-device
  • downlink means communication from a base station to a terminal
  • uplink means communication from a terminal to a base station.
  • the transmitter may be a part of the base station, and the receiver may be a part of the terminal.
  • the transmitter may be a part of the terminal, and the receiver may be a part of the base station.
  • the aircraft control device 300 may be provided in the aircraft 100 .
  • it may be made of an independent device detachable from the aircraft 100 , or may be integrally installed on the aircraft 100 to be some components of the aircraft 100 .
  • the aircraft control device 300 is a device physically separated from the aircraft 100 and may control the aircraft 100 through wireless communication like the server 200 or the terminal 300 .
  • the aircraft control device 100 will be described as a separate configuration independent of the processor 140 of the aircraft 100 .
  • FIG. 4 is a conceptual diagram for explaining a control device for an aircraft according to an embodiment of the present invention.
  • the aircraft control device 400 includes a communication unit 410 and a processor 430 .
  • the communication unit 410 is configured to communicate with the various components described with reference to FIG. 2 .
  • the communication unit 410 may receive various types of information provided through a controller are network (CAN).
  • the communication unit 410 may communicate with all communicable devices such as an aircraft, a mobile terminal and a server, and other aircraft. This may be called V2X (Vehicle to everything) communication.
  • V2X communication can be defined as a technology for exchanging or sharing information such as traffic conditions while communicating with flight infrastructure and other aircraft during flight.
  • the communication unit 410 may receive information related to the flight of the aircraft from most devices provided in the aircraft 100 .
  • Information transmitted from the aircraft 100 to the aircraft control device 400 is referred to as 'flight information'.
  • Flight information includes aircraft information and surrounding information of the aircraft. Based on the frame of the aircraft 100 , information related to the inside of the aircraft may be defined as aircraft information, and information related to the outside of the aircraft may be defined as surrounding information.
  • Aircraft information means information about the aircraft itself.
  • aircraft information includes aircraft travel speed, travel direction, acceleration, angular velocity, position (GPS), weight, number of passengers on board, aircraft braking force, aircraft maximum braking force, centrifugal force applied to the aircraft, and aircraft driving mode.
  • autonomous driving mode or manual driving the parking mode of the aircraft (autonomous parking mode, automatic parking mode, manual parking mode), whether a user is on board the aircraft, and information related to the user, etc. may be included.
  • the surrounding information refers to information about other objects located within a predetermined range around the aircraft and information related to the outside of the aircraft. For example, the air condition of the sky in which the aircraft is flying, the weather, the distance to the forward (or rear) aircraft, the relative speed of the forward (or rear) aircraft, the ambient brightness of the aircraft, and the aircraft within the reference area (constant area) It may be information related to an existing object, whether an object enters or leaves the predetermined area, whether a user exists around the aircraft, and information related to the user (eg, whether the user is an authenticated user), etc. .
  • the ambient information may include ambient brightness, temperature, sun location, object information (people, other aircraft, signs, etc.) located in the vicinity, topographical features, and flight route (Lane) information while driving.
  • the surrounding information includes an object (object) existing in the vicinity of the aircraft and the distance to the aircraft 100, the possibility of collision, the type of the object, a parking space in which the aircraft can be parked, an object for identifying a parking space (for example, , parking lines, ropes, other aircraft, walls, etc.) may be further included.
  • the flight information is not limited to the example described above, and may include all information generated from components provided in the aircraft 100 .
  • the processor 430 is configured to control one or more displays provided in the aircraft 100 using the communication unit 410 .
  • the processor 430 may determine whether at least one condition among a plurality of preset conditions is satisfied, based on the flight information received through the communication unit 410 . According to a satisfied condition, the processor 430 may control one or more devices provided in the aircraft in different ways.
  • the processor 430 may detect that an event has occurred in the electrical equipment and/or application provided in the aircraft 100 and determine whether the detected event satisfies the preset condition. In this case, the processor 430 may detect that an event has occurred from information received through the communication unit 410 .
  • the application is a concept including a widget or a home launcher, and refers to all types of programs that can be driven in the aircraft 100 . Accordingly, the application may be a program that performs the functions of motor control, mission equipment control, and application update.
  • FCW Forward Collision Warning
  • BSD Blind Spot Detection
  • LWD Lane Departure Warning
  • PD Pedestrian Detection
  • TBT turn by turn navigation
  • the event may occur when a warning set in an advanced driver assistance system (ADAS) is generated or a function set in the ADAS is performed.
  • ADAS advanced driver assistance system
  • a forward collision warning occurs
  • a blind spot detection occurs
  • a lane departure warning occurs
  • an autonomous emergency function occurs braking
  • an emergency landing function can be considered as an event occurred.
  • the processor 430 controls the communication unit 410 to display information corresponding to the satisfied condition on the one or more displays.
  • the display may be provided in at least one of the aircraft 100 , the server 200 , and the terminal 300 .
  • FIG. 5 is a flowchart for explaining a control method of the control device for an aircraft of FIG. 4 .
  • the processor 430 receives an address of a delivery destination to which a delivery product is to be delivered, and controls the aircraft through the communication unit so that the delivery product is delivered to the delivery location. For example, the processor 430 may control the motor to turn on the start of the aircraft 100, take off, and move in the air to the delivery destination. The processor 430 may transmit a control command to the aircraft and/or various devices provided in the aircraft by wire or wirelessly.
  • At least one of the characteristics of the delivered product and the address of the delivery destination may be received from the server 200 and/or the terminal 300 described above with reference to FIG. 3 .
  • the processor 430 may select one of a plurality of delivery standards defining an area where the aircraft 100 should drop the delivered product based on the address ( S510 ). .
  • the delivery standard defines the area where the delivery should be dropped, and the delivery area to which the delivery is delivered may vary depending on the delivery standard. More specifically, even when a delivered product is delivered to the same address, a delivery area to which the delivered product is delivered may vary according to a delivery standard.
  • the first delivery standard is defined as an vacant lot located within a predetermined distance from the entrance of the address
  • the second delivery standard is defined as a fixed storage box provided on the veranda or roof of the address
  • the third delivery standard is unmanned on the ground It can be defined as a mobile storage box that moves
  • the plurality of delivery standards include a delivery standard for a country house specialized for a country house, a delivery standard for a tiered apartment specialized for a terraced apartment, a delivery standard for a aisle apartment specialized for a aisle apartment, and a joint management jointly connected to a plurality of addresses Delivery standards for furniture, etc. may be included.
  • Delivery standards may be stored in a memory provided in the aircraft control device 400 or stored in the server 200 . Delivery standards may be updated regularly or irregularly, and existing delivery standards may be edited/deleted or new delivery standards may be added.
  • Different delivery criteria may be selected depending on the user's request rather than the address. For example, when the user designates the delivery area as the roof, a delivery criterion that defines the roof as the delivery area may be selected regardless of the address.
  • the processor 430 may set a delivery area and a flight path to the delivery area based on the delivery standard (S530).
  • the processor 430 acquires a map including an address, a satellite image, etc. as delivery address information, and sets a delivery area by applying a pre-selected delivery standard to the delivery location information.
  • the delivery area is set differently according to the delivery standard. For example, when a delivery standard defined as a roof is selected, the processor 430 may search for an area corresponding to the roof from the map, and set the searched area as the delivery area.
  • the processor 430 may control the aircraft to fly along the flight path ( S550 ).
  • the flight path consists of a series of three-dimensional coordinate values expressed in latitude, longitude, and altitude, and the aircraft 100 performs flight according to the flight path.
  • the flight path may include information on the speed of the aircraft 100 at each coordinate value.
  • the flight path may be set such that a point corresponding to the first coordinate value arrives at the first speed, and the point corresponding to the second coordinate value arrives at the second speed.
  • the processor 430 may control the aircraft so that the delivered product falls into the delivery area (S570).
  • the aircraft 100 may drop the delivered product to the delivery area in various ways.
  • the person carrying out the delivery arrives at the delivery destination, visually checks the characteristics of the delivery location, determines the optimal location, and delivers the delivered product.
  • Unmanned delivery is being introduced to the field as non-face-to-face delivery needs arise due to corona, etc., but there is a problem that customized delivery cannot be performed in various delivery environments.
  • the present invention is to solve the above-mentioned problem, and provides a method by which an aircraft can deliver a delivery product to an optimal place.
  • FIG. 6 is a flowchart for explaining a method of setting a delivery area using sensing information received from an aircraft
  • FIGS. 7A and 7B are conceptual diagrams for explaining the control method of FIG. 6 .
  • the processor 430 may acquire a map image including the delivery address (S610).
  • the processor 430 may obtain at least one area including the delivery address among the map images from the memory in the server 200 and/or the aircraft control device 400 .
  • the map image may include a map, an aerial photographed image, a satellite photographed image, a cadastral edit, and the like.
  • the processor 430 may classify at least one region of the map image into a plurality of regions (S630).
  • the processor 430 may classify a predetermined area having one point of the delivery area as a central point into a non-deliverable area in which a person cannot obtain a delivered product and a non-deliverable area in which a delivery is not possible through image analysis.
  • the processor 430 may classify the deliverable area into detailed areas according to the characteristics of the space. For example, as shown in FIG. 7B , the rooftop area may be classified as a yellow area, the garden area may be classified as a green area, and the veranda area may be classified as a blue area.
  • the red area is a non-delivery area in which the user cannot acquire the dropped delivered product because the aircraft cannot drop the delivered product or the user is inaccessible.
  • the processor 430 may set at least one of the plurality of areas as the delivery area based on the delivery standard (S650).
  • the yellow area when the delivery standard is defined as the roof, the yellow area may be set as the delivery area, and when the delivery standard is defined as the veranda, the blue area may be set as the delivery area.
  • a plurality of delivery standards may be selected, and in this case, a wider delivery area may be set than when one delivery standard is selected.
  • the processor 430 first sets the delivery area to which the aircraft must reach before setting the flight route. Even at the same address, the flight path of the aircraft is set differently depending on the delivery area, so that the fuel of the aircraft can be efficiently managed.
  • the processor 430 may receive sensing information sensed from the aircraft when the aircraft arrives in the delivery area, and reset the delivery area based on the sensing information.
  • FIG. 8 is a flowchart illustrating a method of resetting a delivery area.
  • the processor 430 may receive sensing information sensed by a sensor mounted on the aircraft with respect to the delivery area (S810).
  • the aircraft may be equipped with various sensors.
  • a camera an ultrasonic sensor, a lidar, a radar, an infrared sensor such as a ToF, an air pressure sensor, etc. may be provided in the aircraft.
  • the senor When the aircraft arrives at the delivery area along the flight path, the sensor may be activated to generate sensing information for the delivery area, and may be transmitted to the aircraft control device 400 .
  • the processor 430 may compare the sensing information with the map image described above with reference to FIG. 6 , and may exclude a different portion from the delivery area. More specifically, the processor 430 divides the delivery area based on the comparison result of the sensing information and the map image into a first delivery area in which the map image and the sensing information match, and a second delivery area in which the map image and the sensing information do not match. can be classified as In this case, the processor 430 may reset the first delivery area to the delivery area, and the second delivery area may be excluded from the reset delivery area.
  • the processor 430 When the sensing information satisfies the reference condition, the processor 430 resets the delivery area from the first area to the second area (S830), and controls the aircraft so that the delivered product falls into a second area other than the first area. It can be (S850).
  • the reference condition refers to a condition in which the delivery product cannot be delivered to the first area set as the delivery area. For example, a case in which a vehicle is located in the first area or a case in which a delivered product cannot be dropped to the first area due to bad weather conditions may satisfy the reference condition.
  • the sensing information is an image of the delivery area, and when an object that makes delivery impossible is found from the image, the processor 430 may reset the delivery area from the first area to the second area .
  • the delivery area is reset to the new area, and the aircraft moves to the new area to drop the shipment.
  • the changed delivery area may be transmitted to the server 200 and/or the terminal 300 through the communication unit 410 .
  • the processor 430 may control the aircraft to hover at a point while resetting the delivery area. More specifically, when the sensing information satisfies the reference condition while flying along the flight path, one point may be set as a hovering point, and the aircraft may be controlled to stop in mid-air at the hovering point.
  • the hovering point means a point where there is no object and/or person within a predetermined range with respect to the aircraft.
  • the hovering point may vary depending on the number of motors provided in the aircraft. More specifically, the distance serving as the reference of the predetermined range may increase according to the number of motors. This is to prevent noise from the aircraft from reaching the surroundings.
  • 9 is a flowchart for explaining a method of controlling an aircraft to reset a delivery area.
  • the processor 430 may search for a predetermined area that satisfies the drop condition of the delivered product by using the sensing information (S910).
  • the predetermined area may be a flat land in which the elevation of the land is within a certain range.
  • the processor 430 may search for flat land using a depth sensor, lidar, radar, or the like. This is to prevent the delivery product from rolling or sliding due to an inclination.
  • the drop condition may vary according to at least one of characteristics of the aircraft, delivery methods, and characteristics of the delivered product.
  • Aircraft characteristics include aircraft type (fixed wing/rotary wing/helicopter type, etc.), aircraft size, and aircraft weight.
  • the delivery available method relates to the method by which an aircraft can deliver the shipment.
  • the drop method Airdrop
  • the put-down method which places the shipment on the ground after landing at the destination (Put Down);
  • These include a wire method in which the delivered product is put down to the delivery site using a wire tying the delivered product, and a conveyor method in which a robot arm is used to deliver the delivered product to the delivery location (Convey).
  • the characteristics of the delivered product include the type of the delivered product, the weight of the delivered product, the size of the delivered product, and the type of the delivered product.
  • the processor 430 may set a new flight path using the sensing information (S930) and control the aircraft to fly along the new flight path (S950).
  • the processor 430 determines a blind spot based on the current location, and sets a new flight path for sensing the determined blind spot.
  • the processor 430 may search a predetermined area in real time using sensing information generated while flying along a new flight path.
  • the processor 430 may reset the predetermined area to the second area (S970).
  • FIG. 10 is a flowchart illustrating a method of resetting a delivery area based on a user who will receive a delivery product
  • FIG. 11 is a conceptual diagram illustrating the method of FIG. 10 .
  • the processor 430 may receive terminal location information of a recipient who is scheduled to receive the delivered product.
  • the terminal location information may be defined as latitude, longitude, and altitude (S1010).
  • the processor 430 may set a delivery area based on the terminal location information (S1030). More specifically, the delivery area may be changed in real time according to the terminal location information.
  • the processor 430 may set a first area 1120 facing the first door and a second area 1130 facing the second door based on the delivery destination. .
  • the processor 430 may set the first area or the second area as the delivery area according to the terminal location 1110 . In other words, an area in which the recipient can obtain the delivered product more quickly may be set as the delivery area.
  • FIG. 12 is a flowchart for explaining a control method for searching a delivery area
  • FIGS. 13A and 13B are exemplary views for explaining the control method of FIG. 12 .
  • the processor 430 may set a waypoint spaced apart from the delivery area by a reference distance based on the address (S1210).
  • the waypoint is included in the flight path set by the processor 430 .
  • the control device for an aircraft sets a waypoint in order to search for a delivery location more quickly and accurately.
  • the stopover means a point for starting the search for the delivery destination using a sensor provided in the aircraft.
  • the sensor may include various sensors such as a camera, a radar, and a lidar, but for convenience of description, a camera will be described as an example.
  • the processor 430 of the aircraft control device 400 sets a waypoint based on an address, and the waypoint is a starting point for sensing the building of the address using a sensor.
  • the aircraft arrives at a stopover, it activates the sensors to begin exploring the delivery area.
  • the waypoint may be set differently depending on the address.
  • the reference distance may vary according to the number of floors of the delivery destination included in the address. As shown in FIG. 13A , in the case of the first number of floors, the reference distance may be set to d1 , and as shown in FIG. 13B , in the case of the second number of floors, the reference distance may be set as d2.
  • the reference distance in the first case is shorter than that in the second case.
  • the processor 430 may search the veranda from the building image, count downward or upward from one end of the building, and search the target number of floors.
  • the 30th to the 27th floors must be shot as one image, and in the case of the 15th floor, the 30th to the 15th floors must be shot as a single image. For this reason, the reference distance of the stopover site varies according to the number of floors in the address area.
  • the reference distance may vary according to characteristics of a camera mounted on the aircraft to capture the image. For example, in consideration of the image quality and/or the angle of view of the camera, a reference distance through which the delivery area can be searched may be set differently.
  • the waypoint is expressed in three-dimensional coordinates defined by latitude, longitude, and altitude, and the altitude value of the waypoint may be set differently according to the number of floors of the delivery location included in the address.
  • the processor 430 may obtain height information of a building including the delivery address, and determine the elevation value by comparing the number of floors of the delivery location included in the address with the height information.
  • a first elevation may be set, and when searching for a fifth floor, a second elevation lower than the first elevation may be set.
  • the processor 430 controls the aircraft to descend from the stopover, and when the second altitude is set, controls the aircraft to ascend from the waypoint.
  • the processor 430 may receive an image in which the aircraft photographed the delivery area at the stopover (S1230), and the processor 430 may search the delivery area using the image (S1250). This is to more accurately and quickly search the delivery destination to be delivered based on the image.
  • FIG. 14 is a flowchart for explaining a method of searching a delivery area using an image
  • FIGS. 15A to 15C are exemplary views for explaining the method of FIG. 14 .
  • the processor 430 may overlap a matrix composed of rectangles of a predetermined size on the building image taken at the stopover (S1410).
  • the processor 430 may start counting from the reference rectangle and search for a delivery area corresponding to any one rectangle from the image in which the matrix overlaps (S1430).
  • the aircraft 400 receives the image 450 of the building 50 at the stopover, and searches for the target 1510 from the image 450 .
  • the target 1510 can be searched more quickly by overlapping a matrix in which a plurality of squares are arranged in a mesh form on the image 450 .
  • the predetermined size of the rectangle varies according to the address. More specifically, the processor 830 may use the address to check the characteristics of a building, such as a veranda size, a house square footage, and a house shape, and generate a matrix for searching a target. In addition, a rectangle corresponding to the target may be preset in the matrix. By superimposing the matrix on the image, the target can be searched for faster and more accurately.
  • the processor 430 may set a waypoint spaced apart from the delivery area by a reference distance based on the address. As shown in FIG. 15A , when the first target 1510 located at the first address is searched for, a waypoint separated by d1 is set, and as shown in FIG. 15B , the second target 1530 located at the second address ), a waypoint that is separated by d2 may be set.
  • the predetermined size of the rectangle constituting the matrix varies according to the location of the waypoint.
  • the square of the matrix applied to the first image photographed at the first stopover may have a first size
  • the square of the matrix applied to the second image photographed at the second waypoint may have the second size. Since the waypoint varies according to the address and the size of the matrix applied to the image is changed accordingly, the resource required to find the target is minimized, and the battery can be used more efficiently.
  • the processor 430 may change the altitude of the waypoint according to the address even when a waypoint spaced apart by the same reference distance from the delivery area is set.
  • d1 illustrated in FIG. 15A and d3 illustrated in FIG. 15C may be the same distance.
  • the altitude of each stopover may be set differently. A detailed description will be omitted as described above with reference to FIGS. 12 to 13 .
  • the present invention can be extended to an aircraft having a control device for an aircraft described with reference to FIGS. 8 to 15 .
  • the present invention described above can be implemented as computer-readable code (or application or software) on a medium in which a program is recorded.
  • the above-described method for controlling the autonomous vehicle may be realized by a code stored in a memory or the like.
  • the computer-readable medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is also a carrier wave (eg, transmission over the Internet) that is implemented in the form of.
  • the computer may include a processor or a control unit. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Economics (AREA)
  • Operations Research (AREA)
  • Remote Sensing (AREA)
  • Strategic Management (AREA)
  • Theoretical Computer Science (AREA)
  • Development Economics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Quality & Reliability (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 통신부 및 프로세서를 포함하는 항공기용 제어장치의 제어방법에 관한 것이다. 상기 제어방법은 배송품을 배송해야 하는 배송지의 주소를 수신하는 단계 및 상기 배송품이 상기 배송지에 배송되도록 상기 통신부를 통해 항공기를 제어하는 단계를 포함하며, 상기 통신부를 통해 상기 항공기를 제어하는 단계는, 상기 항공기가 상기 배송품을 떨어뜨려야 하는 영역을 정의하는 복수의 배송 기준들 중 어느 하나의 배송 기준을 상기 주소에 근거하여 선택하는 단계, 상기 배송 기준에 근거하여 배송 영역 및 상기 배송 영역까지의 비행 경로를 설정하는 단계, 상기 비행 경로를 따라 비행하도록 상기 항공기를 제어하는 단계 및 상기 항공기가 상기 배송 영역에 도달하는 경우 상기 배송품이 상기 배송 영역에 떨어지도록 상기 항공기를 제어하는 단계를 포함한다.

Description

항공기용 제어장치 및 그것의 제어방법
본 발명은 항공기용 제어장치 및 그것의 제어방법에 관한 것이다.
항공기는 공중으로 떠서 운동 에너지를 이용하여 사람이나 짐을 이동시킬 수 있는 교통 수단을 의미한다. 항공기의 대표적인 예로, 비행기, 헬리콥터, 멀티콥터, 비행선, 무인 항공기 등을 들 수 있다.
항공기를 이용하는 사용자의 안전 및 편의를 위해, 항공기에는 각종 센서와 장치가 구비되고 있으며, 항공기의 기능이 다양화되고 있다.
항공기의 기능은 조종자의 편의를 도모하기 위한 편의 기능, 그리고 조장자 및/또는 탑승자의 안전을 도모하기 위한 안전 기능으로 나뉠 수 있다.
이러한 항공기의 기능 지지 및 증대를 위해, 항공기의 구조적인 부분 및/또는 소프트웨어적인 부분을 개량하는 것이 고려될 수 있다. 일 예로, 조종자의 개입 없이도 목적지까지 자동으로 주행할 수 있는 자율 비행 항공기가 개발되고 있다.
본 발명은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다.
본 발명의 일 목적은, 배송지로 배송품을 빠르고 정확히 배송할 수 있도록 항공기를 제어하는 항공기용 제어장치 및 그것의 제어방법을 제공하는 것이다.
상기와 같은 과제를 실현하기 위한 본 발명의 일 실시 예는 항공기용 제어장치 및 그것의 제어방법에 관한 것이다. 나아가, 상기 항공기용 제어장치를 포함하는 항공기를 포함한다.
일 실시 예로, 통신부 및 프로세서를 포함하는 항공기용 제어장치의 제어방법은, 배송품을 배송해야 하는 배송지의 주소를 수신하는 단계; 및 기 배송품이 상기 배송지에 배송되도록 상기 통신부를 통해 항공기를 제어하는 단계를 포함하며, 기 통신부를 통해 상기 항공기를 제어하는 단계는, 상기 항공기가 상기 배송품을 떨어뜨려야 하는 영역을 정의하는 복수의 배송 기준들 중 어느 하나의 배송 기준을 상기 주소에 근거하여 선택하는 단계; 상기 배송 기준에 근거하여 배송 영역 및 상기 배송 영역까지의 비행 경로를 설정하는 단계; 상기 비행 경로를 따라 비행하도록 상기 항공기를 제어하는 단계; 및 상기 항공기가 상기 배송 영역에 도달하는 경우 상기 배송품이 상기 배송 영역에 떨어지도록 상기 항공기를 제어하는 단계를 포함한다.
일 실시 예에 따르면, 상기 통신부를 통해 상기 항공기를 제어하는 단계는, 상기 배송지를 포함하는 지도 이미지를 획득하는 단계; 상기 지도 이미지의 적어도 일 영역을 복수의 영역들로 분류하는 단계; 및 상기 배송 기준에 근거하여 상기 복수의 영역들 중 적어도 하나의 영역을 상기 배송 영역으로 설정하는 단계를 포함할 수 있다.
일 실시 예에 따르면, 상기 항공기에 탑재된 센서가 상기 배송 영역에 대하여 센싱한 센싱 정보를 수신하는 단계; 상기 센싱 정보가 기준 조건을 만족하는 경우, 상기 배송 영역을 제1 영역에서 제2 영역으로 재설정하는 단계; 및 상기 배송품이 상기 제1 영역이 아닌 제2 영역에 떨어지도록 상기 항공기를 제어하는 단계를 포함할 수 있다.
일 실시 예에 따르면, 상기 배송 영역을 상기 제2 영역으로 재설정하는 단계는, 상기 센싱 정보를 이용하여 상기 배송품의 드랍 조건을 만족하는 소정 영역을 탐색하는 단계; 및 상기 소정 영역을 상기 제2 영역으로 재설정하는 단계를 포함할 수 있다.
일 실시 예에 따르면, 상기 제어방법은, 상기 소정 영역이 탐색되지 않는 경우, 상기 센싱 정보를 이용하여 새로운 비행 경로를 설정하는 단계; 및 기 새로운 비행 경로를 따라 비행하도록 상기 항공기를 제어하는 단계를 포함할 수 있다.
일 실시 예에 따르면, 상기 소정 영역은 토지의 고저가 일정 범위 이내인 평지일 수 있다.
일 실시 예에 따르면, 상기 드랍 조건은 상기 배송품에 따라 가변될 수 있다.
일 실시 예에 따르면, 상기 센싱 정보는 상기 배송 영역을 촬영한 이미지이고, 상기 이미지로부터 배송을 불가능하게 하는 오브젝트가 탐색되는 경우, 상기 배송 영역이 상기 제1 영역에서 상기 제2 영역으로 재설정될 수 있다.
일 실시 예에 따르면, 상기 제어방법은, 상기 배송 영역을 재설정하는 동안 일 지점에서 공중 정지하도록 상기 항공기를 제어하는 단계를 포함할 수 있다.
일 실시 예에 따르면, 상기 제어방법은, 상기 배송품을 수신하기로 예정된 수신자의 단말기 위치정보를 수신하는 단계를 더 포함하며, 상기 단말기 위치정보에 따라 상기 배송 영역이 가변될 수 있다.
일 실시 예에 따르면, 상기 제어방법은, 상기 배송지를 기준으로 제1 출입문을 마주하는 제1 영역 및 제2 출입문을 마주하는 제2 영역을 설정하는 단계; 및 상기 단말기 위치정보에 따라 상기 제1 영역 또는 상기 제2 영역을 상기 배송 영역으로 설정하는 단계를 포함할 수 있다.
일 실시 예에 따르면, 상기 제어방법은, 상기 주소에 근거하여 상기 배송 영역과 기준 거리만큼 이격된 경유지를 설정하며, 상기 경유지는 상기 비행 경로에 포함되는 것을 특징으로 하는 단계; 상기 항공기가 상기 경유지에서 상기 배송 영역을 촬영한 이미지를 수신하는 단계; 및 상기 이미지를 이용하여 상기 배송 영역을 탐색하는 단계를 포함할 수 있다.
일 실시 예에 따르면, 상기 경유지를 설정하는 단계에서, 상기 주소에 포함된 상기 배송지의 층수에 따라 상기 기준 거리는 가변될 수 있다.
일 실시 예에 따르면, 상기 경유지를 설정하는 단계에서, 상기 항공기에 탑재되어 상기 이미지를 촬영하는 카메라의 특성에 따라 상기 기준 거리는 가변될 수 있다.
일 실시 예에 따르면, 상기 경유지를 설정하는 단계에서, 상기 경유지는 위도, 경도 및 고도로 정의되는 3차원 좌표로 표현되며, 상기 주소에 포함된 상기 배송지의 층수에 따라 상기 경유지의 고도 값이 서로 다르게 설정될 수 있다.
일 실시 예에 따르면, 상기 경유지를 설정하는 단계는, 상기 배송지를 포함하는 건축물의 높이 정보를 획득하는 단계; 및 상기 주소에 포함된 상기 배송지의 층수를 상기 높이 정보와 비교하여 상기 고도 값을 결정하는 단계를 포함할 수 있다.
일 실시 예에 따르면, 상기 이미지를 이용하여 상기 배송 영역을 탐색하는 단계는, 상기 이미지에 소정 크기의 사각형들로 이루어진 매트릭스를 오버랩 하는 단계; 및 기준 사각형으로부터 카운팅을 시작하여 어느 하나의 사각형에 대응하는 배송 영역을 상기 매트릭스가 오버랩 된 상기 이미지로부터 탐색하는 단계를 포함할 수 있다.
일 실시 예에 따르면, 상기 소정 크기는 상기 주소에 따라 가변될 수 있다.
나아가, 본 발명은 상술한 일 실시 예에 따른 제어방법을 수행하는 항공기용 제어장치 및 그것에 의하여 제어되는 항공기를 포함한다.
본 발명에 따른 항공기용 제어장치 및 그 제어방법의 효과에 대해 설명하면 다음과 같다.
본 발명에 따른 항공기용 제어장치는 보다 빠르고 정확하게 배송지를 탐색할 수 있고, 이를 통해 배송에 소요되는 에너지 소비를 최소화할 수 있다.
도 1은 본 발명에 따른 항공기의 일 형태를 나타내는 사시도
도 2는 본 발명에 따른 항공기를 설명하기 위한 블록도
도 3은 본 발명의 일 실시예에 따른 항공 제어 시스템의 주요 구성들 간의 제어관계를 도시한 블록도
도 4는 본 발명의 일 실시 예에 따른 항공기용 제어장치를 설명하기 위한 개념도
도 5는 도 4의 항공기용 제어장치의 제어방법을 설명하기 위한 흐름도
도 6은 항공기로부터 수신되는 센싱 정보를 이용하여 배송 영역을 설정하는 방법을 설명하기 위한 흐름도
도 7a 및 도 7b는 도 6의 제어방법을 설명하기 위한 개념도들
도 8은 배송 영역을 재설정하는 방법을 설명하기 위한 흐름도
도 9는 배송 영역을 재설정하기 위해 항공기를 제어하는 방법을 설명하기 위한 흐름도
도 10은 배송품을 수신할 사용자를 기준으로 배송 영역을 재설정하는 방법을 설명하기 위한 흐름도
도 11은 도 10의 방법을 설명하기 위한 개념도
도 12는 배송 영역을 탐색하기 위한 제어방법을 설명하기 위한 흐름도
도 13a 및 도 13b는 도 12의 제어방법을 설명하기 위한 예시도들
도 14는 이미지를 이용해 배송 영역을 탐색하는 방법을 설명하기 위한 흐름도
도 15a 내지 도 15c는 도 14의 방법을 설명하기 위한 예시도들
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1 및 도 2를 이용하여 항공기에 대하여 보다 구체적으로 설명한다. 도 1은 본 발명에 따른 항공기의 일 형태를 나타내는 사시도이고, 도 2는 본 발명에 따른 항공기를 설명하기 위한 블록도이다.
본 명세서에서 기술되는 항공기는, 동력원으로서 엔진을 구비하는 내연기관 비행체, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 비행체, 동력원으로서 전기 모터를 구비하는 전기 비행체, 수소 에너지를 활용하는 수소 연료전지 비행체 등을 모두 포함한다.
나아가, 항공기는 무인 항공기(Unmanned Aerial Vehicle, UAV)를 포함한다. 무인 항공기는 조종사 없이 스스로 및/또는 원격조종기로부터 수신되는 무선전파의 유도에 의하여 비행하는 물체를 의미한다. 최근 무인 비행기는 정찰, 공격 등의 군사적 용도 이외에 관측/배달과 같은 상업용과 영상 촬영과 같은 민간용에도 활용이 증가되고 있다.
항공기(100)는 지상의 관리자에 의해 수동 조작되거나, 설정된 비행 프로그램에 의해 자동 조종되면서 무인 비행한다. 항공기(100)는 도 1에서와 같이 본체(20), 동력 제공부(10) 및 착륙용 레그(130) 중 적어도 하나를 포함한다.
본체(20)는 작업 모듈(40)이 장착되는 몸체 부위이다. 작업 모듈(40)은 항공기(100)에 요구되는 기능에 따라 본체(20)에 탈부착이 가능한 하드웨어 모듈이다. 예를 들어, 객체를 쥐거나 놓을 수 있는 로봇 암(Robot Arm), 흔들림을 최소화하는 짐벌(Gimbal), 이미지를 생성하는 이미지 센서 등이 본체(20)에 탈부착될 수 있다.
동력 제공부(10)는 본체(20)에 수직으로 설치되는 하나 이상의 프로펠러(11)로 이루어지는 것으로, 본 발명의 실시예에 따른 동력 제공부(10)는 서로 이격 배치된 복수개의 프로펠러(11)와 모터(12)로 이루어질 수 있다. 여기서 동력 제공부(10)는 프로펠러(11)가 아닌 에어 분사형 추진기 구조로 이루어질 수도 있다.
복수 개의 프로펠러 지지부는 본체(20)에서 방사상으로 형성된다. 각각의 프로펠러 지지부에는 모터(12)가 장착될 수 있다. 각각의 모터(12)에는 프로펠러(11)가 장착된다.
복수 개의 프로펠러(11)는 본체(20)를 중심을 기준하여 대칭되게 배치될 수 있다. 그리고 복수 개의 프로펠러(11)의 회전 방향은 시계 방향과 반 시계 방향이 조합되도록 모터(12)의 회전 방향이 결정될 수 있다. 본체(20)를 중심을 기준하여 대칭되는 한 쌍의 프로펠러(11)의 회전 방향은 동일(예를 들어, 시계 방향)하게 설정될 수 있다. 그리고 다른 한 쌍의 프로펠러(11)은 이와 달리 회전 방향이 반대일 수 있다(예를 들어, 시계 반대 방향).
착륙용 레그(30)는 본체(20)의 저면에 서로 이격 배치된다. 또한, 착륙용 레그(30)의 하부에는 항공기(100)가 착륙할 때 지면과의 충돌에 의한 충격을 최소화하는 완충 지지부재(미도시)가 장착될 수 있다. 물론 항공기(100)는 상술한 바와 다른 비행체 구성의 다양한 구조로 이루어질 수 있다.
도 2를 참조하면, 항공기(100)는 안정적으로 비행하기 위해서 각종 센서들을 이용해 자신의 비행상태를 측정한다. 항공기(100)는 적어도 하나의 센서를 포함하는 센서(130)를 포함할 수 있다.
항공기(100)의 비행상태는 회전운동상태(Rotational States)와 병진운동상태(Translational States)로 정의된다.
회전운동상태는 ‘요(Yaw)’, ‘피치 (Pitch)’ 및 ‘롤 (Roll)’을 의미하며, 병진운동상태는 경도, 위도, 고도, 및 속도를 의미한다.
여기서, 롤, 피치, 및 요는 오일러 (Euler) 각도라 부르며, 비행기 기체좌표 x, y, z 세 축이 어떤 특정 좌표, 예를 들어, NED 좌표 N, E, D 세 축에 대하여 회전된 각도를 나타낸다. 비행기 전면이 기체좌표의 z축을 기준으로 좌우로 회전할 경우, 기체좌표의 x축은 NED 좌표의 N축에 대하여 각도 차이가 생기게 되며, 이각도를 "요"(Ψ)라고 한다. 비행기의 전면이 오른쪽으로 향한 y축을 기준으로 상하로 회전을 할 경우, 기체좌표의 z축은 NED 좌표의 D축에 대하여 각도 차이가 생기게 되며, 이 각도를 "피치"(θ)라고 한다. 비행기의 동체가 전면을 향한 x축을 기준으로 좌우로 기울게 될 경우, 기체좌표의 y축은 NED 좌표의 E축에 대하여 각도가 생기게 되며, 이 각도를 "롤"(Φ)이라 한다.
항공기(100)는 회전운동상태를 측정하기 위해 3축 자이로 센서(Gyroscopes), 3축 가속도 센서(Accelerometers), 및 3축 지자기 센서(Magnetometers)를 이용하고, 병진운동상태를 측정하기 위해 GPS 센서와 기압 센서(Barometric Pressure Sensor)를 이용한다.
본 발명의 센서(130)는 자이로 센서, 가속도 센서, GPS 센서, 영상 센서 및 기압 센서 중 적어도 하나를 포함한다. 여기서, 자이로 센서와 가속도 센서는 항공기(100)의 기체좌표(Body Frame Coordinate)가 지구관성좌표(Earth Centered Inertial Coordinate)에 대해 회전한 상태와 가속된 상태를 측정해주는데, MEMS(MicroElectro-Mechanical Systems) 반도체 공정기술을 이용해 관성측정기(IMU: Inertial Measurement Unit)라 부르는 단일 칩(Single Chip)으로 제작될 수도 있다.
또한, IMU 칩 내부에는 자이로 센서와 가속도 센서가 측정한 지구관성좌표 기준의 측정치들을 지역좌표(Local Coordinate), 예를 들어 GPS가 사용하는 NED(North-East-Down) 좌표로 변환해주는 마이크로 컨트롤러가 포함될 수 있다.
자이로 센서는 항공기(100)의 기체좌표 x, y, z 세 축이 지구관성 좌표에 대하여 회전하는 각속도를 측정한 후 고정좌표로 변환된 값(Wx.gyro, Wy.gyro, Wz.gyro)을 계산하고, 이 값을 선형 미분방정식을 이용해 오일러 각도(Φgyro, θgyro, ψgyro)로 변환한다.
가속도 센서는 항공기(100)의 기체좌표 x, y, z 세 축의 지구관성좌표에 대한 가속도를 측정한 후 고정좌표로 변환된 값(fx,acc, fy,acc, fz,acc)을 계산하고, 이 값을 롤(Φacc)과 피치(θacc)로 변환하며, 이 값 들은 자이로 센서의 측정치를 이용해 계산한 롤(Φgyro)과 피치(θgyro)에 포함된 바이어스 오차를 제거하는 데 이용된다.
지자기 센서는 항공기(100)의 기체좌표 x, y, z 세 축의 자북점에 대한 방향을 측정하고, 이 값을 이용해 기체좌표의 NED 좌표에 대한 요 값을 계산한다.
GPS 센서는 GPS 위성들로부터 수신한 신호를 이용해 NED 좌표 상에서 항공기(100)의 병진운동상태, 즉, 위도(Pn.GPS), 경도(Pe.GPS), 고도(hMSL.GPS), 위도 상의 속도(Vn.GPS), 경도 상의 속도(Ve.GPS), 및 고도 상의 속도(Vd.GPS)를 계산한다. 여기서, 첨자 MSL은 해수면(MSL: Mean Sea Level)을 의미한다.
기압 센서는 항공기(100)의 고도(hALP.baro)를 측정할 수 있다. 여기서, 첨자 ALP는 기압(Air-Level Pressor)을 의미하며, 기압 센서는 항공기(100)의 이륙시 기압과 현재 비행고도에서의 기압을 비교해 이륙 지점으로부터의 현재 고도를 계산한다.
카메라 센서는 적어도 하나의 광학렌즈와, 광학렌즈를 통과한 광에 의해 상이 맺히는 다수 개의 광다이오드(photodiode, 예를 들어, pixel)를 포함하여 구성된 이미지센서(예를 들어, CMOS image sensor)와, 광다이오드들로부터 출력된 신호를 바탕으로 영상을 구성하는 디지털 신호 처리기(DSP: Digital Signal Processor)를 포함할 수 있다. 디지털 신호 처리기는 정지영상은 물론이고, 정지영상으로 구성된 프레임들로 이루어진 동영상을 생성하는 것도 가능하다.
항공기(100)는 정보를 입력받거나 수신하고 정보를 출력하거나 송신하는 커뮤니케이션 모듈(170)을 포함한다. 커뮤니케이션 모듈(170)은 항공기(100)와 사용자 사이의 소통을 위한 장치이다. 커뮤니케이션 모듈(170)은 사용자 입력을 수신하고, 사용자에게 항공기(100)에서 생성된 정보를 제공할 수 있다. 항공기(100)는 커뮤니케이션 모듈(170)을 통해, UI(User Interfaces) 또는 UX(User Experience)를 구현할 수 있다.
커뮤니케이션 모듈(170)은 입력부(171) 및 출력부(173)를 포함할 수 있다. 나아가, 커뮤니케이션 모듈(170)은 외부의 다른 기기와 정보를 송수신하는 무선 통신부(175)를 포함할 수 있다.
입력부(171)는 사용자로부터 정보를 입력받기 위한 것으로, 입력부(171)에서 수집한 데이터는, 프로세서(140)에 의해 분석되어, 사용자의 제어 명령으로 처리될 수 있다.
입력부(171)는, 음성 입력부, 제스쳐 입력부, 터치 입력부, 기계식 입력부 및 카메라를 포함할 수 있다.
음성 입력부는, 사용자의 음성 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는, 프로세서(140)에 제공될 수 있다. 음성 입력부는, 하나 이상의 마이크로 폰을 포함할 수 있다.
제스쳐 입력부는, 사용자의 제스쳐 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는, 프로세서(140)에 제공될 수 있다.
제스쳐 입력부는, 사용자의 제스쳐 입력을 감지하기 위한 적외선 센서 및 이미지 센서 중 적어도 어느 하나를 포함할 수 있다.
실시예에 따라, 제스쳐 입력부는, 사용자의 3차원 제스쳐 입력을 감지할 수 있다. 이를 위해, 제스쳐 입력부는, 복수의 적외선 광을 출력하는 광출력부 또는 복수의 이미지 센서를 포함할 수 있다.
제스쳐 입력부는, TOF(Time of Flight) 방식, 구조광(Structured light) 방식 또는 디스패러티(Disparity) 방식을 통해 사용자의 3차원 제스쳐 입력을 감지할 수 있다.
터치 입력부는, 사용자의 터치 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는 프로세서(140)에 제공될 수 있다. 터치 입력부는, 사용자의 터치 입력을 감지하기 위한 터치 센서를 포함할 수 있다.
실시예에 따라, 터치 입력부는 디스플레이부와 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한, 터치 스크린은, 항공기(100)와 사용자 사이의 입력 인터페이스 및 출력 인터페이스를 함께 제공할 수 있다.
기계식 입력부는, 버튼, 돔 스위치(dome switch), 조그 휠 및 조그 스위치 중 적어도 어느 하나를 포함할 수 있다. 기계식 입력부에 의해 생성된 전기적 신호는, 프로세서(140)에 제공될 수 있다.
카메라는 사용자 영상을 획득할 수 있다. 프로세서(140)는 사용자 영상을 기초로, 사용자의 상태를 감지할 수 있다. 프로세서(140)는 사용자 영상에서 사용자의 시선 정보를 획득할 수 있다. 프로세서(140)는 사용자 영상에서 사용자의 제스쳐를 감지할 수 있다.
생체 감지부는, 사용자의 생체 정보를 획득할 수 있다. 생체 감지부는, 사용자의 생체 정보를 획득할 수 있는 센서를 포함하고, 센서를 이용하여, 사용자의 지문 정보, 심박동 정보 등을 획득할 수 있다. 생체 정보는 사용자 인증을 위해 이용될 수 있다.
출력부(173)는, 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것이다. 출력부(173)는, 디스플레이부, 음향 출력부 및 햅틱 출력부 중 적어도 어느 하나를 포함할 수 있다.
디스플레이부는, 다양한 정보에 대응되는 그래픽 객체를 표시할 수 있다. 디스플레이부는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.
디스플레이부는 터치 입력부와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다.
음향 출력부는 프로세서(140) 로부터 제공되는 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부는 하나 이상의 스피커를 포함할 수 있다.
햅틱 출력부는 촉각적인 출력을 발생시킨다. 예를 들면, 햅틱 출력부는, 액츄에이터를 진동시켜, 사용자가 출력을 인지할 수 있게 동작할 수 있다.
입력부(171) 및/또는 출력부(173)는 항공기(100)에 형성되지 않고 단말기(300)에 형성될 수 있다.
일 예로, 항공기(100)는 입력부(171)를 통해 정보를 입력받거나 별도의 단말기(300) 또는 서버(200)에 입력된 정보를 무선 통신부(175)를 통해 수신받을 수 있다.
일 예로, 항공기(100)는 출력부(173)로 직접 정보를 출력시킬 수 있다. 다른 예로, 항공기(100)는 무선 통신부(175)를 통해 별도의 단말기(300)로 정보를 송신하여, 단말기(300)가 정보를 출력하게 할 수 있다.
무선 통신부(175)는 외부 디바이스와 통신을 수행하기 위한 장치로 버(200), 단말기(300) 등과 통신하게 구비될 수 있다. 무선 통신부(175)는, 스마트폰이나 컴퓨터 등의 단말기(300)로부터 입력된 정보를 수신할 수 있다. 무선 통신부(175)는 단말기(300)로 출력될 정보를 송신할 수 있다. 단말기(300)는 무선 통신부(175)로부터 받은 정보를 출력할 수 있다.
무선 통신부(175)는 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다.
무선 통신부(175)는 단말기(300) 및/또는 서버(200)로부터 각종 명령 신호를 수신할 수 있다. 무선 통신부(175)는 단말기(300) 및/또는 서버(200)로부터 주행을 위한 구역 정보, 주행 경로, 주행 명령을 수신받을 수 있다. 여기서, 구역 정보는 비행 제한 구역(A) 정보, 접근 제한 거리 정보를 포함할 수 있다.
무선 통신부(175)는, 근거리 통신부, 위치 정보부, V2X 통신부 및 통신부(440)를 포함할 수 있다.
실시예에 따라, 무선 통신부(175)는 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.
근거리 통신부는, 근거리 통신(Short range communication)을 위한 유닛이다. 근거리 통신부는, 블루투스(Bluetooth™), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다.
근거리 통신부는 근거리 무선 통신망(Wireless Area Networks)을 형성하여, 항공기(100)와 적어도 하나의 외부 디바이스 사이의 근거리 통신을 수행할 수 있다.
위치 정보부는 항공기(100)의 위치 정보를 획득하기 위한 유닛이다. 예를 들면, 위치 정보부는, GPS(Global Positioning System) 모듈 또는 DGPS(Differential Global Positioning System) 모듈을 포함할 수 있다.
V2X 통신부는, 서버(V2I : Vehicle to Infra), 타 항공기(V2V : Vehicle to Vehicle) 또는 보행자(V2P : Vehicle to Pedestrian)와의 무선 통신 수행을 위한 유닛이다. V2X 통신부는, 인프라와의 통신(V2I), 항공기간 통신(V2V), 보행자와의 통신(V2P) 프로토콜이 구현 가능한 RF 회로를 포함할 수 있다.
광통신부는, 광을 매개로 외부 디바이스와 통신을 수행하기 위한 유닛이다. 광통신부는 전기 신호를 광 신호로 전환하여 외부에 발신하는 광발신부 및 수신된 광 신호를 전기 신호로 전환하는 광수신부를 포함할 수 있다.
항공기(100)는 맵핑 및/또는 현재 위치를 인식하는 등 각종 정보를 처리하고 판단하는 프로세서(140)를 포함한다. 프로세서(140)는 항공기(100)를 구성하는 각종 구성들의 제어를 통해, 항공기(100)의 동작 전반을 제어할 수 있다.
프로세서(140)는 커뮤니케이션 모듈(170)로부터 정보를 받아 처리할 수 있다. 프로세서(140)는 입력부(171)로부터 정보를 입력 받아 처리할 수 있다. 프로세서(140)는 무선 통신부(175)로부터 정보를 받아 처리할 수 있다.
프로세서(140)는 센서(130)로부터 감지 정보를 입력 받아 처리할 수 있다. 프로세서(140)는 모터(12)의 구동을 제어할 수 있다. 프로세서(140)는 작업 모듈(40)의 동작을 제어할 수 있다.
항공기(100)는 각종 데이터를 저장하는 메모리(150)를 포함한다. 메모리(150)는 항공기(100)의 제어에 필요한 각종 정보들을 기록하는 것으로, 휘발성 또는 비휘발성 기록 매체를 포함할 수 있다.
메모리(150)에는 주행구역에 대한 맵이 저장될 수 있다. 맵은 항공기(100)와 무선 통신부(175)를 통해 정보를 교환할 수 있는 외부 단말기(300)에 의해 입력된 것일 수도 있고, 항공기(100)가 스스로 학습을 하여 생성한 것일 수도 있다. 전자의 경우, 외부 단말기(300)로는 맵 설정을 위한 어플리케이션(application)이 탑재된 리모콘, PDA, 랩탑(laptop), 스마트 폰, 태블릿 등을 예로 들 수 있다.
도 3은 본 발명의 일 실시예에 따른 항공 제어 시스템의 주요 구성들 간의 제어관계를 도시한 블록도이다.
도 3을 참조하면, 본 발명의 일 실시예에 다른 항공 제어 시스템은 항공기(100)와 서버(200)를 포함하거나, 항공기(100), 단말기(300) 및 서버(200)를 포함할 수 있다. 항공기(100), 단말기(300) 및 서버(200)는 서로 무선 통신 방법으로 연결된다.
무선 통신 방법은 GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 사용될 수 있다.
무선 통신 방법은 무선 인터넷 기술이 사용될 수 있다. 무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced), 5G 등이 있다. 특히 5G 통신망을 이용하여 데이터를 송수신함으로써 보다 빠른 응답이 가능하다.
본 명세서에서 기지국은 단말과 직접적으로 통신을 수행하는 네트워크의 종단 노드(terminal node)로서의 의미를 갖는다. 본 명세서에서 기지국에 의해 수행되는 것으로 설명된 특정 동작은 경우에 따라서는 기지국의 상위 노드(upper node)에 의해 수행될 수도 있다. 즉, 기지국을 포함하는 다수의 네트워크 노드들(network nodes)로 이루어지는 네트워크에서 단말과의 통신을 위해 수행되는 다양한 동작들은 기지국 또는 기지국 이외의 다른 네트워크 노드들에 의해 수행될 수 있음은 자명하다. '기지국(BS: Base Station)'은 고정국(fixed station), Node B, eNB(evolved-NodeB), BTS(base transceiver system), 액세스 포인트(AP: Access Point), gNB(Next generation NodeB) 등의 용어에 의해 대체될 수 있다. 또한, '단말(Terminal)'은 고정되거나 이동성을 가질 수 있으며, UE(User Equipment), MS(Mobile Station), UT(user terminal), MSS(Mobile Subscriber Station), SS(Subscriber Station), AMS(Advanced Mobile Station), WT(Wireless terminal), MTC(Machine-Type Communication) 장치, M2M(Machine-to-Machine) 장치, D2D(Device-to-Device) 장치 등의 용어로 대체될 수 있다.
이하에서, 하향링크(DL: downlink)는 기지국에서 단말로의 통신을 의미하며, 상향링크(UL: uplink)는 단말에서 기지국으로의 통신을 의미한다. 하향링크에서 송신기는 기지국의 일부이고, 수신기는 단말의 일부일 수 있다. 상향링크에서 송신기는 단말의 일부이고, 수신기는 기지국의 일부일 수 있다.
이하에서는, 상기 항공기(100)를 제어하는 항공기용 제어장치(300)에 대하여 구체적으로 살펴본다.
상기 항공기용 제어장치(300)는 항공기(100)에 구비될 수 있다. 예를 들어, 항공기(100)에 탈부착이 가능한 독립된 장치로 이루어지거나, 항공기(100)에 일체형으로 설치되어 항공기(100)의 일부 구성 요소일 수 있다.
상기 항공기용 제어장치(300)는 항공기(100)와 물리적으로 분리된 장치로 서버(200) 또는 단말기(300)처럼 무선 통신으로 항공기(100)를 제어할 수도 있다.
이하에서는, 설명의 편의를 위해 상기 항공기용 제어장치(100)를 상기 항공기(100)의 프로세서(140)와 독립된 별도의 구성인 것으로 설명한다. 다만, 이는 본 발명의 일 실시 예에 불과하며, 본 명세서에서 설명하는 모든 항공기용 제어장치(300)의 동작 및 제어방법은, 상기 항공기(100)의 프로세서(140)에 의해 수행될 수도 있다. 즉, 항공기용 제어장치(100)의 프로세서(430)에 의하여 수행되는 동작 및/또는 제어방법은, 항공기(100)의 프로세서(140)에 의하여 수행될 수 있다.
도 4는 본 발명의 일 실시 예에 따른 항공기용 제어장치를 설명하기 위한 개념도이다.
도 4를 참조하면, 상기 항공기용 제어장치(400)는 통신부(410), 그리고 프로세서(430)를 포함한다.
통신부(410)는, 도 2에서 설명한 다양한 구성요소들과 통신을 수행하도록 이루어진다. 일 예로, 통신부(410)는 CAN(controller are network)을 통해 제공되는 각종 정보를 수신할 수 있다. 다른 일 예로, 통신부(410)는, 항공기, 이동 단말기와 서버, 다른 항공기와 같이 통신 가능한 모든 기기와 통신을 수행할 수 있다. 이는, V2X(Vehicle to everything) 통신으로 명명될 수 있다. V2X 통신은 비행 중 비행 인프라 및 다른 항공기와 통신하면서 교통상황 등의 정보를 교환하거나 공유하는 기술로 정의될 수 있다.
통신부(410)는 항공기(100)에 구비된 대부분의 장치들로부터 항공기의 비행과 관련된 정보를 수신할 수 있다. 상기 항공기(100)에서 상기 항공기용 제어장치(400)로 전송되는 정보를 ‘비행 정보’로 호칭한다.
비행 정보는 항공기 정보 및 항공기의 주변 정보를 포함한다. 항공기(100)의 프레임을 기준으로 항공기 내부와 관련된 정보를 항공기 정보, 항공기 외부와 관련된 정보를 주변 정보로 정의할 수 있다.
항공기 정보는 항공기 자체에 관한 정보를 의미한다. 예를 들어, 항공기 정보는 항공기의 주행속도, 주행방향, 가속도, 각속도, 위치(GPS), 무게, 항공기의 탑승인원, 항공기의 제동력, 항공기의 최대 제동력, 항공기에 가해지는 원심력, 항공기의 주행모드(자율주행모드인지 수동주행인지 여부), 항공기의 주차모드(자율주차모드, 자동주차모드, 수동주차모드), 항공기 내에 사용자가 탑승해있는지 여부 및 상기 사용자와 관련된 정보 등을 포함할 수 있다.
주변 정보는 항공기를 중심으로 소정 범위 내에 위치하는 다른 물체에 관한 정보 및 항공기 외부와 관련된 정보를 의미한다. 예를 들어, 항공기가 비행중인 하늘의 대기 상태, 날씨, 전방(또는 후방) 항공기와의 거리, 전방(또는 후방) 항공기의 상대속도, 항공기 주변밝기, 항공기를 기준으로 기준영역(일정영역) 내에 존재하는 객체와 관련된 정보, 상기 일정영역으로 객체가 진입/이탈하는지 여부, 항공기 주변에 사용자가 존재하는지 여부 및 상기 사용자와 관련된 정보(예를 들어, 상기 사용자가 인증된 사용자인지 여부) 등일 수 있다.
또한, 상기 주변 정보는, 주변밝기, 온도, 태양위치, 주변에 위치하는 객체 정보(사람, 타항공기, 표지판 등), 지형지물, 주행중인 비행 경로(Lane) 정보를 포함할 수 있다.
또한, 주변 정보는, 항공기 주변에 존재하는 객체(오브젝트)와 항공기(100)까지의 거리, 충돌 가능성, 상기 객체의 종류, 항공기가 주차 가능한 주차공간, 주차공간을 식별하기 위한 객체(예를 들어, 주차선, 노끈, 타항공기, 벽 등) 등을 더 포함할 수 있다.
상기 비행 정보는 이상에서 설명한 예에 한정되지 않으며, 상기 항공기(100)에 구비된 구성요소로부터 생성된 모든 정보를 포함할 수 있다.
한편, 상기 프로세서(430)는 상기 통신부(410)를 이용하여 상기 항공기(100)에 구비된 하나 또는 그 이상의 디스플레이들을 제어하도록 이루어진다.
구체적으로, 상기 프로세서(430)는 상기 통신부(410)를 통해 수신되는 비행 정보에 근거하여, 기 설정되어 있는 복수의 조건들 중에서 적어도 하나의 조건이 만족되는지를 판단할 수 있다. 만족되는 조건에 따라, 상기 프로세서(430)는 항공기에 구비된 하나 또는 그 이상의 장치들을 서로 다른 방식으로 제어할 수 있다.
기 설정된 조건과 관련하여, 상기 프로세서(430)는 항공기(100)에 구비된 전장품 및/또는 애플리케이션에서 이벤트가 발생한 것을 감지하고, 감지된 이벤트가 기 설정된 조건을 만족하는지를 판단할 수 있다. 이때, 상기 프로세서(430)는 통신부(410)를 통해 수신된 정보로부터 이벤트가 발생한 것을 감지할 수도 있다.
상기 애플리케이션은 위젯(widget)이나 홈 런처 등을 포함한 개념으로서, 항공기(100)에서 구동 가능한 모든 형태의 프로그램을 의미한다. 따라서, 상기 애플리케이션은 모터 제어, 임무 장비 제어, 애플리케이션의 업데이트의 기능을 수행하는 프로그램이 될 수 있다.
나아가, 상기 애플리케이션은 전방 추돌 방지(Forward Collision Warning, FCW), 사각 지대 감지(Blind Spot Detection, BSD), 비행 경로 이탈 경고(Lane Departure Warning, LDW), 보행자 감지(Pedestrian Detection, PD) 및 턴 바이 턴 길안내(turn by turn navigation, TBT) 중 적어도 하나를 포함할 수 있다.
예를 들어, 이벤트 발생은 ADAS(advanced driver assistance system)에서 설정한 경고 발생, ADAS에서 설정한 기능이 수행되는 경우일 수 있다. 예를 들어, 전방 충돌 경고(forward collision warning)가 발생하는 경우, 후측방 경고(blind spot detection)가 발생하는 경우, 비행 경로 이탈 경보(lane departure warning)가 발생하는 경우, 긴급 제동 기능(autonomous emergency braking), 긴급 착륙 기능이 수행되는 경우에 이벤트가 발생한 것으로 볼 수 있다.
또 다른 예로서, 전진 기어에서 후진 기어로 변경되는 경우, 소정 값보다 큰 가속이 발생되는 경우, 소정 값보다 큰 감속이 발생되는 경우, 동력장치가 내연기관에서 모터로 변경되는 경우, 또는 모터에서 내연기관으로 변경되는 경우에도 이벤트가 발생한 것으로 볼 수 있다.
이 밖에도, 항공기(100)에 구비된 다양한 ECU가 특정 기능을 수행하는 경우에도 이벤트가 발생한 것으로 볼 수 있다.
발생한 이벤트가 기 설정된 조건에 만족되는 경우, 상기 프로세서(430)는 만족되는 조건에 대응하는 정보가 상기 하나 또는 그 이상의 디스플레이들에 표시되도록 상기 통신부(410)를 제어한다. 디스플레이는 항공기(100), 서버(200) 및 단말기(300) 중 적어도 하나에 구비될 수 있다.
이하, 첨부된 도면을 참조하여 상기 항공기용 제어장치(400)의 동작에 대하여 보다 구체적으로 설명한다.
도 5는 도 4의 항공기용 제어장치의 제어방법을 설명하기 위한 흐름도이다.
상기 프로세서(430)는 배송품을 배송해야 하는 배송지의 주소를 수신하고, 상기 배송품이 상기 배송지에 배송되도록 상기 통신부를 통해 항공기를 제어한다. 예를 들어, 상기 프로세서(430)는 상기 항공기(100)의 시동은 켜고, 이륙 시키며, 배송지까지 공중 이동하도록 모터를 제어할 수 있다. 상기 프로세서(430)는 제어명령을 유선 또는 무선으로 상기 항공기 및/또는 상기 항공기에 구비된 각종 장치로 전송할 수 있다.
상기 배송품의 특성 및 상기 배송지의 주소 중 적어도 하나는 도 3에서 상술한 상기 서버(200) 및/또는 상기 단말기(300)로부터 수신될 수 있다.
도 5를 참조하면, 프로세서(430)는 상기 항공기(100)가 상기 배송품을 떨어뜨려야 하는 영역을 정의하는 복수의 배송 기준들 중 어느 하나의 배송 기준을 상기 주소에 근거하여 선택할 수 있다(S510).
배송 기준은 배송품을 떨어뜨려야 하는 영역을 정의하며, 배송 기준에 따라 배송품이 배송되는 배송 영역이 달라질 수 있다. 보다 구체적으로, 동일한 주소지로 배송품이 배송되는 경우라도, 배송 기준에 따라 배송품이 배송되는 배송 영역은 달라질 수 있다.
예를 들어, 제1 배송 기준은 주소지의 입구로부터 소정 거리 이내에 위치한 공터로 정의되고, 제2 배송 기준은 주소지의 베란다나 옥상에 구비된 고정형 물품 보관함으로 정의되고, 제3 배송 기준은 무인으로 지상을 이동하는 이동 물품 보관함으로 정의될 수 있다.
다른 예를 들어, 복수의 배송 기준들에는 전원 주택에 특화된 전원 주택용 배송 기준, 계단식 아파트에 특화된 계단식 아파트용 배송 기준, 복도식 아파트에 특화된 복도식 아파트용 배송 기준, 복수의 주소지와 연결되어 공동 관리하는 공동 가구용 배송 기준 등이 포함될 수 있다.
이러한 배송 기준들은 항공기용 제어장치(400) 내에 구비된 메모리에 저장되거나 서버(200)에 저장될 수 있다. 배송 기준은 정기적 또는 비정기적으로 업데이트 될 수 있으며, 기존 배송 기준이 편집/삭제되거나 새로운 배송 기준이 추가될 수 있다.
주소가 아닌 사용자 요청에 따라 서로 다른 배송 기준이 선택될 수도 있다. 예를 들어, 사용자가 배송 영역을 옥상으로 지정한 경우, 주소와 관계없이 옥상을 배송 영역으로 정의하는 배송 기준이 선택될 수 있다.
프로세서(430)는 상기 배송 기준에 근거하여 배송 영역 및 상기 배송 영역까지의 비행 경로를 설정할 수 있다(S530).
배송 기준에 따라 서로 다른 방식으로 배송 영역이 탐색되어 설정되며, 항공기(100)의 현재 위치(=배송 시작 위치)로부터 배송 영역까지의 비행 경로가 설정된다.
프로세서(430)는 주소지를 포함하는 지도, 위성 이미지 등을 배송지 정보로 획득하고, 상기 배송지 정보에 기 선택된 배송 기준을 적용해 배송 영역을 설정한다. 배송 영역은 배송 기준에 따라 다르게 설정된다. 예를 들어, 옥상으로 정의되는 배송 기준이 선택된 경우, 프로세서(430)는 지도로부터 옥상에 대응하는 영역을 탐색하고, 탐색된 영역을 배송영역으로 설정할 수 있다.
프로세서(430)는 상기 비행 경로를 따라 비행하도록 상기 항공기를 제어할 수 있다(S550).
비행 경로는 위도, 경도 및 고도로 표현되는 3차원 좌표값들의 연속으로 이루어지며, 항공기(100)는 비행 경로에 따라 비행을 수행한다. 비행 경로에는 각 좌표값에서의 항공기(100) 속도 정보가 포함될 수 있다. 예를 들어, 제1 좌표값에 대응하는 지점으로는 제1 속도로 도달하고, 제2 좌표값에 대응하는 지점으로는 제2속도로 도달하도록 비행 경로가 설정될 수 있다.
프로세서(430)는 상기 항공기가 상기 배송 영역에 도달하는 경우 상기 배송품이 상기 배송 영역에 떨어지도록 상기 항공기를 제어할 수 있다(S570).
항공기(100)는 다양한 방식으로 배송품을 배송 영역에 드랍(Drop) 할 수 있다.
그동안 유인 배송의 경우, 배송을 수행하는 사람이 배송지에 도달하여 배송지의 특성을 눈으로 확인하고 최적의 장소를 스스로 결정하여 배송품을 배송하였다. 코로나 등으로 비대면 배송 니즈가 발생하면서 무인 배송이 현장에 도입되고 있으나, 다양한 배송 환경에 맞춤형 배송을 수행할 수 없는 문제가 있다. 본 발명은 상술한 문제를 해결하기 위한 것으로 항공기가 최적의 장소에 배송품을 배송할 수 있는 방법을 제공한다.
도 6은 항공기로부터 수신되는 센싱 정보를 이용하여 배송 영역을 설정하는 방법을 설명하기 위한 흐름도이고, 도 7a 및 도 7b는 도 6의 제어방법을 설명하기 위한 개념도들이다.
프로세서(430)는 상기 배송지를 포함하는 지도 이미지를 획득할 수 있다(S610).
프로세서(430)는 배송 영역을 설정함에 있어서 지도 이미지 중 배송지를 포함하는 적어도 일 영역을 서버(200) 및/또는 항공기용 제어 장치(400) 내의 메모리로부터 획득할 수 있다.
예를 들어, 도 7a에 도시된 바와 같이, 지도 이미지에는 지도, 항공 촬영 이미지, 위성 촬영 이미지, 지적편집도 등이 포함될 수 있다.
프로세서(430)는 상기 지도 이미지의 적어도 일 영역을 복수의 영역들로 분류할 수 있다(S630).
보다 구체적으로, 프로세서(430)는 배송지의 일 지점을 중심점으로 하는 소정 영역을 이미지 분석을 통해 사람이 배송품을 취득할 수 없는 배송 불가 영역과 그렇지 않은 배송 가능 영역으로 분류할 수 있다.
나아가, 프로세서(430)는 배송 가능 영역을 공간의 특성에 따라 세부 영역들로 분류할 수 있다. 예를 들어, 도 7b에 도시된 바와 같이, 옥상 영역을 노란색 영역으로 분류하고, 정원 영역을 녹색 영역으로 분류하고, 베란다 영역을 파란색 영역으로 분류할 수 있다. 여기서, 빨간색 영역은 항공기가 배송품을 드랍 할 수 없거나 사용자의 접근이 불가능하여 드랍된 배송품을 사용자가 취득할 수 없는 배송 불가 영역이다.
프로세서(430)는 상기 배송 기준에 근거하여 상기 복수의 영역들 중 적어도 하나의 영역을 상기 배송 영역으로 설정할 수 있다(S650).
도 7b를 참조하면, 배송 기준이 옥상으로 정의되는 경우, 노란색 영역이 배송 영역으로 설정되고, 배송 기준이 베란다로 정의되는 경우, 파란색 영역이 배송 영역으로 설정될 수 있다. 배송 기준은 복수 개가 선택될 수도 있으며, 이 경우 하나의 배송 기준이 선택된 경우보다 더 넓은 배송 영역이 설정될 수 있다.
프로세서(430)는 비행 경로를 설정하기 전에 항공기가 도달해야 하는 배송 영역을 먼저 설정한다. 같은 주소지라도 배송 영역에 따라 항공기의 비행 경로는 다르게 설정되며, 이를 통해 항공기의 연료가 효율적으로 관리될 수 있다.
다만, 기 획득된 이미지를 이용하기 때문에, 실시간으로 변화하는 현장 상황을 반영하지 못하는 문제가 있다. 이 문제를 해결하기 위하여, 프로세서(430)는 항공기가 배송 영역에 도달하는 경우 항공기로부터 센싱된 센싱 정보를 수신하고, 센싱 정보에 근거하여 배송 영역을 재설정할 수 있다.
도 8은 배송 영역을 재설정하는 방법을 설명하기 위한 흐름도이다.
프로세서(430)는 상기 항공기에 탑재된 센서가 상기 배송 영역에 대하여 센싱한 센싱 정보를 수신할 수 있다(S810).
도 2에서 상술한 바와 같이, 항공기에는 다양한 센서들이 구비될 수 있다. 예를 들어, 카메라, 초음파 센서, 라이다, 레이더, ToF와 같은 적외선 센서, 기압 센서 등이 항공기에 구비될 수 있다.
항공기는 비행 경로를 따라 배송 영역에 도달하는 경우, 센서를 활성화 해 배송 영역에 대한 센싱 정보를 생성하고, 항공기용 제어장치(400)로 전송할 수 있다.
프로세서(430)는 센싱 정보와 도 6에서 상술한 지도 이미지를 비교하고, 차이가 나는 부분을 배송 영역에서 제외할 수 있다. 보다 구체적으로, 프로세서(430)는 센싱 정보와 지도 이미지의 비교 결과에 근거하여 배송 영역을 지도 이미지와 센싱 정보가 일치하는 제1 배송 영역, 그리고 지도 이미지와 센싱 정보가 일치하지 않는 제2 배송 영역으로 분류할 수 있다. 이때, 프로세서(430)는 제1 배송 영역을 배송 영역으로 재설정할 수 있으며, 재설정된 배송 영역에서 제2 배송 영역은 제외될 수 있다.
프로세서(430)는 센싱 정보가 기준 조건을 만족하는 경우, 배송 영역을 제1 영역에서 제2 영역으로 재설정하고(S830), 배송품이 상기 제1 영역이 아닌 제2 영역에 떨어지도록 항공기를 제어할 수 있다(S850).
여기서, 기준 조건은 배송 영역으로 설정된 제1 영역에 배송품을 배송할 수 없는 조건을 의미한다. 예를 들어, 제1 영역에 자동차가 위치하거나, 기상 조건이 악화되어 배송품이 제1 영역으로 드랍 될 수 없는 경우 등이 기준 조건을 만족하는 경우일 수 있다.
상기 센싱 정보는 상기 배송 영역을 촬영한 이미지이고, 프로세서(430)는 상기 이미지로부터 배송을 불가능하게 하는 오브젝트가 탐색되는 경우, 상기 배송 영역이 상기 제1 영역에서 상기 제2 영역으로 재설정할 수 있다.
기준 조건이 만족되는 경우, 배송 영역은 새로운 영역으로 재설정되며, 항공기는 새로운 영역으로 이동하여 배송품을 드랍한다. 변경된 배송 영역은 통신부(410)를 통해 서버(200) 및/또는 단말기(300)로 전송될 수 있다.
프로세서(430)는 배송 영역을 재설정하는 동안 일 지점에서 공중 정지(Hovering)하도록 항공기를 제어할 수 있다. 보다 구체적으로, 비행 경로를 따라 비행하는 중에 센싱 정보가 기준 조건을 만족하는 경우, 일 지점을 호버링 지점으로 설정하고, 상기 호버링 지점에서 공중 정지하도록 항공기를 제어할 수 있다.
상기 호버링 지점은 상기 항공기를 중심으로 소정 범위내에 물체 및/또는 사람이 없는 지점을 의미한다. 상기 호버링 지점은 상기 항공기에 구비된 모터 수에 따라 달라질 수 있다. 보다 구체적으로, 소정 범위의 기준이 되는 거리는 모터 수에 따라 커질 수 있다. 이는, 항공기로 인한 소음이 주변에 도달하는 것을 방지하기 위함이다.
도 9는 배송 영역을 재설정하기 위해 항공기를 제어하는 방법을 설명하기 위한 흐름도이다.
프로세서(430)는 상기 센싱 정보를 이용하여 상기 배송품의 드랍 조건을 만족하는 소정 영역을 탐색할 수 있다(S910).
일 예로, 상기 소정 영역은 토지의 고저가 일정 범위 이내인 평지일 수 있다. 프로세서(430)는 뎁스 센서나 라이다, 레이더 등을 이용하여 평지를 탐색할 수 있다. 이는, 배송품이 경사 때문에 굴러가거나 미끄러지는 것을 방지하기 위함이다.
상기 드랍 조건은 항공기의 특성, 배송 가능 방식 및 배송품의 특성 중 적어도 하나에 따라 가변될 수 있다.
항공기의 특성은 항공기 형태(고정익/회전익/헬리콥터형 등), 항공기 크기, 항공기 무게 등을 포함한다.
배송 가능 방식은 항공기가 배송품을 배송할 수 있는 방식에 관한 것으로, 고정되어 있는 배송품을 배송지로 투하하는 투하 방식(Airdrop), 배송지로 착륙하여 배송품을 지상에 내려놓는 풋 다운 방식(Put Down), 배송품을 묶고 있는 와이어를 이용하여 배송품을 배송지에 내려놓는 와이어 방식(Wire), 로봇 팔을 이용하여 배송지에 전달하는 컨베이 방식(Convey) 등을 포함한다.
배송품의 특성은 배송품 종류, 배송품 무게, 배송품 크기, 배송품 형태 등을 포함한다.
프로세서(430)는 상기 소정 영역이 탐색되지 않는 경우, 상기 센싱 정보를 이용하여 새로운 비행 경로를 설정하고(S930), 상기 새로운 비행 경로를 따라 비행하도록 상기 항공기를 제어할 수 있다(S950).
각 센서는 항공기에 탑재되기 때문에, 항공기를 중심으로 센싱 정보의 시야(Field of View, FoV)가 형성된다. 이 때문에, 항공기의 현재 위치에서는 탐색되지 않는 사각 지대가 형성될 수 있다. 새로운 배송 영역을 탐색하기 위하여 프로세서(430)는 현재 위치를 중심으로 사각 지대를 결정하고, 결정된 사각 지대를 센싱하기 위한 새로운 비행 경로를 설정한다.
프로세서(430)는 새로운 비행 경로를 따라 비행하는 중에 생성되는 센싱 정보를 이용하여 실시간으로 소정 영역을 탐색할 수 있다.
새로운 비행 경로를 따라 비행하는 중에 프로세서(430)는 상기 소정 영역이 탐색되는 경우, 상기 소정 영역을 상기 제2 영역으로 재설정할 수 있다(S970).
도 10은 배송품을 수신할 사용자를 기준으로 배송 영역을 재설정하는 방법을 설명하기 위한 흐름도이고, 도 11은 도 10의 방법을 설명하기 위한 개념도이다.
프로세서(430)는 배송품을 수신하기로 예정된 수신자의 단말기 위치정보를 수신할 수 있다. 예를 들어, 단말기 위치정보는 위도, 경도 및 고도로 정의될 수 있다(S1010).
프로세서(430)는 단말기 위치정보에 근거하여 배송 영역을 설정할 수 있다(S1030). 보다 구체적으로, 단말기 위치정보에 따라 배송 영역이 실시간으로 가변될 수 있다.
예를 들어, 도 11에 도시된 바와 같이, 프로세서(430)는 배송지를 기준으로 제1 출입문을 마주하는 제1 영역(1120) 및 제2 출입문을 마주하는 제2 영역(1130)을 설정할 수 있다. 프로세서(430)는 단말기 위치(1110)에 따라 상기 제1 영역 또는 상기 제2 영역을 상기 배송 영역으로 설정할 수 있다. 다시 말해, 수신자가 더 빨리 배송품을 취득할 수 있는 영역이 배송 영역으로 설정될 수 있다.
도 12는 배송 영역을 탐색하기 위한 제어방법을 설명하기 위한 흐름도이고, 도 13a 및 도 13b는 도 12의 제어방법을 설명하기 위한 예시도들이다.
프로세서(430)는 주소에 근거하여 배송 영역과 기준 거리만큼 이격된 경유지를 설정할 수 있다(S1210). 상기 경유지는 프로세서(430)가 설정하는 비행 경로에 포함된다.
항공기가 복수의 주택들이 포함된 아파트의 특정 주택으로 배송하는 경우, 그 주택을 어떤 방식으로 탐색할지가 문제된다. 본 발명에 따른 항공기용 제어장치는 보다 빠르고 정확하게 배송지를 탐색하기 위하여, 경유지를 설정한다.
여기서 경유지는 항공기에 구비된 센서를 이용하여 배송지 탐색을 시작하기 위한 지점을 의미한다.
센서에는 카메라, 레이다, 라이다 등 다양한 센서들이 포함될 수 있으나, 설명의 편의를 위하여 카메라를 예를 들어 설명한다.
도 13a에 도시된 바와 같이, 227동 아파트에는 같은 층에 제1호부터 제4호까지 4개 열의 주택들이 존재한다. 아파트가 총 30층이라고 할 경우, 총 120개의 주택들이 하나의 건물에 포함된다. 주소지가 227동 2호이고, 베란다에 구비된 물품 보관함으로 배송품을 배송해야 하는 경우, 120개의 주택들 중 227동 2호를 어떻게 탐색해야 할지가 문제된다.
본 발명에 따른 항공기용 제어장치(400)의 프로세서(430)는 주소에 근거하여 경유지를 설정하는데, 상기 경유지는 상기 주소지의 건물을 센서를 이용하여 센싱하기 위한 시작점이다. 항공기가 경유지에 도달하는 경우, 센서를 활성화해 배송 영역 탐색을 시작한다.
동일한 건물이라고 하더라도 주소지에 따라 경유지는 다르게 설정될 수 있다.
상기 주소에 포함된 상기 배송지의 층수에 따라 상기 기준 거리는 가변될 수 있다. 도 13a에 도시된 바와 같이, 제1 층수인 경우 기준 거리는 d1으로 설정되고, 도 13b에 도시된 바와 같이, 제2 층수인 경우 기준 거리는 d2로 설정될 수 있다.
예를 들어, 30층 건물에서 27층을 탐색하는 제1경우와 15층을 탐색하는 제2경우를 비교할 경우, 제1경우에서의 기준 거리는 제2 경우보다 짧다. 프로세서(430)는 건물 이미지로부터 베란다 탐색하고, 건물의 일 단으로부터 하방 또는 상방으로 카운팅하며 목표 층수를 탐색할 수 있다. 카운팅을 성공적으로 수행하려면, 27층인 경우 30층부터 27층까지를 하나의 이미지로 촬영해야 하고, 15층인 경우 30층부터 15층까지 하나의 이미지로 촬영해야 한다. 이 때문에, 주소지의 층수에 따라 경유지의 기준 거리는 가변된다.
상기 항공기에 탑재되어 상기 이미지를 촬영하는 카메라의 특성에 따라 상기 기준 거리는 가변될 수 있다. 예를 들어, 카메라의 화질 및/또는 화각을 고려하여 배송 영역을 탐색 가능한 기준 거리를 서로 다르게 설정할 수 있다.
상기 경유지는 위도, 경도 및 고도로 정의되는 3차원 좌표로 표현되며, 상기 주소에 포함된 상기 배송지의 층수에 따라 상기 경유지의 고도 값이 서로 다르게 설정될 수 있다.
보다 구체적으로, 프로세서(430)는 상기 배송지를 포함하는 건축물의 높이 정보를 획득하고, 상기 주소에 포함된 상기 배송지의 층수를 상기 높이 정보와 비교하여 상기 고도 값을 결정할 수 있다.
예를 들어, 30층 건물에서 27층을 탐색하는 경우, 제1고도가 설정되고, 5층을 탐색하는 경우, 제1고도보다 낮은 제2고도가 설정될 수 있다. 프로세서(430)는 제1고도가 설정되는 경우, 경유지에서 하강하도록 항공기를 제어하고, 제2고도가 설정되는 경우, 경유지에서 상승하도록 항공기를 제어한다.
프로세서(430)는 상기 항공기가 상기 경유지에서 상기 배송 영역을 촬영한 이미지를 수신하고(S1230), 프로세서(430)는 상기 이미지를 이용하여 상기 배송 영역을 탐색할 수 있다(S1250). 이는, 이미지를 바탕으로 배송하고자 하는 배송지를 보다 정확하고 빠르게 탐색하기 위함이다.
도 14는 이미지를 이용해 배송 영역을 탐색하는 방법을 설명하기 위한 흐름도이고, 도 15a 내지 도 15c는 도 14의 방법을 설명하기 위한 예시도들이다.
프로세서(430)는 경유지에서 촬영된 건물 이미지에 소정 크기의 사각형들로 이루어진 매트릭스를 오버랩 할 수 있다(S1410).
프로세서(430)는 기준 사각형으로부터 카운팅을 시작하여 어느 하나의 사각형에 대응하는 배송 영역을 상기 매트릭스가 오버랩 된 상기 이미지로부터 탐색할 수 있다(S1430).
예를 들어, 도 15a에 도시된 바와 같이, 항공기(400)는 경유지에서 건물(50)을 촬영한 이미지(450)를 수신하고, 이미지(450)로부터 타겟(1510)을 탐색한다. 이때, 복수의 사각형들이 메쉬형태로 배치된 매트릭스를 이미지(450)에 오버랩 함으로써, 타겟(1510)을 보다 빠르게 탐색할 수 있다.
사각형의 소정 크기는 주소에 따라 가변된다. 보다 구체적으로, 프로세서(830)는 주소를 이용하여 베란다 크기, 주택 평수, 주택 형태 등 건물의 특성을 확인하고, 타겟을 탐색하기 위한 매트릭스를 생성할 수 있다. 그리고 매트릭스에서 타겟에 대응하는 사각형을 기 설정할 수 있다. 이미지에 매트릭스를 오버랩함으로써 타겟을 보다 빠르고 정확히 탐색할 수 있다.
프로세서(430)는 주소에 근거하여 배송 영역과 기준 거리만큼 이격된 경유지를 설정할 수 있다. 도 15a에 도시된 바와 같이, 제1주소에 위치한 제1타겟(1510)을 탐색하는 경우에는 d1 만큼 떨어진 경유지가 설정되고, 도 15b에 도시된 바와 같이, 제2 주소에 위치한 제2 타겟(1530)을 탐색하는 경우에는 d2 만큼 떨어진 경유지가 설정될 수 있다.
동일한 건물이라도, 경유지의 위치에 따라 매트릭스를 구성하는 사각형의 소정 크기는 가변된다. 예를 들어, 제1 경유지에서 촬영된 제1이미지에 적용되는 매트릭스의 사각형은 제1크기를 가지고, 제2 경유지에서 촬영된 제2 이미지에 적용되는 매트릭스의 사각형은 제2크기를 가질 수 있다. 주소에 따라 경유지가 가변되고, 그에 따라 영상에 적용되는 매트릭스의 크기가 가변되기 때문에 타겟을 찾는데 소요되는 리소스가 최소화되며, 배터리를 보다 효율적으로 사용할 수 있다.
프로세서(430)는 배송 영역과 동일한 기준 거리만큼 이격된 경유지가 설정되는 경우라도, 주소에 따라 경유지의 고도가 가변될 수 있다. 예를 들어, 도 15a에 도시된 d1과 도 15c에 도시된 d3는 동일한 거리일 수 있다. 다만, 배송지의 층수가 다르기 때문에 각 경유지의 고도는 다르게 설정될 수 있다. 구체적인 설명은 도 12 내지 도 13에서 상술한바 생략한다.
본 발명은 도 8 내지 도 15를 참조하여 설명한 항공기용 제어장치를 구비한 항공기로 확장될 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드(또는, 애플리케이션이나 소프트웨어)로서 구현하는 것이 가능하다. 상술한 자율 주행 항공기의 제어 방법은 메모리 등에 저장된 코드에 의하여 실현될 수 있다.
컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (20)

  1. 통신부 및 프로세서를 포함하는 항공기용 제어장치의 제어방법으로,
    배송품을 배송해야 하는 배송지의 주소를 수신하는 단계; 및
    상기 배송품이 상기 배송지에 배송되도록 상기 통신부를 통해 항공기를 제어하는 단계를 포함하며,
    상기 통신부를 통해 상기 항공기를 제어하는 단계는,
    상기 항공기가 상기 배송품을 떨어뜨려야 하는 영역을 정의하는 복수의 배송 기준들 중 어느 하나의 배송 기준을 상기 주소에 근거하여 선택하는 단계;
    상기 배송 기준에 근거하여 배송 영역 및 상기 배송 영역까지의 비행 경로를 설정하는 단계;
    상기 비행 경로를 따라 비행하도록 상기 항공기를 제어하는 단계; 및
    상기 항공기가 상기 배송 영역에 도달하는 경우 상기 배송품이 상기 배송 영역에 떨어지도록 상기 항공기를 제어하는 단계를 포함하는 항공기용 제어장치의 제어방법.
  2. 제1항에 있어서,
    상기 통신부를 통해 상기 항공기를 제어하는 단계는,
    상기 배송지를 포함하는 지도 이미지를 획득하는 단계;
    상기 지도 이미지의 적어도 일 영역을 복수의 영역들로 분류하는 단계; 및
    상기 배송 기준에 근거하여 상기 복수의 영역들 중 적어도 하나의 영역을 상기 배송 영역으로 설정하는 단계를 포함하는 것을 특징으로 하는 항공기용 제어장치의 제어방법.
  3. 제2항에 있어서,
    상기 항공기에 탑재된 센서가 상기 배송 영역에 대하여 센싱한 센싱 정보를 수신하는 단계;
    상기 센싱 정보가 기준 조건을 만족하는 경우, 상기 배송 영역을 제1 영역에서 제2 영역으로 재설정하는 단계; 및
    상기 배송품이 상기 제1 영역이 아닌 제2 영역에 떨어지도록 상기 항공기를 제어하는 단계를 포함하는 것을 특징으로 하는 항공기용 제어장치의 제어방법.
  4. 제3항에 있어서,
    상기 배송 영역을 상기 제2 영역으로 재설정하는 단계는,
    상기 센싱 정보를 이용하여 상기 배송품의 드랍 조건을 만족하는 소정 영역을 탐색하는 단계; 및
    상기 소정 영역을 상기 제2 영역으로 재설정하는 단계를 포함하는 것을 특징으로 하는 항공기용 제어장치의 제어방법.
  5. 제4항에 있어서,
    상기 소정 영역이 탐색되지 않는 경우, 상기 센싱 정보를 이용하여 새로운 비행 경로를 설정하는 단계; 및
    상기 새로운 비행 경로를 따라 비행하도록 상기 항공기를 제어하는 단계를 포함하는 것을 특징으로 하는 항공기용 제어장치의 제어방법.
  6. 제5항에 있어서,
    상기 소정 영역은 토지의 고저가 일정 범위 이내인 평지인 것을 특징으로 하는 항공기용 제어장치의 제어방법.
  7. 제5항에 있어서,
    상기 드랍 조건은 상기 배송품에 따라 가변되는 것을 특징으로 하는 항공기용 제어장치의 제어방법..
  8. 제3항에 있어서,
    상기 센싱 정보는 상기 배송 영역을 촬영한 이미지이고, 상기 이미지로부터 배송을 불가능하게 하는 오브젝트가 탐색되는 경우, 상기 배송 영역이 상기 제1 영역에서 상기 제2 영역으로 재설정되는 것을 특징으로 하는 항공기용 제어장치의 제어방법.
  9. 제3항에 있어서,
    상기 배송 영역을 재설정하는 동안 일 지점에서 공중 정지하도록 상기 항공기를 제어하는 단계를 포함하는 것을 특징으로 하는 항공기용 제어장치의 제어방법.
  10. 제1항에 있어서,
    상기 배송품을 수신하기로 예정된 수신자의 단말기 위치정보를 수신하는 단계를 더 포함하며,
    상기 단말기 위치정보에 따라 상기 배송 영역이 가변되는 것을 특징으로 하는 항공기용 제어장치의 제어방법.
  11. 제10항에 있어서,
    상기 배송지를 기준으로 제1 출입문을 마주하는 제1 영역 및 제2 출입문을 마주하는 제2 영역을 설정하는 단계; 및
    상기 단말기 위치정보에 따라 상기 제1 영역 또는 상기 제2 영역을 상기 배송 영역으로 설정하는 단계를 포함하는 것을 특징으로 하는 항공기용 제어장치의 제어방법.
  12. 제1항에 있어서,
    상기 주소에 근거하여 상기 배송 영역과 기준 거리만큼 이격된 경유지를 설정하며, 상기 경유지는 상기 비행 경로에 포함되는 것을 특징으로 하는 단계;
    상기 항공기가 상기 경유지에서 상기 배송 영역을 촬영한 이미지를 수신하는 단계; 및
    상기 이미지를 이용하여 상기 배송 영역을 탐색하는 단계를 포함하는 것을 특징으로 하는 항공기용 제어장치의 제어방법.
  13. 제12항에 있어서,
    상기 경유지를 설정하는 단계에서,
    상기 주소에 포함된 상기 배송지의 층수에 따라 상기 기준 거리는 가변되는 것을 특징으로 하는 항공기용 제어장치의 제어방법.
  14. 제12항에 있어서,
    상기 경유지를 설정하는 단계에서,
    상기 항공기에 탑재되어 상기 이미지를 촬영하는 카메라의 특성에 따라 상기 기준 거리는 가변되는 것을 특징으로 하는 항공기용 제어장치의 제어방법.
  15. 제12항에 있어서,
    상기 경유지를 설정하는 단계에서,
    상기 경유지는 위도, 경도 및 고도로 정의되는 3차원 좌표로 표현되며, 상기 주소에 포함된 상기 배송지의 층수에 따라 상기 경유지의 고도 값이 서로 다르게 설정되는 것을 특징으로 하는 항공기용 제어장치의 제어방법.
  16. 제15항에 있어서,
    상기 경유지를 설정하는 단계는,
    상기 배송지를 포함하는 건축물의 높이 정보를 획득하는 단계; 및
    상기 주소에 포함된 상기 배송지의 층수를 상기 높이 정보와 비교하여 상기 고도 값을 결정하는 단계를 포함하는 것을 특징으로 하는 항공기용 제어장치의 제어방법.
  17. 제12항에 있어서,
    상기 이미지를 이용하여 상기 배송 영역을 탐색하는 단계는,
    상기 이미지에 소정 크기의 사각형들로 이루어진 매트릭스를 오버랩 하는 단계; 및
    기준 사각형으로부터 카운팅을 시작하여 어느 하나의 사각형에 대응하는 배송 영역을 상기 매트릭스가 오버랩 된 상기 이미지로부터 탐색하는 단계를 포함하는 것을 특징으로 하는 항공기용 제어장치의 제어방법.
  18. 제17항에 있어서,
    상기 소정 크기는 상기 주소에 따라 가변되는 것을 특징으로 하는 항공기용 제어장치의 제어방법.
  19. 제1항의 제어방법을 수행하는 항공기용 제어장치.
  20. 제1항의 제어방법에 의하여 제어되는 항공기.
PCT/KR2021/016901 2020-12-15 2021-11-17 항공기용 제어장치 및 그것의 제어방법 WO2022131584A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/267,482 US20240062135A1 (en) 2020-12-15 2021-11-17 Control apparatus for aircraft and control method therefor
EP21906889.7A EP4266143A1 (en) 2020-12-15 2021-11-17 Control apparatus for aircraft and control method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0175747 2020-12-15
KR1020200175747A KR20220085573A (ko) 2020-12-15 2020-12-15 항공기용 제어장치 및 그것의 제어방법

Publications (1)

Publication Number Publication Date
WO2022131584A1 true WO2022131584A1 (ko) 2022-06-23

Family

ID=82057831

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/016901 WO2022131584A1 (ko) 2020-12-15 2021-11-17 항공기용 제어장치 및 그것의 제어방법

Country Status (4)

Country Link
US (1) US20240062135A1 (ko)
EP (1) EP4266143A1 (ko)
KR (1) KR20220085573A (ko)
WO (1) WO2022131584A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116308006A (zh) * 2023-05-19 2023-06-23 安徽省赛达科技有限责任公司 一种数字乡村综合服务云平台
CN116757582A (zh) * 2023-08-18 2023-09-15 山西汇能科技有限公司 基于无人机的物流配送系统及方法
WO2024108412A1 (zh) * 2022-11-23 2024-05-30 深圳市大疆创新科技有限公司 备降位置的规划方法、降落平台及飞行器的控制方法、设备、系统及介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240168492A1 (en) * 2022-11-17 2024-05-23 The Boeing Company Systems and methods for collecting and disseminating structure information from mounted smart lights

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160060374A (ko) * 2014-11-20 2016-05-30 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20160082195A (ko) * 2014-12-31 2016-07-08 주식회사 케이티 카메라를 탑재하지 않은 소형 비행체 및 그 비행체의 이동 방법
US20190147401A1 (en) * 2017-11-13 2019-05-16 Flytrex Aviation Ltd. System and method for automated package delivery to dynamic locations
KR101990886B1 (ko) * 2018-11-22 2019-06-19 주식회사 무지개연구소 빅데이터 기반 자율 비행 드론 시스템 및 그 자율 비행 방법
KR20200044691A (ko) * 2018-10-19 2020-04-29 인성데이타(주) 드론을 이용한 배송 관리 방법 및 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160060374A (ko) * 2014-11-20 2016-05-30 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR20160082195A (ko) * 2014-12-31 2016-07-08 주식회사 케이티 카메라를 탑재하지 않은 소형 비행체 및 그 비행체의 이동 방법
US20190147401A1 (en) * 2017-11-13 2019-05-16 Flytrex Aviation Ltd. System and method for automated package delivery to dynamic locations
KR20200044691A (ko) * 2018-10-19 2020-04-29 인성데이타(주) 드론을 이용한 배송 관리 방법 및 시스템
KR101990886B1 (ko) * 2018-11-22 2019-06-19 주식회사 무지개연구소 빅데이터 기반 자율 비행 드론 시스템 및 그 자율 비행 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024108412A1 (zh) * 2022-11-23 2024-05-30 深圳市大疆创新科技有限公司 备降位置的规划方法、降落平台及飞行器的控制方法、设备、系统及介质
CN116308006A (zh) * 2023-05-19 2023-06-23 安徽省赛达科技有限责任公司 一种数字乡村综合服务云平台
CN116757582A (zh) * 2023-08-18 2023-09-15 山西汇能科技有限公司 基于无人机的物流配送系统及方法
CN116757582B (zh) * 2023-08-18 2023-11-17 山西汇能科技有限公司 基于无人机的物流配送系统及方法

Also Published As

Publication number Publication date
US20240062135A1 (en) 2024-02-22
EP4266143A1 (en) 2023-10-25
KR20220085573A (ko) 2022-06-22

Similar Documents

Publication Publication Date Title
WO2022131584A1 (ko) 항공기용 제어장치 및 그것의 제어방법
US11312490B2 (en) Landing and payload loading structures
WO2018043820A1 (ko) 기상 정보를 이용한 무인 비행체의 경로 안내 시스템, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체
Chaurasia et al. Unmanned aerial vehicle (UAV): A comprehensive survey
WO2018182237A1 (ko) 무인 항공기 및 이를 제어하는 방법
US20180046177A1 (en) Motion Sensing Flight Control System Based on Smart Terminal and Terminal Equipment
US20200051003A1 (en) Methods and Systems for Requesting and Displaying UAV Information
KR102280688B1 (ko) 무인 비행 로봇의 컨트롤러
JP2010095246A (ja) 無人航空機のナビゲーションのためのシステム及び方法
JPWO2019159232A1 (ja) 無人航空機制御システム、無人航空機制御方法、及びプログラム
US20170061803A1 (en) Controller terminal and method of controlling wireless aircraft
US20230176566A1 (en) Wireless communication system of intelligent uav
WO2018043821A1 (ko) 기상 정보를 이용한 무인 비행체의 경로 안내 시스템, 그 방법 및 컴퓨터 프로그램이 기록된 기록매체
KR20180065331A (ko) 영상 인식을 이용한 드론 제어 방법 및 그 장치
KR20190052849A (ko) 차량의 드론 이착륙 제어 장치 및 그 방법
KR20190123095A (ko) 드론 기반의 전방위 열화상 이미지 처리 방법 및 이를 위한 열화상 이미지 처리 시스템
KR102467485B1 (ko) 픽셀좌표에 기반하여 객체를 추적하는 무인 비행체의 비행방법
US20220238987A1 (en) Mobile surveillance systems extendable mast control systems and methods
US20230109408A1 (en) Information processing device, method, computer program, and communication system
KR102242208B1 (ko) 드론 제어 시스템 및 그 방법
US20210011472A1 (en) System, device and method for time limited communication for remotely controlled vehicles
KR102270246B1 (ko) 공장 및 실험실 환경 모니터링 시스템
WO2022000245A1 (zh) 飞行器的定位方法、辅助定位系统的控制方法和装置
US11820488B2 (en) Image capturing method
KR102004241B1 (ko) 교통체계에 따라 비행 가능한 무인비행체 및 이를 포함하는 무인비행 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21906889

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18267482

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021906889

Country of ref document: EP

Effective date: 20230717