WO2019124894A1 - 무인 비행체 및 그의 동작 방법, 그리고 상기 무인 비행체의 이동을 제어하기 위한 무인 운반체 - Google Patents
무인 비행체 및 그의 동작 방법, 그리고 상기 무인 비행체의 이동을 제어하기 위한 무인 운반체 Download PDFInfo
- Publication number
- WO2019124894A1 WO2019124894A1 PCT/KR2018/015977 KR2018015977W WO2019124894A1 WO 2019124894 A1 WO2019124894 A1 WO 2019124894A1 KR 2018015977 W KR2018015977 W KR 2018015977W WO 2019124894 A1 WO2019124894 A1 WO 2019124894A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- unmanned
- vehicle
- unmanned aerial
- aerial vehicle
- sensing information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000004891 communication Methods 0.000 claims abstract description 82
- 230000003068 static effect Effects 0.000 claims description 10
- 230000005540 biological transmission Effects 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 230000001133 acceleration Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 238000007689 inspection Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/0202—Control of position or course in two dimensions specially adapted to aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
- G05D1/102—Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
- B64U10/14—Flying platforms with four distinct rotor axes, e.g. quadcopters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U20/00—Constructional aspects of UAVs
- B64U20/80—Arrangement of on-board electronics, e.g. avionics systems or wiring
- B64U20/87—Mounting of imaging devices, e.g. mounting of gimbals
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U50/00—Propulsion; Power supply
- B64U50/30—Supply or distribution of electrical power
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/40—Control within particular dimensions
- G05D1/46—Control of position or course in three dimensions
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/60—Intended control result
- G05D1/652—Take-off
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U50/00—Propulsion; Power supply
- B64U50/30—Supply or distribution of electrical power
- B64U50/34—In-flight charging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/60—Other road transportation technologies with climate change mitigation effect
- Y02T10/70—Energy storage systems for electromobility, e.g. batteries
Definitions
- Various embodiments of the present invention are directed to an unmanned aerial vehicle (UAV) and method of operation thereof and an automated guided vehicle (AGV) for controlling movement of the unmanned aerial vehicle.
- UAV unmanned aerial vehicle
- AGV automated guided vehicle
- unmanned aerial vehicles As wireless communications become popular, the distribution rate of unmanned aerial vehicles (UAVs) is increasing. Since the unmanned aerial vehicle operates at a distance from the user, it is used in various fields such as transportation, exploration, logistics, and inventory inspection. In the field of inventory research, there is a method of carrying out an inventory check by a man-made unmanned aerial vehicle equipped with a reader for inventory identification, or a module (for example, a single board computer (SBC) And the way in which an unmanned aerial vehicle mounted on the vehicle carries out an inventory survey without maneuvering.
- SBC single board computer
- a method for carrying out an inventory check of a manless maneuver with a module for position recognition calculation is as follows: a sensor for determining the self position of the unmanned aerial vehicle and a sensor for autonomously performing flight according to the determined self position It is necessary to provide a processor with high power consumption and high-performance.
- Various embodiments of the present invention are directed to providing an apparatus and method for performing an inventory with a relatively low specification unmanned aerial vehicle, without human intervention (or steering).
- An unmanned aerial vehicle includes a wireless communication circuit, at least one sensor, a processor operatively coupled to the wireless communication circuit and the at least one sensor, and a memory operatively coupled to the processor, Wherein the memory, when executed, causes the processor to receive a movement command based on the current position of the unmanned air vehicle from an unmanned vehicle located within a specified distance from the unmanned air vehicle using the wireless communication circuit, Wherein the position-independent sensing information is acquired using the at least one sensor while the unmanned aerial vehicle is moving, and the position-independent sensing information is used to determine the position of the unmanned air vehicle using the position- To the unmanned vehicle Can be stored.
- An unmanned vehicle in accordance with various embodiments of the present invention includes a wireless communication circuit, at least one sensor, a processor operatively coupled to the wireless communication circuit and the at least one sensor, and a memory operatively coupled to the processor, Wherein the memory, when executed, causes the processor to receive position-independent sensing information from an unmanned aerial vehicle located within a specified distance from the unmanned vehicle using the wireless communication circuit, Determining a position of the unmanned aerial vehicle using the position of the unmanned vehicle and the position-independent sensing information, and transmitting a movement command based on the position of the unmanned air vehicle to the unmanned air vehicle based on the position of the unmanned vehicle Can be stored.
- 3D navigation operations required for an unmanned aerial vehicle to perform an inventory survey without inputting or manipulating a user are performed in an unmanned vehicle that assists the movement of an unmanned aerial vehicle, The efficiency of the system is increased.
- an unmanned aerial vehicle carrying out an inventory survey can receive power from an unmanned vehicle through a wired or wireless charging system, thereby overcoming the time limitation caused when an inventory survey is performed.
- FIG. 1 is a block diagram of an electronic device in a network environment, in accordance with various embodiments of the present invention.
- FIG. 2 illustrates a system in accordance with various embodiments of the present invention.
- FIG. 3 is a block diagram of an unmanned aerial vehicle according to various embodiments of the present invention.
- FIG. 4 is a block diagram of an unmanned vehicle in accordance with various embodiments of the present invention.
- FIG. 5 is a flowchart illustrating an operation method of an unmanned aerial vehicle according to various embodiments of the present invention.
- FIG. 6 is a view for explaining a method for performing an inventory survey of an unmanned aerial vehicle according to various embodiments of the present invention.
- FIG. 7 is a diagram illustrating a move command in accordance with various embodiments of the present invention.
- FIG. 8 is a flowchart illustrating an operation method of an unmanned aerial vehicle according to various embodiments of the present invention.
- FIG. 9 is a flowchart illustrating an operation method of an unmanned aerial vehicle according to various embodiments of the present invention.
- FIG. 10 is a flow chart illustrating a method of operating an unmanned vehicle according to various embodiments of the present invention.
- FIG. 11 is a flow chart illustrating a method of operating an unmanned vehicle according to various embodiments of the present invention.
- FIG. 12 is a view for explaining a method for determining the relative position of an unmanned aerial vehicle according to various embodiments of the present invention.
- FIG. 13 is a view for explaining a method for determining the relative position of an unmanned aerial vehicle according to various embodiments of the present invention.
- FIG. 14 is a flow chart illustrating a method of operating an unmanned vehicle according to various embodiments of the present invention.
- 15A-15C illustrate a method for transmitting an additional movement command to an unmanned aerial vehicle according to various embodiments of the present invention.
- FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, in accordance with various embodiments.
- an electronic device 101 in a network environment 100 communicates with an electronic device 102 via a first network 198 (e.g., near-field wireless communication) or a second network 199 (E. G., Remote wireless communication).
- a first network 198 e.g., near-field wireless communication
- a second network 199 E. G., Remote wireless communication
- ≪ / RTI > the electronic device 101 is capable of communicating with the electronic device 104 through the server 108.
- the electronic device 101 includes a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, a sensor module 176, an interface 177, a haptic module 179, a camera module 180, a power management module 188, a battery 189, a communication module 190, a subscriber identity module 196, and an antenna module 197 ).
- at least one (e.g., display 160 or camera module 180) of these components may be omitted from the electronic device 101, or other components may be added.
- some components such as, for example, a sensor module 176 (e.g., a fingerprint sensor, an iris sensor, or an illuminance sensor) embedded in a display device 160 Can be integrated.
- Processor 120 may be configured to operate at least one other component (e.g., hardware or software component) of electronic device 101 connected to processor 120 by driving software, e.g., And can perform various data processing and arithmetic operations.
- Processor 120 loads and processes commands or data received from other components (e.g., sensor module 176 or communication module 190) into volatile memory 132 and processes the resulting data into nonvolatile memory 134.
- the processor 120 may operate in conjunction with a main processor 121 (e.g., a central processing unit or an application processor) and, independently, or additionally or alternatively, Or a co-processor 123 (e.g., a graphics processing unit, an image signal processor, a sensor hub processor, or a communications processor) specific to the designated function.
- a main processor 121 e.g., a central processing unit or an application processor
- a co-processor 123 e.g., a graphics processing unit, an image signal processor, a sensor hub processor, or a communications processor
- the coprocessor 123 may be operated separately from or embedded in the main processor 121.
- the coprocessor 123 may be used in place of the main processor 121, for example, while the main processor 121 is in an inactive (e.g., sleep) state, At least one component (e.g., display 160, sensor module 176, or communications module 176) of the components of electronic device 101 (e.g., 190) associated with the function or states.
- the coprocessor 123 e.g., an image signal processor or communications processor
- the coprocessor 123 is implemented as a component of some other functionally related component (e.g., camera module 180 or communication module 190) .
- Memory 130 may store various data used by at least one component (e.g., processor 120 or sensor module 176) of electronic device 101, e.g., software (e.g., program 140) ), And input data or output data for the associated command.
- the memory 130 may include a volatile memory 132 or a non-volatile memory 134.
- the program 140 may be software stored in the memory 130 and may include, for example, an operating system 142, a middleware 144,
- the input device 150 is an apparatus for receiving a command or data to be used for a component (e.g., processor 120) of the electronic device 101 from the outside (e.g., a user) of the electronic device 101,
- a component e.g., processor 120
- a microphone, a mouse, or a keyboard may be included.
- the sound output device 155 is a device for outputting a sound signal to the outside of the electronic device 101.
- the sound output device 155 may be a speaker for general use such as a multimedia reproduction or a sound reproduction, .
- the receiver may be formed integrally or separately with the speaker.
- Display device 160 may be an apparatus for visually providing information to a user of electronic device 101 and may include, for example, a display, a hologram device, or a projector and control circuitry for controlling the projector. According to one embodiment, the display device 160 may include a touch sensor or a pressure sensor capable of measuring the intensity of the pressure on the touch.
- the audio module 170 is capable of bi-directionally converting sound and electrical signals. According to one embodiment, the audio module 170 may acquire sound through the input device 150, or may be connected to the audio output device 155, or to an external electronic device (e.g., Electronic device 102 (e.g., a speaker or headphone)).
- an external electronic device e.g., Electronic device 102 (e.g., a speaker or headphone)
- the sensor module 176 may generate an electrical signal or data value corresponding to an internal operating state (e.g., power or temperature) of the electronic device 101, or an external environmental condition.
- the sensor module 176 may be a gesture sensor, a gyro sensor, a barometric sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared sensor, Or an illuminance sensor.
- the interface 177 may support a designated protocol that may be wired or wirelessly connected to an external electronic device (e.g., the electronic device 102).
- the interface 177 may include a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
- HDMI high definition multimedia interface
- USB universal serial bus
- SD card interface Secure Digital interface
- audio interface an audio interface
- the connection terminal 178 may be a connector such as an HDMI connector, a USB connector, an SD card connector, or an audio connector that can physically connect the electronic device 101 and an external electronic device (e.g., the electronic device 102) (E.g., a headphone connector).
- an HDMI connector such as an HDMI connector, a USB connector, an SD card connector, or an audio connector that can physically connect the electronic device 101 and an external electronic device (e.g., the electronic device 102) (E.g., a headphone connector).
- the haptic module 179 may convert electrical signals into mechanical stimuli (e.g., vibrations or movements) or electrical stimuli that the user may perceive through tactile or kinesthetic sensations.
- the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
- the camera module 180 can capture a still image and a moving image.
- the camera module 180 may include one or more lenses, an image sensor, an image signal processor, or a flash.
- the power management module 188 is a module for managing the power supplied to the electronic device 101, and may be configured as at least a part of, for example, a power management integrated circuit (PMIC).
- PMIC power management integrated circuit
- the battery 189 is an apparatus for supplying power to at least one component of the electronic device 101 and may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
- the communication module 190 is responsible for establishing a wired or wireless communication channel between the electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108) Lt; / RTI > Communication module 190 may include one or more communication processors that support wired communication or wireless communication, operating independently of processor 120 (e.g., an application processor).
- the communication module 190 may include a wireless communication module 192 (e.g., a cellular communication module, a short range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (E.g., a local area network (LAN) communication module, or a power line communication module), and the corresponding communication module may be used to communicate with a first network 198 (e.g., Bluetooth, WiFi direct, Communication network) or a second network 199 (e.g., a telecommunications network such as a cellular network, the Internet, or a computer network (e.g., a LAN or WAN)).
- a wireless communication module 192 e.g., a cellular communication module, a short range wireless communication module, or a global navigation satellite system (GNSS) communication module
- GNSS global navigation satellite system
- wired communication module 194 E.g., a local area network (LAN) communication module, or a power line communication module
- the wireless communication module 192 may use the user information stored in the subscriber identification module 196 to identify and authenticate the electronic device 101 within the communication network.
- the antenna module 197 may include one or more antennas for externally transmitting or receiving signals or power.
- the communication module 190 e.g., the wireless communication module 192 may transmit signals to or receive signals from an external electronic device via an antenna suitable for the communication method.
- Some of the components are connected to each other via a communication method (e.g., bus, general purpose input / output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI) (Such as commands or data) can be exchanged between each other.
- a communication method e.g., bus, general purpose input / output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI) (Such as commands or data) can be exchanged between each other.
- the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 via the server 108 connected to the second network 199.
- Each of the electronic devices 102 and 104 may be the same or a different kind of device as the electronic device 101.
- all or a portion of the operations performed in the electronic device 101 may be performed in another or a plurality of external electronic devices.
- the electronic device 101 in the event that the electronic device 101 has to perform some function or service automatically or upon request, the electronic device 101 may be capable of executing the function or service itself, And may request the external electronic device to perform at least some functions associated therewith.
- the external electronic device receiving the request can execute the requested function or additional function and transmit the result to the electronic device 101.
- the electronic device 101 can directly or additionally process the received result to provide the requested function or service.
- cloud computing, distributed computing, or client-server computing technology may be used.
- the electronic device can be various types of devices.
- the electronic device can include, for example, at least one of a portable communication device (e.g., a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance.
- a portable communication device e.g., a smart phone
- a computer device e.g., a laptop, a desktop, a smart phone
- portable multimedia device e.g., a portable multimedia device
- portable medical device e.g., a portable medical device
- camera e.g., a camera
- a wearable device e.g., a portable medical device
- first component is "(functionally or communicatively) connected” or “connected” to another (second) component, May be connected directly to the component, or may be connected through another component (e.g., a third component).
- module includes units comprised of hardware, software, or firmware and may be used interchangeably with terms such as, for example, logic, logic blocks, components, or circuits.
- a module may be an integrally constructed component or a minimum unit or part thereof that performs one or more functions.
- the module may be configured as an application-specific integrated circuit (ASIC).
- ASIC application-specific integrated circuit
- Various embodiments of the present document may include instructions stored on a machine-readable storage medium (e.g., internal memory 136 or external memory 138) readable by a machine (e.g., a computer) Software (e.g., program 140).
- the device may include an electronic device (e.g., electronic device 101) in accordance with the disclosed embodiments as an apparatus capable of calling stored instructions from the storage medium and operating according to the called instructions.
- a processor e.g., processor 120
- the processor may perform the function corresponding to the instruction, either directly or using other components under the control of the processor.
- the instructions may include code generated or executed by the compiler or interpreter.
- a device-readable storage medium may be provided in the form of a non-transitory storage medium.
- 'non-temporary' means that the storage medium does not include a signal and is tangible, but does not distinguish whether data is stored semi-permanently or temporarily on the storage medium.
- the method according to various embodiments disclosed herein may be provided in a computer program product.
- a computer program product can be traded between a seller and a buyer as a product.
- a computer program product may be distributed in the form of a machine readable storage medium (eg, compact disc read only memory (CD-ROM)) or distributed online through an application store (eg PlayStore TM).
- CD-ROM compact disc read only memory
- PlayStore TM application store
- at least a portion of the computer program product may be temporarily stored, or temporarily created, on a storage medium such as a manufacturer's server, a server of an application store, or a memory of a relay server.
- Each of the components may be comprised of a single entity or a plurality of entities, and some of the subcomponents described above may be omitted, or other subcomponents May be further included in various embodiments.
- some components e.g., modules or programs
- Figure 2 illustrates a system 200 in accordance with various embodiments of the present invention.
- the system 200 may be a system for performing inventory surveys, but this is merely an example to aid understanding and does not limit the scope of the rights.
- the system 200 may include an unmanned aerial vehicle 210 and an unmanned vehicle 220.
- at least one of the unmanned aerial vehicle 210 and the unmanned vehicle 220 may be the electronic device 101 disclosed in FIG.
- the unmanned aerial vehicle 210 may be an electronic device capable of moving (or flying) in a horizontal or vertical direction.
- the unmanned aerial vehicle 210 may be a drone.
- the unmanned aerial vehicle 210 may recognize a horizontal or vertical direction to move in a desired direction.
- the unmanned aerial vehicle 210 may include a direction sensor (not shown), and the sensing information of the direction sensor may be used to determine the direction of the head 216 of the current unmanned air vehicle 210 Information can be obtained.
- the UAV 210 can adjust the direction in which the head 216 is oriented to move in a desired direction.
- the vertical direction may be a vertical direction.
- the vertical direction may be described as the third axial direction.
- the horizontal direction may be a direction perpendicular to the third axis direction, a direction that is a combination of a first axis direction perpendicular to the third axis direction and a third axis direction, and a second axis direction perpendicular to the first axis direction.
- the unmanned aerial vehicle 210 may include at least one rotating portion 212a, 212b, 212c, 212d for enabling movement (or flight) in a horizontal or vertical direction.
- at least one of the rotating parts 212a, 212b, 212c, 212d may include four propellers in which the two propellers operate in a diagonal direction, but this is a mere example, no.
- the unmanned aerial vehicle 210 may include a main body 214.
- Body 214 may include one or more modules (e.g., processor 310 of FIG. 3) for controlling movement or flight of unmanned aerial vehicle 210.
- the unmanned aerial vehicle 210 is placed on the unmanned vehicle 220 and can move in the same direction and speed as the unmanned vehicle 220.
- the unmanned aerial vehicle 210 is placed in a holder 225 located on the upper side of the unmanned vehicle 220, when the unmanned vehicle 210 completes the flight or before the flight starts, Can be moved.
- the holder 225 may be a supporter disposed on the outside (e.g., the upper surface) of the unmanned vehicle 220 to couple the unmanned aerial vehicle 210 to the unmanned vehicle 220.
- the holder 225 may be a docking station.
- the unmanned aerial vehicle 210 can move in a different direction and speed than the unmanned vehicle 220.
- the unmanned aerial vehicle 210 can move in a direction different from the moving direction of the unmanned vehicle 220 and can move at a speed different from the moving speed of the unmanned vehicle 220. For example, while the unmanned vehicle 220 is stationary, the unmanned aerial vehicle 210 can move (or fly) at a specified speed and direction.
- the unmanned aerial vehicle 210 may be a manned vehicle or a vehicle that is transmitted from an external device (e.g., an unmanned vehicle 220), an instruction pre-stored in a memory (e.g., memory 340 of FIG. 3) Can be moved according to a command.
- an external device e.g., an unmanned vehicle 220
- an instruction pre-stored in a memory e.g., memory 340 of FIG. 3
- the movement of the unmanned aerial vehicle 210 is performed by taking off from the unmanned vehicle 220 and landing at the unmanned vehicle 220 and moving the unmanned vehicle 220 from the first point spaced apart from the unmanned vehicle 220 to the second point spaced apart from the unmanned vehicle 220 ≪ / RTI > For example, when the unmanned aerial vehicle 210 located on the upper side of the unmanned vehicle 220 receives the start command from the unmanned vehicle 220, it can take off from the upper surface of the unmanned vehicle 220.
- the unmanned aerial vehicle 210 can perform data communication with the unmanned vehicle 220 according to a specified period or aperiodically. For example, the unmanned aerial vehicle 210 can transmit sensing information to the unmanned vehicle 220 using near-field communication. The unmanned aerial vehicle 210 can receive the movement command from the unmanned vehicle 220 using the short distance communication.
- the near field communication may be at least one of Bluetooth, beacon, WiFi direct, near field communication (NFC), or infrared data association (IrDA) communication.
- the unmanned aerial vehicle 210 can acquire sensing information.
- the unmanned aerial vehicle 210 can acquire sensing information in a predetermined period or non-periodically.
- the sensing information may include position-unrelated sensing information.
- the position-independent sensing information may mean sensing information that can be acquired successfully without using the position information of the unmanned aerial vehicle 210.
- the location-independent sensing information may be image information photographed by the camera 215 of the unmanned aerial vehicle 210.
- the position-independent sensing information may be information on proximity of an external object obtained by a proximity sensor (not shown).
- the unmanned aerial vehicle 210 can move in accordance with an instruction (e.g., a move command) determined by the unmanned vehicle 220 based on position-independent sensing information.
- the unmanned aerial vehicle 210 may transmit the acquired position-independent sensing information to the unmanned vehicle 220 after completion of the movement.
- the unmanned vehicle 220 compares the received position-independent sensing information with the information stored in the database of the unmanned vehicle 220 (for example, the memory 440 of FIG. 4) or the database of the external device (not shown) It is possible to determine the position of the air vehicle 210 and generate a movement command for the unmanned air vehicle 210.
- the unmanned vehicle 220 can transmit the generated movement command to the unmanned air vehicle 210, and the unmanned air vehicle 210 can move according to the received move command.
- the unmanned aerial vehicle 210 may perform an inventory survey using one or more readers 218.
- the unmanned aerial vehicle 210 can perform an inventory check using a barcode reader or a radio frequency identification (RFID) reader.
- the unmanned aerial vehicle 210 may perform an inventory check using at least one of a barcode reader and an RFID reader after completing movement according to a movement command received from the unmanned vehicle 220.
- RFID radio frequency identification
- the unmanned vehicle 220 may be an electronic device movable in a horizontal direction.
- the unmanned vehicle 220 may include various types of unmanned vehicles.
- the unmanned vehicle 220 may be moved (or coupled) with the unmanned aerial vehicle 210.
- a holder 225 for coupling or mounting the unmanned aerial vehicle 210 may be disposed on an upper surface of the unmanned vehicle 220.
- the unmanned aerial vehicle 210 coupled to the holder 225 can be separated from the unmanned vehicle 220 according to a movement command received from the unmanned vehicle 220 and start flying.
- the unmanned aerial vehicle 210 that has completed the flight can return to the unmanned vehicle 220 and be coupled with the holder 225 again.
- the unmanned vehicle 220 coupled with the unmanned aerial vehicle 210 (or loaded with the unmanned air vehicle 210) can move to a designated position.
- the designated location may be a location adjacent to the physical structure for loading or storing the article.
- the unmanned vehicle 220 that has completed the movement at the designated position may transmit a movement command (e.g., a takeoff command) to the unmanned air vehicle 210 in order to allow the unmanned air vehicle 210 to perform an inventory of the physical structure .
- a movement command e.g., a takeoff command
- the unmanned vehicle 220 may include a charging circuit 230 for providing power to the unmanned aerial vehicle 210 either wired or wirelessly.
- the charging circuit 230 may provide power to an external device (e.g., the unmanned aerial vehicle 210) in a magnetically resonant manner.
- the charging circuit 230 can wirelessly supply electric power to the unmanned aerial vehicle 210 located in a constant transmission range.
- the unmanned vehicle 220 may store data for the target position in advance, and may generate and transmit a move command for the unmanned aerial vehicle 210 according to the target position data.
- the target position data may be determined according to the execution area of the inventory survey.
- the target location may be a location where the unmanned vehicle 220 or the unmanned aerial vehicle 210 should be located to perform an inventory for a particular area.
- the target position data may be represented by three-dimensional coordinate data having a specific position as a reference point, and the specific position may be the current position of the unmanned vehicle 220 or the entrance of a place (for example, a warehouse) where inventory inspection is to be performed.
- a place for example, a warehouse
- the unmanned vehicle 220 performs an inventory for the physical structures A and B May store data for one or more target locations where the unmanned aerial vehicle 210 should be located.
- the unmanned vehicle 220 can determine the position of the unmanned vehicle 220 using the position-independent sensing information received from the unmanned aerial vehicle 210. For example, the unmanned vehicle 220 can determine the position of the unmanned air vehicle 210 when the position-independent sensing information is acquired using the position-independent sensing information received from the unmanned air vehicle 210. The unmanned vehicle 220 can generate a movement command for the target position (new target position or existing target position) according to the determined position of the unmanned air vehicle 210 and transmit the generated movement command to the unmanned air vehicle 210 .
- the unmanned vehicle 220 can use the position of the unmanned aerial vehicle 210 to generate a move command for the target position, and transmit the generated move command to the unmanned aerial vehicle 210.
- the unmanned aerial vehicle 210 that has completed the movement according to the movement command for the target location A may transmit the position-independent sensing information to the unmanned vehicle 220, and the unmanned vehicle 220 may transmit the position- And transmit a move command for the target position B to the unmanned aerial vehicle 210.
- the unmanned aerial vehicle 210 and the unmanned vehicle 220 can operate within a specified distance.
- the designated distance may be coverage of short range wireless communications performed between the unmanned aerial vehicle 210 and the unmanned vehicle 220.
- the specified distance may be the coverage of the wireless charging service provided through the wireless charging circuit 230 included in the unmanned vehicle 220.
- FIG. 3 is a block diagram of an unmanned aerial vehicle 210 in accordance with various embodiments of the present invention.
- the unmanned aerial vehicle 210 may include a processor 310, a sensor 320, a communication circuit 330, a memory 340, and a charging circuit 350.
- the sensor 320 may include one or more sensors for acquiring position-independent sensing information.
- the sensor 320 may include at least one of a camera sensor, an optical flow sensor, a proximity sensor, a distance sensor, and an inertial sensor.
- the position-independent sensing information may mean sensing information that can be acquired successfully without using the position information of the unmanned aerial vehicle 210.
- the communication circuit 330 may include a circuit for performing wired or wireless communication with the unmanned vehicle 220.
- the processor 310 may transmit the data acquired or generated by the unmanned aerial vehicle 210 to the manless vehicle 220 using the communication circuit 330.
- the processor 310 may use the communication circuitry 330 to transmit location-independent sensing information to the manless vehicle 220.
- the memory 340 may store data acquired or generated by the unmanned aerial vehicle 210 or data received from the unmanned aerial vehicle 220 at least temporarily under the control of the processor 310.
- the memory 340 may store position-related sensing information obtained from the unmanned aerial vehicle 210 and data related to a movement command received from the unmanned vehicle 220.
- the charging circuit 350 may be a circuit for receiving electric power from an external device (e.g., an unattended carrier 220) by wire or wirelessly.
- the charging circuit 350 may include at least one of a receiving coil, a matching circuit, a rectifying circuit, and an adjusting circuit for receiving power from an external device (e.g., an unattended carrier 220).
- the processor 310 may control the overall operation of the unmanned aerial vehicle 210.
- the processor 310 may control the sensor 320 to acquire location-independent sensing information at a specified period, or aperiodically.
- the processor 310 may control the sensor 320 to acquire position-independent sensing information when the movement is completed according to a movement command received from the manless vehicle 220.
- the processor 310 may control the communication circuitry 330 to transmit location-independent sensing information to the manless vehicle 220 at a specified period, or aperiodically.
- the processor 310 may include at least one rotation portion 212a, 212b, 212c, and 212d, or at least one rotation portion 212a, 212b, 212c, and 212d to move in accordance with a movement command received from the unmanned vehicle 220 via the communication circuit 330.
- the movement of the motor (not shown) can be controlled.
- FIG. 4 is a block diagram of an unmanned vehicle 220 in accordance with various embodiments of the present invention.
- the unmanned vehicle 220 may include a processor 410, a sensor 420, a communication circuit 430, a memory 440, and a charging circuit 450.
- the sensor 420 may acquire the sensing information in a pre-stored period or non-periodically.
- the sensor 420 may include at least one of an inertial sensor, a gyro sensor, an acceleration sensor, and a GPS sensor.
- the sensing information may include sensing information indicating the current position of the unmanned vehicle 220 (for example, GPS information).
- the sensing information may include sensing information used to determine the current position of the unmanned vehicle 220 (e.g., inertial sensor information, gyro sensor information, acceleration sensor information, etc.).
- the communication circuit 430 may include a circuit for performing wired or wireless communication with the unmanned aerial vehicle 210.
- the processor 410 may transmit data acquired or generated by the unmanned vehicle 220 to the unmanned aerial vehicle 210 using the communication circuit 430. [ For example, the processor 410 may use the communication circuit 430 to transmit a move command to the unmanned air vehicle 210 to the unmanned air vehicle 210.
- the memory 440 can store data acquired or generated at least temporarily by the unmanned vehicle 220 or data received from the unmanned aerial vehicle 210 under the control of the processor 410.
- the memory 440 may store location-related sensing information received from the unmanned aerial vehicle 210.
- the memory 440 may store one or more instructions to be executed by the processor 410, or a program that is a collection of instructions.
- the memory 440 can store a program for determining the position of the unmanned air vehicle 210 when acquiring position-independent sensing information using the position-independent sensing information received from the unmanned air vehicle 210 have.
- the memory 440 may store data for the target location.
- the target location data may be stored in a location (e.g., designated location 630 in FIG. 6) where the unmanned air vehicle 210 or the unmanned vehicle 220 should be located to perform an inventory of a particular area (e.g., physical structure A) Lt; / RTI >
- the target position data may be represented by three-dimensional coordinate data having a specific position (for example, the entrance of the warehouse) as a reference point, or may be graphically represented on the map.
- the charging circuit 450 may be a circuit for supplying electric power to an external device (e.g., the unmanned air vehicle 210) by wire or wirelessly.
- the charging circuit 450 may be a charging circuit 230.
- the charging circuit 450 may include a transmitting coil, a power generating circuit, and a matching circuit for supplying power to an external device (e.g., the unmanned aerial vehicle 210).
- the charging circuit 450 may provide power to an external device (e.g., the unmanned aerial vehicle 210) in a magnetically resonant manner.
- the charging circuit 450 may wirelessly supply power to an unmanned aerial vehicle located in a constant transmission range.
- the processor 410 may control the overall operation of the unmanned vehicle 220.
- the processor 410 may control the sensor 420 to acquire location information of the unmanned vehicle 220 at a specified period, or aperiodically.
- the processor 410 may determine the location of the unmanned aerial vehicle 210 when acquiring location-independent sensing information by using the location-independent sensing information received from the unmanned aerial vehicle 210.
- the processor 410 generates a movement command of the unmanned object 210 using the position of the unmanned object 210 and the target position data stored in the memory 440 and transmits the generated movement command to the non- (210).
- the unmanned aerial vehicle (e.g., the unmanned aerial vehicle 210 of FIG. 2) according to various embodiments of the present invention may include a wireless communication circuit (e.g., communication circuit 330 of FIG. 3), at least one sensor (E.g., processor 310 of FIG. 3) operatively coupled to the wireless communication circuitry and the at least one sensor, memory operatively coupled to the processor (e.g., memory 340 of FIG.
- a wireless communication circuit e.g., communication circuit 330 of FIG. 3
- at least one sensor E.g., processor 310 of FIG. 3
- memory operatively coupled to the processor (e.g., memory 340 of FIG.
- the memory receives the movement command based on the current position of the unmanned air vehicle from the unmanned vehicle located within a specified distance from the unmanned air vehicle using the wireless communication circuit when the processor executes the memory Acquiring position-related sensing information using the at least one sensor while the unmanned aerial vehicle moves according to the movement command, and the unmanned vehicle uses the position-independent sensing information And to transmit the position-independent sensing information to the unmanned vehicle so as to determine the position of the unmanned air vehicle.
- the wireless communication circuit is configured to perform near field wireless communication, and the designated distance may be coverage of the near field wireless communication.
- the at least one sensor includes an image sensor, and the position-independent sensing information may include at least one of a static image or a dynamic image.
- the movement command based on the current position of the unmanned air vehicle includes information on the movement direction and the movement distance, and the movement direction is configured in a predetermined coordinate system of the coordinate system, , And a velocity profile format for a specific time period.
- the movement command based on the current position of the unmanned aerial vehicle may include a command to return to the unmanned vehicle.
- the instructions may cause the processor to send information to the unattended carrier indicating that the move is complete in response to the processor determining that the move according to the move command is complete.
- the instructions cause the processor to transmit, when the move command is a return command, information indicating that the move is complete, or at the same time, send a signal requesting movement of the unmanned vehicle To the unmanned vehicle.
- a charging circuit (e.g., charging circuit 350 of FIG. 3) is further included, and the charging circuit may be configured to receive power either wired or wirelessly from the unattended carrier.
- the unattended vehicle may include a wireless communication circuit (e.g., communication circuit 430 of FIG. 4), at least one sensor (E.g., processor 420 of FIG. 4) operatively coupled to the wireless communication circuitry and the at least one sensor, memory operatively coupled to the processor (e.g., memory 440 of FIG.
- a wireless communication circuit e.g., communication circuit 430 of FIG. 4
- at least one sensor e.g., processor 420 of FIG. 4
- memory operatively coupled to the processor (e.g., memory 440 of FIG.
- the memory in execution, uses the wireless communication circuitry to receive location-independent sensing information from an unmanned aerial vehicle located within a specified distance from the unmanned vehicle and to transmit the at least one sensor Determines the position of the unmanned aerial vehicle using the position of the unmanned aerial vehicle and the position of the unmanned aerial vehicle based on the position of the unmanned aerial vehicle and the position of the unmanned aerial vehicle, A command to transfer the command to the unmanned aerial vehicle may be stored.
- the position-independent sensing information includes at least one of a static image or a dynamic image, the instructions determining an image that matches the position-independent sensing information among a plurality of images stored in the memory ,
- the position of the unmanned air vehicle can be determined using at least one of the determined image and the difference in length, size, or position of the object commonly included in the position-independent sensing information.
- the location-independent sensing information comprises at least one of a static image or a dynamic image
- the instructions determining the in-memory search area based on the location of the unmanned vehicle, , Position data matching with the position-independent sensing information is determined, and the position of the unmanned vehicle is determined based on the position data.
- FIG. 5 is a flowchart illustrating an operation method of an unmanned aerial vehicle according to various embodiments of the present invention.
- 5 may be the unmanned aerial vehicle 210 or the processor 310 of the unmanned aerial vehicle 210.
- the unmanned aerial vehicle 210 may receive a movement command from the unmanned vehicle 220 based on the current position of the unmanned aerial vehicle 210.
- operation 510 may be performed with the unmanned aerial vehicle 210 being coupled to the unmanned vehicle 220. In another embodiment, operation 510 may be performed in a state in which the unmanned aerial vehicle 210 is spaced apart from the unmanned vehicle 220 (e.g., in a flying state).
- the movement command based on the current position of the unmanned object 210 may include information about a target position to which the unmanned object 210 should move. In one embodiment, the movement command based on the current position of the unmanned object 210 includes information on the movement distance from the current position of the unmanned object 210 to the target position and the direction of the target position with respect to the current position . ≪ / RTI >
- the movement command based on the current position of the unmanned air vehicle 210 includes a current position of the unmanned air vehicle 210 as an origin, a three-dimensional coordinate system including a first axis, a second axis, Can be represented by the three-dimensional coordinate values underneath.
- the movement command based on the current position of the unmanned aerial vehicle 210 may be a three-dimensional coordinate such as (3, 4, 5).
- (3, 4, 5) is a movement command indicating movement by 3 in the first axial direction, 4 in the second axial direction, and 5 in the third axial direction based on the current position of the unmanned air vehicle 210 have.
- the unmanned aerial vehicle 210 can acquire position-independent sensing information during movement according to the movement command.
- the position-independent sensing information may mean sensing information that can be acquired successfully without using the position information of the unmanned aerial vehicle 210.
- the location-independent sensing information may be image information photographed by the camera 215 of the unmanned aerial vehicle 210.
- the unmanned aerial vehicle 210 may acquire location-independent sensing information at a specified period or non-periodically.
- the unmanned aerial vehicle 210 acquires position-related sensing information according to a designated cycle, and when the event occurs (for example, immediately before the start of movement to the target position, completion of movement to the target position, ), It is possible to acquire the position-related sensing information regardless of the designated period.
- the unmanned aerial vehicle 210 may add specific information (e.g., tags) to acquired position-independent sensing information.
- the unmanned aerial vehicle 210 may add acquisition time information to location-independent sensing information.
- the unmanned aerial vehicle 210 can add information, such as a photographed image, to the image acquired when the movement to the target position is completed, when the movement is completed.
- the unmanned aerial vehicle 210 may transmit the position-independent sensing information to the unmanned vehicle 220.
- the unmanned aerial vehicle 210 may transmit location-independent sensing information to the unmanned vehicle 220 periodically or aperiodically. For example, after the unmanned aerial vehicle 210 completes the movement, it may transmit the position-independent sensing information acquired from the start of movement to the completion of the movement at once, or may transmit the position-independent sensing information acquired every time the position- .
- the unmanned aerial vehicle 210 may transmit additional information or signals to the unmanned vehicle 220 along with location-independent sensing information. For example, when the unmanned vehicle 210 completes the movement to the target position and the target position is not the holder 225 of the unmanned vehicle 220, the unmanned vehicle 210 is moved to the unmanned vehicle 220 at the current position To send a signal to inquire whether to perform an inventory check, or to transmit a signal requesting a next target position. In another example, when the unmanned vehicle 210 completes the movement to the target position and the target position is the holder 225 of the unmanned vehicle 220, the unmanned vehicle 210 is moved to the unmanned vehicle 220, It may transmit a signal requesting movement of the carrier 220. [
- FIG. 6 is a view for explaining a method for performing an inventory survey by the unmanned aerial vehicle 210 according to various embodiments of the present invention.
- the unmanned vehicle 220 associated with the unmanned air vehicle 210a may be moved to a designated location 630 (for example, 3) based on a command stored in the memory 440 or a command input from an external Dimensional coordinates (3, 4, 0)).
- the unmanned vehicle 220 coupled with the unmanned aerial vehicle 210a may determine an area (e.g., physical structure A) to perform the current inventory survey and store the area 440 in the memory 440, according to an instruction stored in the memory 440.
- an area e.g., physical structure A
- the unmanned vehicle 220 may be moved to a designated location 630 using the sensor 420.
- the unmanned vehicle 220 that has completed the movement to the designated location 630 may transmit a move command to the unmanned air vehicle 210a.
- the move command may be a move command to take off the unmanned aerial vehicle 210a coupled to the unmanned vehicle 220.
- the movement command transmitted by the unmanned vehicle 220 to the unmanned air vehicle 210a may include information on the moving direction and the moving distance.
- the information on the moving direction and the moving distance may be information in a three-dimensional coordinate format.
- the information on the moving direction and the moving distance may be information in the form of yaw, pitch, roll, or throttle.
- the unmanned vehicle 220 may transmit a movement command indicating movement to three-dimensional coordinates (0, 0, 5) based on the current position of the unmanned air vehicle 210a.
- the unmanned aerial vehicle 210a that has received the move command can move according to a move command (210a -> 210b).
- the processor 310 of the unmanned aerial vehicle 210a may analyze the received movement command and calculate command values for one or more motors required to perform the movement command. For example, when the mobile terminal receives a movement command indicating movement to three-dimensional coordinates (0, 0, 5) based on the current position of the unmanned air vehicle 210a, And the output of all the motors included in the unmanned aerial vehicle 210a can be increased by a predetermined value.
- the unmanned aerial vehicle 210a - > 210b moving according to the movement command acquires the position-independent sensing information in a specified period or aperiodically, and transmits the acquired position-independent sensing information to the unmanned vehicle 220 have.
- the location-independent sensing information may be a static or dynamic image acquired by a camera sensor.
- the unmanned aerial vehicle may transmit moving image data, which is captured during moving, to the unmanned vehicle 220 in a streaming format.
- the unmanned aerial vehicle 210b that has completed the movement may transmit a signal to the unmanned vehicle 220 indicating that the movement has been completed.
- the unmanned aerial vehicle 210b that has completed the movement can acquire position-independent sensing information at a specified period or aperiodically, and transmit it to the unmanned vehicle 220 in the same manner as when the vehicle is moving.
- the unmanned aerial vehicle 210b may transmit location independent sensing information to the unmanned vehicle 220 along with a signal indicating that the movement has been completed.
- the unmanned vehicle 220 receiving the information indicating the completion of the movement from the unmanned air vehicle 210b compares the position-unrelated sensing information received from the unmanned air vehicle 210b with the information stored in the memory 440 Whereby the position of the unmanned flight vehicle 210b can be determined.
- the reason why the unmanned aerial vehicle 220 determines the position of the unmanned aerial vehicle 210b is that the unmanned aerial vehicle located at (3, 4, 0), for example, (3, 4, 5) when considering the actual flight error.
- the information stored in the memory 440 may be location data mapped with location independent sensing information.
- image A may be mapped to position A
- image B may be mapped to position B, depending on where a particular subject is located in the image .
- a particular subject may be a symbol that is always present in a fixed location regardless of the result of the inventory survey (i.e., whether or not the item is present).
- a particular subject may be a column or a horizontal pedestal that constitutes a physical structure.
- a particular subject may be a mark engraved on a column or a horizontal pedestal, or a mark attached to distinguish an area of a physical structure.
- the unmanned vehicle 220 transmits a signal indicating that the movement to the target position has been successfully completed, 210b.
- the unmanned aerial vehicle 210b can perform the inventory survey by recognizing the tag 620 attached to the product using the reader 218. [ The unmanned aerial vehicle 210b carrying out the inventory survey can transmit the unmanned vehicle 220 requesting the movement command to the new target position.
- the unmanned vehicle 220 transmits a signal indicating that the movement to the target position has not been completed successfully To the unmanned air vehicle 210b.
- the unmanned vehicle 220 can transmit the command to the unmanned object 210b using the difference between the determined position of the unmanned object 210b and the target position. For example, if the determined position of the unmanned aerial vehicle 210b is (3, 3, 4) and the target position is (3, 4, 5), the unmanned vehicle 220 moves , 1) to the unmanned flight vehicle 210b.
- the unmanned aerial vehicle can move a plurality of target positions sequentially (210a -> 210b -> 210c -> 210d -> 210a) according to a movement command received from the unmanned vehicle 220.
- the plurality of target positions on which the unmanned aerial vehicle moves can be flexibly changed depending on the result of the inventory survey. For example, if the unmanned vehicle 220 obtains an inventory check result that the product exists at the same height as the unmanned air vehicle 210b as a result of an inventory survey by the unmanned air vehicle 210b, 210b may be a position where the value for the third axis (vertical direction) is increased by a designated value.
- the unmanned aerial vehicle 210 can fly in a flight area 610 that is within a specified distance from the unmanned vehicle 220. If the target position to be moved by the unmanned object 210 is not within the flight area 610, the unmanned vehicle 220 can transmit a return command to the unmanned air vehicle 210d (e.g., the unmanned air vehicle 210d). The unmanned vehicle 220 is moved to the current position of the unmanned air vehicle 210d by using the current positions (e.g., 6, 9, 1) of the unmanned air vehicle 210d and the current positions (e.g., 3, 4, (-3, -5, -1) as a reference.
- the current positions e.g. 6, 9, 1
- the current positions e.g., 3, 4, (-3, -5, -1
- the unmanned vehicle 220 may move to the next designated location (not shown), based on commands stored in the memory 440 or commands input from the outside, after combining with the unmanned aerial vehicle.
- the unmanned air vehicle 210d may move (or fly) to the target position after leaving the flight area 610 without returning to the unmanned vehicle 220.
- FIG. 7 is a diagram illustrating a move command in accordance with various embodiments of the present invention.
- the unmanned air vehicle 210 receives a movement command 730 based on the current position 710 of the unmanned air vehicle 210 from an unmanned vehicle (not shown, for example, the unmanned vehicle 220) .
- the movement command 730 based on the current position 710 of the unmanned air vehicle 210 may include information on the target position 720 to which the unmanned air vehicle 210 should move.
- Information about the target position 720 to which the unmanned flying vehicle 210 should move may include information on a moving direction and a moving distance. Although not shown, information on the moving direction and the moving distance may be represented by one three-dimensional coordinate (e.g., 0, 0, 5).
- the unmanned aerial vehicle 210 may receive the velocity profile 740 information from the unmanned vehicle 220 at a specific time interval.
- the unmanned aerial vehicle 210 may further receive information on the moving direction from the unmanned vehicle 220.
- the UAV 210 may perform movement to the target position according to the information on the direction of movement and the speed profile 740 information.
- FIG. 8 is a flowchart illustrating an operation method of an unmanned aerial vehicle according to various embodiments of the present invention.
- the flowchart shown in FIG. 8 may be a detailed flowchart of the 530 operation disclosed in FIG.
- FIG. 8 may be the unmanned aerial vehicle 210 or the processor 310 of the unmanned air vehicle 210.
- the unmanned air vehicle 210 can confirm whether or not the sensing information transmission period has arrived.
- the sensing information transmission period may be a period for transmitting position-independent sensing information obtained in operation 520 to the unmanned vehicle 220.
- the operation 810 can be repeatedly performed until the sensing information transmission period arrives.
- the unmanned aerial vehicle 210 can confirm whether the movement according to the movement command is completed in the 820 operation. For example, the unmanned aerial vehicle 210 can confirm that the movement to the target position is completed.
- the sensing information and the movement progress information can be transmitted in operation 840.
- the movement progress information may include information indicating that the unmanned object 210 at the time of acquiring the sensing information has not yet completed the movement according to the movement command.
- the sensing information and the movement completion information can be transmitted to the manless vehicle 220 at operation 830.
- the movement completion information may be information indicating that movement according to the movement command is completed.
- the unmanned aerial vehicle 210 may transmit the sensing information and the movement completion information together with a signal requesting confirmation to the unmanned vehicle 220 that movement to the intended position has been completed.
- the unmanned aerial vehicle 210 when the unmanned aerial vehicle 210 transmits a signal requesting an additional movement command to another target position or returns to the holder 225 of the unmanned vehicle 220, the movement of the unmanned vehicle 220 It may transmit the requesting signal.
- FIG. 9 is a flowchart illustrating an operation method of an unmanned aerial vehicle according to various embodiments of the present invention.
- the flowchart shown in FIG. 9 may be a detailed flowchart of the 830 operation disclosed in FIG.
- 9 may be the unmanned aerial vehicle 210 or the processor 310 of the unmanned aerial vehicle 210.
- the unmanned aerial vehicle 210 can confirm whether or not the movement command is a return command to the unmanned vehicle 220. For example, the unmanned aerial vehicle 210 can confirm whether or not the movement has been completed according to a move command requesting return to the unmanned vehicle 220.
- the unmanned aerial vehicle 210 can transmit the sensing information and the signal requesting the movement of the unmanned vehicle 220 to the unmanned vehicle 220.
- the unmanned object 210 returns to the unmanned vehicle 220 and then transmits a signal requesting movement of the unmanned vehicle 220 to the unmanned vehicle 220 after the unmanned object 210 is coupled with the holder 225 of the unmanned vehicle 220.
- the unmanned aerial vehicle 210 can transmit a signal requesting an additional movement command at 930 operation, either at the time of transmitting the sensing information or before or after transmitting the sensing information have.
- FIG. 10 is a flow chart illustrating a method of operating an unmanned vehicle according to various embodiments of the present invention.
- the 10 may be the unmanned vehicle 220 or the processor 410 of the unmanned vehicle 220.
- the unmanned vehicle 220 can receive location-independent sensing information from the unmanned aerial vehicle 210.
- the position-independent sensing information may mean sensing information that can be acquired successfully without using the position information of the unmanned aerial vehicle 210.
- the position-independent sensing information may be image information obtained by the camera 215 of the unmanned air vehicle 210 or the image sensor.
- the unmanned vehicle 220 can determine the position of the unmanned aerial vehicle 210 based on the location-independent sensing information and the location of the unmanned vehicle 220.
- the location of the unmanned vehicle 220 may be a planar position.
- the unmanned vehicle 220 compares the position-independent sensing information with a plurality of images stored in the memory 440, (210).
- the unmanned vehicle 220 can determine the position of the unmanned vehicle 220 using the plane position of the unmanned vehicle 220 and the relative position of the unmanned vehicle.
- the unmanned vehicle 220 may transmit a move command for the target location based on the position of the unmanned aerial vehicle 210.
- the unmanned vehicle 220 determines the position of the unmanned air vehicle 210, , It is possible to transmit an additional movement command to the unmanned air vehicle 210 with respect to the target location A. [ In this case, since additional position adjustment is required, it is possible to further transmit a signal indicating that the inventory check is not to be performed.
- the unmanned vehicle 220 determines the position of the unmanned air vehicle 210, Or a signal indicating that an inventory survey is to be performed at the current location, based on the location-independent sensing information, and receive the result of the inventory survey from the unmanned aerial vehicle 210.
- the unmanned vehicle 220 can transmit a movement command to the unmanned object 210 according to a result of the inventory survey received, When a stock inspection result indicating that the product is present is received, a movement instruction for the target position B different from the target position A is received, Can be transmitted to the unmanned aerial vehicle (210).
- FIG. 11 is a flow chart illustrating a method of operating an unmanned vehicle according to various embodiments of the present invention.
- the flowchart shown in FIG. 11 may be a detailed flowchart of the 1020 operation disclosed in FIG.
- 11 may be the unmanned vehicle 220 or the processor 410 of the unmanned vehicle 220.
- the unmanned vehicle 220 can acquire the plane position of the unmanned vehicle 220.
- the unmanned vehicle 220 can acquire the plane position of the unmanned vehicle 220 using the sensor 420.
- the unmanned vehicle 220 can acquire the plane position of the unmanned vehicle 220 using a GPS sensor or a sensor of at least one of a gyro sensor, an acceleration sensor, and an inertial sensor.
- the plane location of the unmanned vehicle 220 may be represented by latitude and longitude, or may be expressed in three-dimensional coordinates relative to a specific fixed location (e.g., the entrance of a warehouse).
- the plane position of the unmanned vehicle 220 can be expressed in three-dimensional coordinates, but the value of the third axial direction (vertical direction), which means elevation, may be a value of zero.
- the unmanned vehicle 220 can determine the relative position of the unmanned aerial vehicle 210 based on the unmanned vehicle 220 using the sensing information acquired from the unmanned aerial vehicle 210. In one embodiment, the unmanned vehicle 220 compares an image acquired from the unmanned aerial vehicle 210 with a plurality of images stored in the memory 440, thereby acquiring an image of the unmanned air vehicle 210 based on the unmanned vehicle 220 The relative position can be determined. For example, the unmanned vehicle 220 compares an image acquired from the unmanned air vehicle 210 with a plurality of images stored in the memory 440, 3 in the first axial direction, 4 in the second axial direction, and 5 in the third axial direction.
- the unmanned vehicle 220 can determine the position of the unmanned air vehicle 210 using the relative position of the unmanned air vehicle 210 and the plane position of the unmanned vehicle 220. For example, when the plane position of the unmanned vehicle 220 is (2, 3, 0) and the relative position of the unmanned air vehicle 210 is (3, 4, 5) relative to the unmanned vehicle 220, The carrier 220 can determine the position of the unmanned air vehicle 210 as (5, 7, 5).
- FIG. 12 is a view for explaining a method for determining the relative position of an unmanned aerial vehicle according to various embodiments of the present invention.
- the unmanned aerial vehicle 210e, 210f can acquire location-independent sensing information.
- the position-independent sensing information may be image information photographed by the camera 215 of the unmanned aerial vehicle.
- FIG. 12 shows an example in which the unmanned air vehicles 210e and 210f acquire position-related sensing information in two cases.
- the unmanned object 210e may capture an image 1220 for an external object 1212
- the unmanned object 210f may capture an image 1230 for an external object 1214.
- the horizontal positions of the outer objects 1212 and 1214 are equal to each other, and the vertical positions may be different from each other.
- the outer object 1214 may be positioned higher than the outer object 1212.
- the external objects 1212 and 1214 may be symbols or markers of a particular shape attached to a vertical structure 1210 (e.g., a support for a horizontal shelf) disposed in a space (e.g., a warehouse) (mark).
- the unmanned aerial vehicle 210e may be placed on the holder 225 of the unmanned vehicle 220, and the unmanned air vehicle 210f may be in a flying state away from the unmanned vehicle 220.
- the unmanned object 210f may have the same horizontal position as the unmanned air vehicle 210e and may have different vertical positions.
- the unmanned vehicle 220 can receive location-independent sensing information from the unmanned aerial vehicles 210e and 210f.
- the unmanned vehicle 220 can determine the relative position of the unmanned aerial vehicle based on the received position-independent sensing information.
- the unmanned vehicle 220 may include an external object 1212 corresponding to the object 1225 included in the image 1220 captured by the unmanned air vehicle 210e combined with the unmanned vehicle 220, Based on the distance 1240 between the unmanned object 210f and the external object 1214 corresponding to the object 1235 included in the image 1230 captured by the unmanned flying object 210f in the flying state, The distance 1250 between the flying objects 210e can be determined.
- the unmanned vehicle 220 can determine the relative position of the unmanned vehicle 210f with respect to the unmanned vehicle 220 based on the distance 1250 between the unmanned vehicle 210f and the unmanned vehicle 210e.
- the unmanned vehicle 220 may determine the relative position of the unmanned air vehicle 210f in consideration of the distance between the unmanned vehicle 220 and the unmanned air vehicle 210e coupled with the unmanned vehicle 220.
- FIG. 13 is a view for explaining a method for determining the relative position of an unmanned aerial vehicle according to various embodiments of the present invention.
- FIG. 13 shows an example in which the unmanned aerial vehicles 210g and 210h acquire position-independent sensing information in two cases.
- FIG. 13A illustrates a case where the unmanned object 210h photographs an image 1330 of an external object 1314
- FIG. 13B illustrates a case where the unmanned object 210g photographs an image 1320 of an external object 1314 .
- the unmanned aerial vehicles 210g and 210h can take images of the same external object 1314.
- the unmanned object 210g may be further away from the outer object 1314 than the unmanned object 210h.
- the unmanned vehicle 220 includes an image 1320 for an external object 1314 captured by the unmanned object 210g, an image 1320 for an external object 1314 captured by the unmanned object 210h, ). ≪ / RTI > For example, the unmanned vehicle 220 may determine the relative position of the unmanned air vehicle 210g based on the objects 1325 and 1335 for the same external object 1314 contained in the images 1330 and 1320 . The unmanned vehicle body 220 may compare the size or the length of the subject 1335 included in the image 1320 with the size or the length of the subject 1325 included in the image 1330 to determine the size of the unmanned air vehicle 210g The relative position can be determined.
- the unmanned vehicle can determine the distance (1340) between the unmanned body 210h and the unmanned body 210g. For example, the unmanned vehicle 220 can determine that the unmanned object 210g is located at a predetermined distance 1340 in the direction opposite to the external object 1314, rather than the unmanned object 210h.
- FIG. 14 is a flow chart illustrating a method of operating an unmanned vehicle according to various embodiments of the present invention.
- the flowchart shown in FIG. 14 may be a detailed flowchart of the 1020 operation disclosed in FIG.
- the 14 may be the unmanned vehicle 220 or the processor 410 of the unmanned vehicle 220.
- the unmanned vehicle 220 can acquire a planar position of the unmanned vehicle 220.
- the plane position of the unmanned vehicle 220 may include a value for the first axis and a value for the second axis.
- the unmanned vehicle 220 can acquire the plane position of the unmanned vehicle 220 using the sensor 320.
- the unmanned vehicle 220 may obtain three-dimensional coordinates (3.4, 0) based on a specified location (e.g., the entrance of the warehouse).
- the unmanned vehicle 220 can use the plane position of the unmanned vehicle 220 to determine the search area.
- the unmanned vehicle 220 can determine the search area of the database stored in the memory 440 or an external device using the plane position of the unmanned vehicle 220.
- Position data may be mapped and stored in the memory 440 of the unmanned vehicle 220 or in a database of an external device.
- the unmanned vehicle 220 can search only a part of the position data without searching the entire area of the position data stored in the memory 440 or the database using the position related information received in operation 1010.
- the unmanned aerial vehicle 210 since the unmanned aerial vehicle 210 moves or flies within a specified distance from the unmanned vehicle 220, the unmanned vehicle 220 can transmit position data within a predetermined distance from the current position of the unmanned vehicle 220 Can be searched.
- the unmanned vehicle 220 may determine location data that matches the sensing information within the search area. For example, if the position-independent sensing information is an image photographed by the unmanned object 210, the unmanned vehicle 220 may select an image matching the photographed image among the plurality of images included in the search area determined in operation 1420 Can be determined. The unmanned vehicle 220 can determine an image having a degree of similarity higher than a specified value from the photographed image among the plurality of images. The unmanned vehicle 220 can determine the most similar image among the one or more images having similarity to the photographed image equal to or greater than a specified value. The unmanned vehicle 220 can determine the position data mapped to the determined image as the position data matched with the photographed image.
- the unmanned vehicle 220 can determine the position of the unmanned aerial vehicle 210.
- the unmanned vehicle 220 can determine the position of the unmanned air vehicle 210 using the position data determined in operation 1430.
- the image determined in the search area and the photographed image may include a subject for the same external object.
- the unmanned vehicle 220 can determine the position of the unmanned air vehicle 210 by using the positional difference, the length, and the size difference in the image of the same external object.
- the position difference value is converted into the actual distance value, and the converted value is applied to the position data mapped to the determined image
- the position of the unmanned air vehicle 210 can be determined.
- the position data mapped to the image determined in the search area is stored in the unmanned vehicle As shown in FIG.
- 15A-15C illustrate a method for transmitting an additional movement command to an unmanned aerial vehicle according to various embodiments of the present invention.
- 15A to 15C are views for explaining a method for adjusting the position of the unmanned aerial vehicle 210 by the unmanned vehicle 220 receiving the information that the movement to the target position is completed from the unmanned air vehicle 210 to be.
- the target location may be a location associated with a physical structure 1550 (e.g., a rack) for loading or storing an article.
- the physical structure 1550 may include a horizontal structure 1510 and a vertical structure 1512.
- the height of the target location may be a height plus the value specified for the height of the horizontal structure 1510 that constitutes the physical structure 1550.
- the target horizontal position may be a position away from the physical structure 1550 by a designated length in a specified direction.
- one or more symbols 1532, 1534, 1536 may be placed on the exterior of the horizontal structure 1510 that constitutes the physical structure 1550.
- the one or more symbols 1532, 1534, 1536 may be symbols for identifying the loading area of the horizontal structure, and may always be present in a fixed position, regardless of the result of the inventory survey have.
- articles 1520-1524 may be loaded in the loading area corresponding to symbol 1532
- articles 1526,1528 may be loaded in the loading area corresponding to symbol 1534
- the article 1530 can be loaded in the loading area corresponding to the article 1530.
- FIG. 15B is a diagram showing location-independent sensing information obtained by the unmanned aerial vehicle 210 after the unmanned aerial vehicle 210 completes the movement according to the movement command.
- the location-independent sensing information may be an image 1540 photographed by the camera 215 of the unmanned aerial vehicle 210.
- the unmanned aerial vehicle 210 can transmit a signal indicating that the movement according to the movement command has been completed to the manless vehicle 220 together with the captured image 1540.
- the unmanned vehicle 220 receiving the signal indicating that the movement has been completed with the image 1540 taken from the unmanned air vehicle 210 can determine the position of the unmanned air vehicle 210.
- the unmanned vehicle 220 may compare the photographed image 1540 with a plurality of images stored in the memory 440, and determine the location of the unmanned air vehicle 210 using the comparison results.
- the manless vehicle 220 can determine an image having the highest degree of similarity to the photographed image 1540 among the plurality of images stored in the memory 440.
- the captured image 1540 and the image determined in memory 440 may include a subject for the same symbol (e.g., 1532).
- the unmanned vehicle 220 can determine the position of the unmanned aerial vehicle 210 using the positional difference in the image of the subject with respect to the same symbol. For example, when the subject of the symbol 1532 in the photographed image 1540 is located at the position (6, 7) in the two-dimensional coordinate system having the lower left vertex of the photographed image 1540 as the reference point, If the subject of the in-image symbol 1532 determined in step 440 is located at (8, 10) in the two-dimensional coordinate system having the lower left vertex of the image determined in the memory 440 as the reference point, The position of the unmanned aerial vehicle 210 can be determined using the difference (3) between the coordinates (2) and the y-axis coordinate values.
- the unmanned vehicle 220 converts the difference (3) between the difference (2) of the x-axis coordinate values and the y-axis coordinate value into an actual distance value and outputs the converted value to the position data mapped to the image determined in the memory 440
- the position of the unmanned aerial vehicle 210 can be determined.
- the unmanned vehicle 220 can transmit an additional movement command for the target position to the unmanned air vehicle 210 .
- the position of the unmanned aerial vehicle 210 determined using the captured image 1540 is (3, 4, 4) and the target position is (3, 4, 5) (0, 0, 1) to the unmanned aerial vehicle 210.
- tags for inventorying articles 1512 to 1530 in the photographed image 1540, even if the position of the unmanned air vehicle 210 does not differ by more than a specified value from the target position , 1542 are not detected, the unmanned vehicle 220 may transmit an additional movement command for the target location to the unmanned aerial vehicle 210.
- the unmanned vehicle 220 may transmit an additional movement command for the target location to the unmanned aerial vehicle 210.
- the position of the unmanned air vehicle 210 determined using the photographed image 1540 is (3, 4, 3.7)
- the target position is (3, 4, 5)
- a tag e.g., 1538, 1540, 1542
- the unmanned vehicle 220 is moved to a position where the difference between the position of the unmanned object 210 and the target position is within a specified value but the tag is not detected in the captured image 1540, 0, 0, 0.3)) to the unmanned aerial vehicle 210.
- FIG. 15C is a diagram illustrating location-independent sensing information obtained by the unmanned aerial vehicle after the unmanned aerial vehicle 210 completes the movement according to the additional movement command.
- the location-independent sensing information obtained by the unmanned aerial vehicle 210 after completing the movement according to the additional movement command includes one or more tags (e.g., 1538, 1540, 1542) .
- the unmanned vehicle 220 may send an instruction to the unmanned aerial vehicle 210 indicating that there is no further move command for the target location and to perform an inventory at the current location.
- the unmanned aerial vehicle 210 receiving the command to perform the inventory survey at the current location can recognize the inventory of one or more articles by recognizing the one or more tags 1538, 1540, 1542 using the reader 218 have.
- the method of operation of an unmanned aerial vehicle in accordance with various embodiments of the present invention may be implemented from an unmanned vehicle (e.g., the unmanned vehicle 220 of FIG. 2) located within a specified distance from the unmanned aerial vehicle, An operation of receiving a movement command based on the current position of the unmanned air vehicle, and an operation of using at least one sensor (e.g., a sensor 320) included in the unmanned air vehicle during movement of the unmanned air vehicle according to the movement command Acquiring position-independent sensing information, and transmitting the position-independent sensing information to the unmanned vehicle so that the unmanned vehicle determines the position of the unmanned air vehicle using the position-independent sensing information .
- an unmanned vehicle e.g., the unmanned vehicle 220 of FIG. 2
- An operation of receiving a movement command based on the current position of the unmanned air vehicle and an operation of using at least one sensor (e.g., a sensor 320) included in the unmanned air vehicle during movement of the unmanned air vehicle
- the specified distance may be the coverage of the near field wireless communication performed by the unmanned aerial vehicle.
- the location-independent sensing information may include at least one of a static image or a dynamic image.
- the movement command based on the current position of the unmanned air vehicle includes information on the movement direction and the movement distance
- the movement direction is configured in a predetermined coordinate system coordinate format
- the distance can be configured in the form of a velocity profile for a specific time period.
- the movement command based on the current position of the unmanned aerial vehicle may include a command to return to the unmanned vehicle.
- the operation in response to the determination that the movement according to the move command is completed, may further include transmitting information indicating that the move is completed to the unmanned vehicle.
- the movement command is a return command
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Mechanical Engineering (AREA)
- Combustion & Propulsion (AREA)
- Chemical & Material Sciences (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
- Selective Calling Equipment (AREA)
Abstract
본 발명의 다양한 실시 예들은, 무인 비행체(UAV, unmanned aerial vehicle) 및 그의 동작 방법, 그리고 상기 무인 비행체의 이동을 제어하기 위한 무인 운반체(AGV, automated guided vehicle)에 관한 것이다. 본 발명의 다양한 실시 예에 따른 무인 비행체는, 무선 통신 회로, 적어도 하나의 센서, 상기 무선 통신 회로와 상기 적어도 하나의 센서에 작동적으로 연결된 프로세서, 상기 프로세서와 작동적으로 연결된 메모리를 포함하고, 상기 메모리는 실행 시에, 상기 프로세서가, 상기 무선 통신 회로를 이용하여 상기 무인 비행체로부터 지정된 거리 이내 위치한 무인 운반체로부터 상기 무인 비행체의 현재 위치를 기준으로 하는 이동 명령을 수신하고, 상기 이동 명령에 따라 상기 무인 비행체가 이동하는 도중, 상기 적어도 하나의 센서를 이용하여 위치 무관 센싱 정보를 획득하고, 상기 무인 운반체가 상기 위치 무관 센싱 정보를 이용하여 상기 무인 비행체의 위치를 결정하도록, 상기 위치 무관 센싱 정보를 상기 무인 운반체에 전송하도록 하는 명령어들을 저장할 수 있다.
Description
본 발명의 다양한 실시 예들은, 무인 비행체(UAV, unmanned aerial vehicle) 및 그의 동작 방법, 그리고 상기 무인 비행체의 이동을 제어하기 위한 무인 운반체(AGV, automated guided vehicle)에 관한 것이다.
무선 통신이 대중화됨에 따라, 무인 비행체(UAV, unmanned aerial vehicle)의 보급률(distribution rate)이 증가하고 있다. 무인 비행체는 사용자와 이격되어 동작하기 때문에, 운송, 탐사, 물류, 재고조사 등 다양한 분야에서 활용되고 있다. 재고 조사 분야에서는, 재고 파악을 위한 리더기를 탑재한 무인 비행체가 사람의 조종을 받아 재고 조사를 수행하는 방법, 또는 위치 인식 연산을 위한 모듈(예: 싱글 보드 컴퓨터(SBC, single board computer))을 탑재한 무인 비행체가 사람의 조종 없이 재고 조사를 수행하는 방법 등이 활용되고 있다.
사람이 무인 비행체를 조종함으로써 재고 조사를 수행하는 방법은 사람의 개입이 필수적으로 요구되며, 재고 조사의 자동화가 불가하다. 위치 인식 연산을 위한 모듈을 탑재한 무인 비행체가 사람의 조종 없이 재고 조사를 수행하는 방법은, 무인 비행체가 자기 위치를 결정하기 위한 센서 및 결정된 자기 위치에 따라 자율적으로 비행을 수행하기 위한 센서 등을 반드시 구비해야 하기 때문에, 전력 소모가 심하고 고사양의 프로세서가 요구된다.
본 발명의 다양한 실시 예들은, 사람의 개입 (혹은 조종) 없이, 상대적으로 낮은 사양의 무인 비행체로 재고 조사를 수행하기 위한 장치 및 방법을 제공함에 있다.
본 발명이 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명의 다양한 실시 예에 따른 무인 비행체는, 무선 통신 회로, 적어도 하나의 센서, 상기 무선 통신 회로와 상기 적어도 하나의 센서에 작동적으로 연결된 프로세서, 상기 프로세서와 작동적으로 연결된 메모리를 포함하고, 상기 메모리는 실행 시에, 상기 프로세서가, 상기 무선 통신 회로를 이용하여 상기 무인 비행체로부터 지정된 거리 이내 위치한 무인 운반체로부터 상기 무인 비행체의 현재 위치를 기준으로 하는 이동 명령을 수신하고, 상기 이동 명령에 따라 상기 무인 비행체가 이동하는 도중, 상기 적어도 하나의 센서를 이용하여 위치 무관 센싱 정보를 획득하고, 상기 무인 운반체가 상기 위치 무관 센싱 정보를 이용하여 상기 무인 비행체의 위치를 결정하도록, 상기 위치 무관 센싱 정보를 상기 무인 운반체에 전송하도록 하는 명령어들을 저장할 수 있다.
본 발명의 다양한 실시 예에 따른 무인 운반체는, 무선 통신 회로, 적어도 하나의 센서, 상기 무선 통신 회로와 상기 적어도 하나의 센서에 작동적으로 연결된 프로세서, 상기 프로세서와 작동적으로 연결된 메모리를 포함하며, 상기 메모리는, 실행 시에, 상기 프로세서가 상기 무선 통신 회로를 이용하여, 상기 무인 운반체로부터 지정된 거리 이내에 위치한 무인 비행체로부터, 위치 무관 센싱 정보를 수신하고, 상기 적어도 하나의 센서를 이용하여 획득한 상기 무인 운반체의 위치 및 상기 위치 무관 센싱 정보를 이용하여, 상기 무인 비행체의 위치를 결정하고, 상기 무인 운반체의 위치에 기반하여, 상기 무인 비행체의 위치를 기준으로 하는 이동 명령을 상기 무인 비행체에 전송하도록 하는 명령어들을 저장할 수 있다.
본 발명의 다양한 실시 예들에 따르면, 무인 비행체가 사용자의 입력 혹은 조종 없이 재고 조사를 수행하기 위하여 필요한 3D 네비게이션 동작이, 무인 비행체가 아닌, 무인 비행체의 이동을 돕는 무인 운반체에서 수행되게 함으로써, 재고 조사의 효율성이 증대된다.
본 발명의 다양한 실시 예들에 따르면, 재고 조사를 수행하는 무인 비행체가, 유선 혹은 무선 충전 방식을 통하여 무인 운반체로부터 전력을 수신함으로써, 재고 조사를 수행할 때 야기되는 시간적 제약을 극복할 수 있다.
도 1은 본 발명의 다양한 실시 예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 본 발명의 다양한 실시 예들에 따른 시스템을 도시한다.
도 3은 본 발명의 다양한 실시 예들에 따른 무인 비행체의 블록도이다.
도 4는 본 발명의 다양한 실시 예들에 따른 무인 운반체의 블록도이다.
도 5는 본 발명의 다양한 실시 예들에 따른 무인 비행체의 동작 방법을 도시한 순서도이다.
도 6은 본 발명의 다양한 실시 예들에 따른 무인 비행체가 재고 조사를 수행하는 방법을 설명하기 위한 도면이다.
도 7은 본 발명의 다양한 실시 예들에 따른 이동 명령을 예시한 도면이다.
도 8은 본 발명의 다양한 실시 예들에 따른 무인 비행체의 동작 방법을 도시한 순서도이다.
도 9는 본 발명의 다양한 실시 예들에 따른 무인 비행체의 동작 방법을 도시한 순서도이다.
도 10는 본 발명의 다양한 실시 예들에 따른 무인 운반체의 동작 방법을 도시한 순서도이다.
도 11은 본 발명의 다양한 실시 예들에 따른 무인 운반체의 동작 방법을 도시한 순서도이다.
도 12는 본 발명의 다양한 실시 예들에 따른 무인 운반체가 무인 비행체의 상대적 위치를 결정하는 방법을 설명하기 위한 도면이다.
도 13은 본 발명의 다양한 실시 예들에 따른 무인 운반체가 무인 비행체의 상대적 위치를 결정하는 방법을 설명하기 위한 도면이다.
도 14는 본 발명의 다양한 실시 예들에 따른 무인 운반체의 동작 방법을 도시한 순서도이다.
도 15a - 15c는 본 발명의 다양한 실시 예들에 따라 무인 운반체가 무인 비행체에 추가 이동 명령을 전송하는 방법을 설명하기 위한 도면이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 및 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 예를 들면, 표시 장치(160)(예: 디스플레이)에 임베디드된 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)의 경우와 같이, 일부의 구성요소들이 통합되어 구현될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 구동하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 운영되고, 추가적으로 또는 대체적으로, 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화된 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 여기서, 보조 프로세서(123)는 메인 프로세서(121)와 별개로 또는 임베디드되어 운영될 수 있다.
이런 경우, 보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 수행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부 구성 요소로서 구현될 수 있다. 메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 저장되는 소프트웨어로서, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신하기 위한 장치로서, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력하기 위한 장치로서, 예를 들면, 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용되는 스피커와 전화 수신 전용으로 사용되는 리시버를 포함할 수 있다. 일실시예에 따르면, 리시버는 스피커와 일체 또는 별도로 형성될 수 있다.
표시 장치(160)는 전자 장치(101)의 사용자에게 정보를 시각적으로 제공하기 위한 장치로서, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150) 를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 유선 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 외부 전자 장치(예: 전자 장치(102))와 유선 또는 무선으로 연결할 수 있는 지정된 프로토콜을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는 HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102))를 물리적으로 연결시킬 수 있는 커넥터, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈, 이미지 센서, 이미지 시그널 프로세서, 또는 플래시를 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되는, 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함하고, 그 중 해당하는 통신 모듈을 이용하여 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 상술한 여러 종류의 통신 모듈(190)은 하나의 칩으로 구현되거나 또는 각각 별도의 칩으로 구현될 수 있다.
일실시예에 따르면, 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 사용자 정보를 이용하여 통신 네트워크 내에서 전자 장치(101)를 구별 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부로 송신하거나 외부로부터 수신하기 위한 하나 이상의 안테나들을 포함할 수 있다. 일시예에 따르면, 통신 모듈(190)(예: 무선 통신 모듈(192))은 통신 방식에 적합한 안테나를 통하여 신호를 외부 전자 장치로 송신하거나, 외부 전자 장치로부터 수신할 수 있다.
상기 구성요소들 중 일부 구성요소들은 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input/output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되어 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 외부 전자 장치에서 실행될 수 있다. 일실시예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 외부 전자 장치에게 요청할 수 있다. 상기 요청을 수신한 외부 전자 장치는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 명령어를 포함하는 소프트웨어(예: 프로그램(140))로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시예들에 따른 전자 장치(예: 전자 장치(101))를 포함할 수 있다. 상기 명령이 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
일시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
도 2는 본 발명의 다양한 실시 예들에 따른 시스템(200)을 도시한다. 일 실시 예에서, 시스템(200)은 재고 조사를 수행하기 위한 시스템일 수 있으나, 이는 이해를 돕기 위한 예시일 뿐이며, 권리 범위를 한정하는 것은 아니다.
일 실시 예에서, 시스템(200)은 무인 비행체(210)와 무인 운반체(220)를 포함할 수 있다. 일 실시 예에서, 무인 비행체(210)와 무인 운반체(220) 중 적어도 하나는 도 1에 개시된 전자 장치(101)일 수 있다.
일 실시 예에서, 무인 비행체(210)는 수평, 혹은 수직 방향으로 이동 (혹은 비행)이 가능한 전자 장치일 수 있다. 예를 들어, 무인 비행체(210)는 드론(drone)일 수 있다.
일 실시 예에서, 무인 비행체(210)는 원하는 방향으로 이동하기 위하여, 수평 혹은 수직 방향을 인식할 수 있다. 예를 들어, 무인 비행체(210)는 방향 센서(미도시)를 포함할 수 있으며, 방향 센서의 센싱 정보를 이용하여, 현재 무인 비행체(210)의 헤드(216)가 어떤 방향을 향하고 있는지에 대한 정보를 획득할 수 있다. 일 실시 예에서, 무인 비행체(210)는 원하는 방향으로 이동하기 위하여, 헤드(216)가 향하는 방향을 조절할 수 있다.
일 실시 예에서 수직 방향은 연직 방향일 수 있다. 설명의 편의를 위하여 수직 방향은 제3 축 방향으로 기재될 수 있다. 수평 방향은 제3 축 방향과 수직인 방향으로써, 제3 축 방향과 수직인 제1 축 방향 및 제3 축, 제1 축 방향과 수직인 제2 축 방향의 조합으로 구현되는 방향일 수 있다.
일 실시 예에서, 무인 비행체(210)는 수평, 혹은 수직 방향으로 이동 (혹은 비행)을 가능하게 하기 위한 적어도 하나의 회전부(212a, 212b, 212c, 212d)를 포함할 수 있다. 예를 들어, 적어도 하나의 회전부(212a, 212b, 212c, 212d)는 대각선 방향으로 2개의 프로펠러가 서로 짝을 지어 동작하는 4개의 프로펠러들을 포함할 수 있으나, 이는 단순한 예이며 권리범위를 제한하는 것은 아니다.
일 실시 예에서, 무인 비행체(210)는 몸체(main body, 214)를 포함할 수 있다. 몸체(214)는 무인 비행체(210)의 이동 혹은 비행을 제어하기 위한 하나 이상의 모듈(예: 도 3의 프로세서(310))을 포함할 수 있다.
일 실시 예에서, 무인 비행체(210)는 무인 운반체(220)에 놓여져, 무인 운반체(220)와 동일한 방향과 속도로 이동할 수 있다. 예를 들어, 무인 비행체(210)는 비행을 완료한 경우, 혹은 비행을 시작하기 전, 무인 운반체(220)의 상면에 위치한 홀더(225)에 놓여져, 무인 운반체(220)와 동일한 방향과 속도로 이동할 수 있다. 일 실시 예에서, 홀더(225)는 무인 비행체(210)를 무인 운반체(220)와 결합하기 위하여 무인 운반체(220)의 외부(예: 상면)에 배치된 지지체(supporter)일 수 있다. 예를 들어, 홀더(225)는 도킹 스테이션(dockings station)일 수 있다.
다른 실시 예에서, 무인 비행체(210)는 무인 운반체(220)와 다른 방향과 속도로 이동할 수 있다. 무인 비행체(210)는 무인 운반체(220)의 이동 방향과 다른 이동 방향으로 이동할 수 있고, 무인 운반체(220)의 이동 속도와 다른 속도로 이동할 수 있다. 예를 들어, 무인 운반체(220)가 정지해있는 동안, 무인 비행체(210)는 지정된 속도와 방향으로 이동 (혹은 비행) 할 수 있다.
일 실시 예에서, 무인 비행체(210)는 사람의 조종, 혹은 메모리(예: 도 3의 메모리(340))에 미리 저장된 명령어(instruction), 외부 장치(예: 무인 운반체(220))로부터 전송된 명령(command)에 따라 이동할 수 있다. 무인 비행체(210)의 이동은, 무인 운반체(220)로부터 이륙, 무인 운반체(220)에 착륙, 무인 운반체(220)와 이격된 제1 지점에서 무인 운반체(220)와 이격된 제2 지점으로의 이동을 포함할 수 있다. 예를 들어, 무인 운반체(220)의 상면에 위치한 무인 비행체(210)가 무인 운반체(220)로부터 비행 시작 명령을 수신한 경우, 무인 운반체(220)의 상면으로부터 이륙할 수 있다.
일 실시 예에서, 무인 비행체(210)는 무인 운반체(220)와, 지정된 주기에 따라, 혹은 비주기적으로 데이터 통신을 수행할 수 있다. 예를 들어, 무인 비행체(210)는 근거리 통신을 이용하여 무인 운반체(220)에 센싱 정보를 전송할 수 있다. 무인 비행체(210)는 근거리 통신을 이용하여 무인 운반체(220)로부터 이동 명령을 수신할 수 있다. 일 실시 예에서, 근거리 통신은 블루투스, 비콘(beacon), WiFi direct, NFC(near field communication) 또는 IrDA(infrared data association) 통신 중 적어도 하나일 수 있다.
일 실시 예에서, 무인 비행체(210)는 센싱 정보를 획득할 수 있다. 무인 비행체(210)는 지정된 주기에 따라, 혹은 비주기적으로 센싱 정보를 획득할 수 있다. 센싱 정보는 위치 무관 센싱 정보(position-unrelated sensing information)를 포함할 수 있다. 위치 무관 센싱 정보는 무인 비행체(210)의 위치 정보를 이용하지 않고도 성공적으로 획득이 가능한 센싱 정보를 의미할 수 있다. 예를 들어, 위치 무관 센싱 정보는 무인 비행체(210)의 카메라(215)에 의해 촬영된 이미지 정보일 수 있다. 다른 예를 들어, 위치 무관 센싱 정보는 근접 센서(미도시)에 의해 획득된 외부 객체의 근접 여부에 대한 정보일 수도 있다.
일 실시 예에서, 무인 비행체(210)는, 위치 무관 센싱 정보에 기반하여 무인 운반체(220)가 결정한, 명령 (예: 이동 명령) 에 따라 이동할 수 있다. 예를 들어, 무인 비행체(210)는 획득한 위치 무관 센싱 정보를, 이동 완료 후, 무인 운반체(220)에 전송할 수 있다. 무인 운반체(220)는 수신한 위치 무관 센싱 정보를, 무인 운반체(220)의 메모리(예: 도 4의 메모리(440)), 혹은 외부 장치(미도시)의 데이터베이스에 저장된 정보와 비교함으로써, 무인 비행체(210)의 위치를 결정하고, 무인 비행체(210)에 대한 이동 명령을 생성할 수 있다. 무인 운반체(220)는 생성한 이동 명령을 무인 비행체(210)에 전송할 수 있으며, 무인 비행체(210)는 수신한 이동 명령에 따라 이동할 수 있다.
일 실시 예에서, 무인 비행체(210)는 하나 이상의 리더기(218)를 이용하여 재고 조사를 수행할 수 있다. 예를 들어, 무인 비행체(210)는 바코드 리더기, RFID (Radio-Frequency Identification) 리더기를 이용하여 재고 조사를 수행할 수 있다. 예를 들어, 무인 비행체(210)는 무인 운반체(220)로부터 수신한 이동 명령에 따라 이동을 완료한 후, 바코드 리더기, 혹은 RFID 리더기 중 적어도 하나를 이용하여 재고 조사를 수행할 수 있다.
무인 운반체(220)는 수평 방향으로 이동이 가능한 전자 장치일 수 있다. 예를 들어 무인 운반체(220)는 다양한 형태의 무인 운송 수단을 포함할 수 있다.
일 실시 예에서, 무인 운반체(220)는 무인 비행체(210)와 함께 (혹은 결합되어) 이동할 수 있다. 예를 들어, 무인 운반체(220)의 상면에 무인 비행체(210)가 결합 혹은 거치되기 위한 홀더(225)가 배치될 수 있다. 홀더(225)에 결합되어 있던 무인 비행체(210)는 무인 운반체(220)로부터 수신한 이동 명령에 따라 무인 운반체(220)와 이격되어 비행을 시작할 수 있다. 비행을 완료한 무인 비행체(210)는 무인 운반체(220)로 복귀하여 홀더(225)와 다시 결합할 수 있다. 예를 들어, 무인 비행체(210)와 결합된(혹은 무인 비행체(210)를 실은) 무인 운반체(220)는 지정된 위치로 이동할 수 있다. 예를 들어 지정된 위치는 물품의 적재 또는 저장을 위한 물리적 구조물과 인접한 위치일 수 있다. 지정된 위치에 이동을 완료한 무인 운반체(220)는 무인 비행체(210)가 물리적 구조물에 대한 재고 조사를 수행하도록 하기 위하여, 무인 비행체(210)에 대한 이동 명령(예: 이륙 명령)을 전송할 수 있다.
일 실시 예에서, 무인 운반체(220)는 무인 비행체(210)에 유선 혹은 무선으로 전력을 제공하기 위한 충전 회로(230)를 포함할 수 있다. 일 실시 예에서, 충전 회로(230)는 자기 공명 방식으로 외부 장치(예: 무인 비행체(210))에 전력을 공급할 수 있다. 예를 들어, 충전 회로(230)는 일정한 송전 가능 범위에 위치한 무인 비행체(210)에 무선으로 전력을 공급할 수 있다.
일 실시 예에서, 무인 운반체(220)는 타겟 위치에 대한 데이터를 미리 저장하고, 타겟 위치 데이터에 따라 무인 비행체(210)에 대한 이동 명령을 생성 및 전송할 수 있다. 타겟 위치 데이터는 재고 조사의 수행 영역에 따라 결정될 수 있다.
일 실시 예에서, 타겟 위치는, 특정한 영역에 대한 재고 조사를 수행하기 위해서, 무인 운반체(220) 혹은 무인 비행체(210)가 있어야 하는 위치일 수 있다. 타겟 위치 데이터는 특정한 위치를 기준점으로 하는 3차원 좌표 데이터로 표현될 수 있으며, 특정한 위치는 무인 운반체(220)의 현재 위치 또는 재고 조사가 수행될 장소(예: 창고)의 입구일 수 있다. 예를 들어, 창고가 물리적 구조물 A 내지 물리적 구조물 S를 포함하고, 물리적 구조물 A, 물리적 구조물 B에 재고 조사를 수행해야 하는 경우, 무인 운반체(220)는 물리적 구조물 A, B에 대해 재고 조사를 수행하기 위하여 무인 비행체(210)가 있어야 하는 하나 이상의 타겟 위치에 대한 데이터를 저장할 수 있다.
일 실시 예에서, 무인 운반체(220)는 무인 비행체(210)로부터 수신한 위치 무관 센싱 정보를 이용하여, 무인 운반체(220)의 위치를 결정할 수 있다. 예를 들어, 무인 운반체(220)는 무인 비행체(210)로부터 수신한 위치 무관 센싱 정보를 이용하여, 위치 무관 센싱 정보를 획득하였을 때의 무인 비행체(210)의 위치를 결정할 수 있다. 무인 운반체(220)는 결정된 무인 비행체(210)의 위치에 따라 타겟 위치(새로운 타겟 위치, 혹은 기존 타겟 위치)에 대한 이동 명령을 생성하고, 생성한 이동 명령을 무인 비행체(210)에 전송할 수 있다.
일 실시 예에서, 무인 운반체(220)는 무인 비행체(210)의 위치를 이용하여, 타겟 위치에 대한 이동 명령을 생성하고, 생성한 이동 명령을 무인 비행체(210)에 전송할 수 있다. 예를 들어, 타겟 위치 A에 대한 이동 명령에 따라 이동을 완료한 무인 비행체(210)는 위치 무관 센싱 정보를 무인 운반체(220)에 전송할 수 있고, 무인 운반체(220)는 위치 무관 센싱 정보에 기반하여 타겟 위치 B에 대한 이동 명령을 무인 비행체(210)에 전송할 수 있다.
일 실시 예에서, 무인 비행체(210)와 무인 운반체(220)는 지정된 거리 이내에 동작할 수 있다. 일 실시 예에서, 지정된 거리는 무인 비행체(210)와 무인 운반체(220) 간 수행되는 근거리 무선 통신의 커버리지(coverage)일 수 있다. 다른 실시 예에서, 지정된 거리는 무인 운반체(220)에 포함된 무선 충전 회로(230)를 통해 제공되는 무선 충전 서비스의 커버리지일 수 있다.
도 3은 본 발명의 다양한 실시 예들에 따른 무인 비행체(210)의 블록도이다.
도 3을 참고할 때, 무인 비행체(210)는 프로세서(310), 센서(320), 통신 회로(330), 메모리(340), 충전 회로(350)를 포함할 수 있다.
센서(320)는 위치 무관 센싱 정보를 획득하는 하나 이상의 센서들을 포함할 수 있다. 예를 들어, 센서(320)는 카메라 센서, optical flow 센서, 근접 센서, 거리 센서, 관성 센서 중 적어도 하나를 포함할 수 있다. 위치 무관 센싱 정보는 무인 비행체(210)의 위치 정보를 이용하지 않고도 성공적으로 획득이 가능한 센싱 정보를 의미할 수 있다.
통신 회로(330)는 무인 운반체(220)와 유선, 혹은 무선 통신을 수행하기 위한 회로를 포함할 수 있다. 프로세서(310)는 통신 회로(330)를 이용하여 무인 비행체(210)에서 획득 혹은 생성한 데이터를 무인 운반체(220)에 전송할 수 있다. 예를 들어, 프로세서(310)는 통신 회로(330)를 이용하여, 위치 무관 센싱 정보를 무인 운반체(220)에 전송할 수 있다.
메모리(340)는 프로세서(310)의 제어 하에, 적어도 일시적으로, 무인 비행체(210)에서 획득 혹은 생성한 데이터, 혹은 무인 운반체(220)로부터 수신한 데이터를 저장할 수 있다. 예를 들어, 메모리(340)는 무인 비행체(210)에서 획득한 위치 무관 센싱 정보 및 무인 운반체(220)로부터 수신한 이동 명령과 관련된 데이터를 저장할 수 있다.
충전 회로(350)는 외부 장치(예: 무인 운반체(220))로부터 유선 혹은 무선으로 전력을 공급받기 위한 회로일 수 있다. 일 실시 예에서, 충전 회로(350)는 외부 장치(예: 무인 운반체(220))로부터 전력을 수신하기 위한 수신 코일, 매칭 회로, 정류 회로, 조정 회로 중 적어도 하나의 회로를 포함할 수 있다.
프로세서(310)는 무인 비행체(210)의 전반적인 동작을 제어할 수 있다. 일 실시 예에서, 프로세서(310)는 지정된 주기, 또는 비주기적으로 위치 무관 센싱 정보를 획득하도록 센서(320)를 제어할 수 있다. 예를 들어, 프로세서(310)는 무인 운반체(220)로부터 수신한 이동 명령에 따라 이동을 완료하였을 때, 위치 무관 센싱 정보를 획득하도록 센서(320)를 제어할 수 있다. 다른 실시 예에서, 프로세서(310)는 지정된 주기, 또는 비주기적으로 위치 무관 센싱 정보를 무인 운반체(220)에 전송하도록 통신 회로(330)를 제어할 수 있다. 또 다른 예를 들어, 프로세서(310)는 통신 회로(330)를 통해 무인 운반체(220)로부터 수신한 이동 명령에 따라 이동하도록 적어도 하나의 회전부(212a, 212b, 212c, 212d), 혹은 적어도 하나의 모터(미도시)의 움직임을 제어할 수 있다.
도 4는 본 발명의 다양한 실시 예들에 따른 무인 운반체(220)의 블록도이다.
도 4를 참고할 때, 무인 운반체(220)는 프로세서(410), 센서(420), 통신 회로(430), 메모리(440), 충전 회로(450)를 포함할 수 있다.
센서(420)는 미리 저장된 주기 혹은 비주기적으로 센싱 정보를 획득할 수 있다. 예를 들어, 센서(420)는 관성 센서, 자이로 센서, 가속도 센서, GPS 센서 중 적어도 하나의 센서를 포함할 수 있다. 센싱 정보는 무인 운반체(220)의 현재 위치를 나타내는 센싱 정보를 포함할 수 있다 (예를 들어 GPS 정보). 센싱 정보는 무인 운반체(220)의 현재 위치를 결정하는데 사용되는 센싱 정보를 포함할 수 있다 (예를 들어, 관성 센서 정보, 자이로 센서 정보, 가속도 센서 정보 등).
통신 회로(430)는 무인 비행체(210)와 유선, 혹은 무선 통신을 수행하기 위한 회로를 포함할 수 있다. 프로세서(410)는 통신 회로(430)를 이용하여, 무인 운반체(220)에서 획득 혹은 생성한 데이터를 무인 비행체(210)에 전송할 수 있다. 예를 들어, 프로세서(410)는 통신 회로(430)를 이용하여, 무인 비행체(210)에 대한 이동 명령을 무인 비행체(210)에 전송할 수 있다.
메모리(440)는 프로세서(410)의 제어 하에, 적어도 일시적으로 무인 운반체(220)에서 획득 혹은 생성한 데이터, 혹은 무인 비행체(210)로부터 수신한 데이터를 저장할 수 있다. 예를 들어, 메모리(440)는 무인 비행체(210)로부터 수신한 위치 무관 센싱 정보를 저장할 수 있다.
일 실시 예에서, 메모리(440)는 프로세서(410)가 수행할 하나 이상의 명령어들, 혹은 명령어들의 집합인 프로그램을 저장할 수 있다. 예를 들어, 메모리(440)는, 무인 비행체(210)로부터 수신한 위치 무관 센싱 정보를 이용하여, 위치 무관 센싱 정보를 획득하였을 때의 무인 비행체(210)의 위치를 결정하기 위한 프로그램을 저장할 수 있다.
일 실시 예에서, 메모리(440)는 타겟 위치에 대한 데이터를 저장할 수 있다. 타겟 위치 데이터는, 특정한 영역(예: 물리적 구조물 A)에 대한 재고 조사를 수행하기 위하여, 무인 비행체(210) 혹은 무인 운반체(220)가 있어야 하는 위치(예: 도 6의 지정된 위치(630))에 대한 데이터일 수 있다. 타겟 위치 데이터는 특정한 위치(예: 창고의 입구)를 기준점으로 하는 3차원 좌표 데이터로 표현되거나, 지도 상에서 그래픽으로 표현될 수 있다.
충전 회로(450)는 외부 장치(예: 무인 비행체(210))에 유선 혹은 무선으로 전력을 공급하기 위한 회로일 수 있다. 일 실시 예에서 충전 회로(450)는 충전 회로(230)일 수 있다. 일 실시 예에서, 충전 회로(450)는 외부 장치(예: 무인 비행체(210))에 전력을 공급하기 위한 송신 코일, 전력 생성 회로, 매칭 회로를 포함할 수 있다.
일 실시 예에서, 충전 회로(450)는 자기 공명 방식으로 외부 장치(예: 무인 비행체(210))에 전력을 공급할 수 있다. 예를 들어, 충전 회로(450)는 일정한 송전 가능 범위에 위치한 무인 비행체에 무선으로 전력을 공급할 수 있다.
프로세서(410)는 무인 운반체(220)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(410)는 지정된 주기, 또는 비주기적으로 무인 운반체(220)의 위치 정보를 획득하도록 센서(420)를 제어할 수 있다. 다른 예를 들어, 프로세서(410)는 무인 비행체(210)로부터 수신한 위치 무관 센싱 정보를 이용하여, 위치 무관 센싱 정보를 획득하였을 때의 무인 비행체(210)의 위치를 결정할 수 있다. 다른 예를 들어, 프로세서(410)는 무인 비행체(210)의 위치 및 메모리(440)에 저장된 타겟 위치 데이터를 이용하여, 무인 비행체(210)의 이동 명령을 생성하고, 생성한 이동 명령을 무인 비행체(210)에 전송할 수 있다.
본 발명의 다양한 실시 예들에 따른 무인 비행체(예: 도 2의 무인 비행체(210))는 무선 통신 회로(예: 도 3의 통신 회로(330)), 적어도 하나의 센서(예: 도 3의 센서(320)), 상기 무선 통신 회로와 상기 적어도 하나의 센서에 작동적으로 연결된 프로세서(예: 도 3의 프로세서(310)), 상기 프로세서와 작동적으로 연결된 메모리(예: 도 3의 메모리(340))를 포함하며, 상기 메모리는, 실행 시 상기 프로세서가, 상기 무선 통신 회로를 이용하여 상기 무인 비행체로부터 지정된 거리 이내 위치한 무인 운반체로부터, 상기 무인 비행체의 현재 위치를 기준으로 하는 이동 명령을 수신하고, 상기 이동 명령에 따라 상기 무인 비행체가 이동하는 도중, 상기 적어도 하나의 센서를 이용하여 위치 무관 센싱 정보를 획득하고, 상기 무인 운반체가 상기 위치 무관 센싱 정보를 이용하여 상기 무인 비행체의 위치를 결정하도록, 상기 위치 무관 센싱 정보를 상기 무인 운반체에 전송하도록 하는 명령어들을 저장할 수 있다.
다양한 실시 예들에 따르면, 상기 무선 통신 회로는 근거리 무선 통신을 수행하도록 설정되며, 상기 지정된 거리는, 상기 근거리 무선 통신의 커버리지일 수 있다.
다양한 실시 예들에 따르면, 상기 적어도 하나의 센서는 이미지 센서를 포함하고, 상기 위치 무관 센싱 정보는 정적 이미지 혹은 동적 이미지 중 적어도 하나를 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 무인 비행체의 현재 위치를 기준으로 하는 이동 명령은, 이동 방향 및 이동 거리에 대한 정보를 포함하고, 상기 이동 방향은, 미리 결정된 좌표계의 좌표 형식으로 구성되고, 상기 이동 거리는, 특정한 시구간에 대한 속도 프로파일 형식으로 구성될 수 있다.
다양한 실시 예들에 따르면, 상기 무인 비행체의 현재 위치를 기준으로 하는 이동 명령은, 상기 무인 운반체로의 복귀 명령을 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 명령어들은 상기 프로세서가 상기 이동 명령에 따른 이동이 완료되었다는 판단에 응답하여 이동이 완료되었음을 나타내는 정보를 상기 무인 운반체에 전송하도록 할 수 있다.
다양한 실시 예들에 따르면, 상기 명령어들은 상기 프로세서가, 상기 이동 명령이 복귀 명령인 경우, 상기 이동이 완료되었음을 나타내는 정보를 전송함과 동시에, 혹은 전송한 후, 상기 무인 운반체의 이동을 요청하는 신호를 상기 무인 운반체에 전송하도록 할 수 있다.
다양한 실시 예들에 따르면 충전 회로(예: 도 3의 충전 회로(350))를 더 포함하고, 상기 충전 회로는 상기 무인 운반체로부터 유선 혹은 무선으로 전력을 공급받도록 설정될 수 있다.
본 발명의 다양한 실시 예들에 따른 무인 운반체(예: 도 2의 무인 운반체(220))는 무선 통신 회로(예: 도 4의 통신 회로(430)), 적어도 하나의 센서(예: 도 4의 센서(420)), 상기 무선 통신 회로와 상기 적어도 하나의 센서에 작동적으로 연결된 프로세서(예: 도 4의 프로세서(410)), 상기 프로세서와 작동적으로 연결된 메모리(예: 도 4의 메모리(440))를 포함하고, 상기 메모리는, 실행 시에, 상기 프로세서가 상기 무선 통신 회로를 이용하여, 상기 무인 운반체로부터 지정된 거리 이내에 위치한 무인 비행체로부터, 위치 무관 센싱 정보를 수신하고 상기 적어도 하나의 센서를 이용하여 획득한 상기 무인 운반체의 위치 및 상기 위치 무관 센싱 정보를 이용하여, 상기 무인 비행체의 위치를 결정하고, 상기 무인 운반체의 위치에 기반하여, 상기 무인 비행체의 위치를 기준으로 하는 이동 명령을 상기 무인 비행체에 전송하도록 하는 명령어들을 저장할 수 있다.
다양한 실시 예들에 따르면, 상기 위치 무관 센싱 정보는 정적 이미지 혹은 동적 이미지 중 적어도 하나를 포함하며, 상기 명령어들은, 상기 메모리에 저장된 복수의 이미지들 중에서, 상기 위치 무관 센싱 정보에 매칭되는 이미지를 결정하고, 상기 결정된 이미지와 상기 위치 무관 센싱 정보에 공통적으로 포함된 피사체의 길이, 크기 혹은 위치의 차이 중 적어도 하나를 이용하여, 상기 무인 비행체의 위치를 결정하도록 할 수 있다.
다양한 실시 예들에 따르면, 상기 위치 무관 센싱 정보는 정적 이미지 혹은 동적 이미지 중 적어도 하나를 포함하며, 상기 명령어들은, 상기 무인 운반체의 위치에 기반하여 상기 메모리 내 검색 영역을 결정하고, 상기 검색 영역 내에서, 상기 위치 무관 센싱 정보와 매칭되는 위치 데이터를 결정하고, 상기 위치 데이터에 기반하여 상기 무인 운반체의 위치를 결정하도록 할 수 있다.
도 5는 본 발명의 다양한 실시 예들에 따른 무인 비행체의 동작 방법을 도시한 순서도이다.
도 5의 동작 주체는 무인 비행체(210) 또는 무인 비행체(210)의 프로세서(310)일 수 있다.
510동작에서, 무인 비행체(210)는 무인 비행체(210)의 현재 위치를 기준으로 하는 이동 명령을 무인 운반체(220)로부터 수신할 수 있다.
일 실시 예에서, 510동작은 무인 비행체(210)가 무인 운반체(220)와 결합되어 있는 상태에서 수행될 수 있다. 다른 실시 예에서, 510동작은 무인 비행체(210)가 무인 운반체(220)와 이격되어 있는 상태(예: 비행 중인 상태)에서 수행될 수 있다.
일 실시 예에서, 무인 비행체(210)의 현재 위치를 기준으로 하는 이동 명령은, 무인 비행체(210)가 이동해야 할 타겟 위치에 대한 정보를 포함할 수 있다. 일 실시 예에서, 무인 비행체(210)의 현재 위치를 기준으로 하는 이동 명령은, 무인 비행체(210)의 현재 위치로부터 타겟 위치까지의 이동 거리 및 현재 위치를 기준으로 하는 타겟 위치의 방향에 대한 정보를 포함할 수 있다.
일 실시 예에서, 무인 비행체(210)의 현재 위치를 기준으로 하는 이동 명령은, 무인 비행체(210)의 현재 위치를 원점으로 하고, 제1 축, 제2 축, 제3 축으로 이루어진 3차원 좌표계 하의 3차원 좌표값으로 표현될 수 있다. 예를 들어, 무인 비행체(210)의 현재 위치를 기준으로 하는 이동 명령은, (3, 4, 5)와 같은 3차원 좌표일 수 있다. (3, 4, 5)는 무인 비행체(210)의 현재 위치를 기준으로, 제1 축 방향으로 3만큼, 제2 축 방향으로 4만큼, 제3 축 방향으로 5만큼 이동할 것을 나타내는 이동 명령일 수 있다.
520동작에서, 무인 비행체(210)는, 이동 명령에 따른 이동 도중, 위치 무관 센싱 정보를 획득할 수 있다. 위치 무관 센싱 정보는 무인 비행체(210)의 위치 정보를 이용하지 않고도 성공적으로 획득이 가능한 센싱 정보를 의미할 수 있다. 예를 들어, 위치 무관 센싱 정보는 무인 비행체(210)의 카메라(215)에 의해 촬영된 이미지 정보일 수 있다.
일 실시 예에서 무인 비행체(210)는 지정된 주기 혹은 비주기적으로 위치 무관 센싱 정보를 획득할 수 있다. 예를 들어, 무인 비행체(210)는 지정된 주기에 따라 위치 무관 센싱 정보를 획득하다가, 이벤트가 발생하는 경우(예: 타겟 위치로의 이동 시작 직전, 타겟 위치로의 이동 완료, 혹은 무인 운반체(220)로부터 위치 무관 센싱 정보의 획득 요청 등)에는 지정된 주기와 무관하게 위치 무관 센싱 정보를 획득할 수 있다.
일 실시 예에서, 무인 비행체(210)는 획득한 위치 무관 센싱 정보에 특정한 정보(예: 태그)를 부가할 수 있다. 예를 들어, 무인 비행체(210)는 위치 무관 센싱 정보에 획득 시간 정보를 부가할 수 있다. 다른 예를 들어, 무인 비행체(210)는, 타겟 위치로의 이동을 완료했을 때 획득한 이미지에, 이동을 완료하였을 때 촬영된 이미지라는 정보를 부가할 수 있다.
530동작에서, 무인 비행체(210)는 위치 무관 센싱 정보를 무인 운반체(220)에 전송할 수 있다. 일 실시 예에서, 무인 비행체(210)는 주기적으로, 혹은 비주기적으로 무인 운반체(220)에 위치 무관 센싱 정보를 전송할 수 있다. 예를 들어, 무인 비행체(210)가 이동을 완료한 후, 이동 시작으로부터 이동 완료까지 획득한 위치 무관 센싱 정보를 한번에 전송할 수도 있고, 위치 무관 센싱 정보를 획득할 때마다 획득한 위치 무관 센싱 정보를 전송할 수도 있다.
일 실시 예에서, 무인 비행체(210)는 위치 무관 센싱 정보와 함께 부가적인 정보 혹은 신호를 무인 운반체(220)에 전송할 수도 있다. 예를 들어, 무인 비행체(210)가 타겟 위치로의 이동을 완료하였고, 타겟 위치가 무인 운반체(220)의 홀더(225)가 아닌 경우, 무인 비행체(210)는 무인 운반체(220)에 현 위치에서 재고 조사를 수행해도 될지를 문의하는 신호를 전송하거나, 다음 타겟 위치를 요청하는 신호를 전송할 수 있다. 다른 예를 들어, 무인 비행체(210)가 타겟 위치로의 이동을 완료하였고, 타겟 위치가 무인 운반체(220)의 홀더(225)인 경우, 무인 비행체(210)는 무인 운반체(220)에, 무인 운반체(220)의 이동을 요청하는 신호를 전송할 수도 있다.
도 6은 본 발명의 다양한 실시 예들에 따른 무인 비행체(210)가 재고 조사를 수행하는 방법을 설명하기 위한 도면이다.
도 6을 참고하면, 무인 비행체(210a)와 결합된 무인 운반체(220)는 메모리(440)에 저장된 명령어 혹은 외부(예: 사용자)로부터 입력된 명령에 기반하여, 지정된 위치(630, 예: 3차원 좌표(3, 4, 0))로 이동할 수 있다. 예를 들어, 무인 비행체(210a)와 결합된 무인 운반체(220)는 메모리(440)에 저장된 명령어에 따라, 현재 재고 조사를 수행할 영역(예: 물리적 구조물 A)을 결정하고, 메모리(440)에 저장된, 물리적 구조물 A에 지정된 위치(630)로 이동할 수 있다. 일 실시 예에서, 무인 운반체(220)는 센서(420)를 이용하여 지정된 위치(630)로 이동할 수 있다.
일 실시 예에서, 지정된 위치(630)에 이동을 완료한 무인 운반체(220)는 무인 비행체(210a)에 이동 명령을 전송할 수 있다. 예를 들어, 이동 명령은 무인 운반체(220)에 결합된 무인 비행체(210a)를 이륙시키는 이동 명령일 수 있다.
일 실시 예에서, 무인 운반체(220)가 무인 비행체(210a)에 전송하는 이동 명령은, 이동 방향 및 이동 거리에 대한 정보를 포함할 수 있다. 예를 들어, 이동 방향 및 이동 거리에 대한 정보는, 3차원 좌표 형식의 정보일 수 있다. 다른 예를 들어, 이동 방향 및 이동 거리에 대한 정보는, 요(yaw), 피치(pitch), 롤(roll), 스로틀(throttle) 형식의 정보일 수도 있다. 예를 들어, 무인 운반체(220)는 무인 비행체(210a)의 현재 위치를 기준으로 하는 3차원 좌표 (0, 0, 5)로 이동할 것을 나타내는 이동 명령을 전송할 수도 있다.
일 실시 예에서, 이동 명령을 수신한 무인 비행체(210a)는, 이동 명령에 따라 이동할 수 있다(210a -> 210b). 무인 비행체(210a)의 프로세서(310)는 수신한 이동 명령을 분석하고, 이동 명령을 수행하기 위하여 필요한, 하나 이상의 모터들에 대한 명령 값을 계산할 수 있다. 예를 들어, 무인 비행체(210a)의 현재 위치를 기준으로 하는 3차원 좌표 (0, 0, 5)로 이동할 것을 나타내는 이동 명령을 수신한 경우, 프로세서(310)는 현재 위치로부터 5만큼 상승하라는 명령임을 인식하고, 무인 비행체(210a)에 포함된 모든 모터들의 출력을 일정한 값만큼 증가시킬 수 있다.
일 실시 예에서, 이동 명령에 따라 이동하는 무인 비행체(210a -> 210b)는 지정된 주기 혹은 비주기적으로, 위치 무관 센싱 정보를 획득하고, 획득한 위치 무관 센싱 정보를 무인 운반체(220)에 전송할 수 있다. 예를 들어, 위치 무관 센싱 정보는 카메라 센서에 의해 획득된 정적 혹은 동적 이미지일 수 있다. 다른 예를 들어, 무인 비행체는 이동하는 도중 촬영되는 동영상 데이터를 스트리밍 형식으로 무인 운반체(220)에 전송할 수도 있다.
일 실시 예에서, 이동을 완료한 무인 비행체(210b)는 무인 운반체(220)에게 이동을 완료하였음을 나타내는 신호를 전송할 수 있다. 이동을 완료한 무인 비행체(210b)는 이동중과 마찬가지로, 지정된 주기 혹은 비주기적으로, 위치 무관 센싱 정보를 획득하여 무인 운반체(220)에 전송할 수 있다. 일 실시 예에서, 무인 비행체(210b)는 이동을 완료하였음을 나타내는 신호와 함께 위치 무관 센싱 정보를 무인 운반체(220)에 전송할 수도 있다.
일 실시 예에서, 무인 비행체(210b)로부터 이동을 완료하였음을 나타내는 정보를 수신한 무인 운반체(220)는, 무인 비행체(210b)로부터 수신한 위치 무관 센싱 정보를 메모리(440)에 저장된 정보와 비교함으로써, 무인 비행체(210b)의 위치를 결정할 수 있다. 무인 운반체(220)가 무인 비행체(210b)의 위치를 결정하는 이유는, 예를 들어 (3, 4, 0)의 위치에 있던 무인 비행체가 (0, 0, 5)의 이동 명령에 따른 이동을 완료했다 하더라도, 실제 비행 오차를 고려할 때, 실제 (3, 4, 5)에 위치하지 않을 수 있기 때문이다. 일 실시 예에서 메모리(440)에 저장된 정보는, 위치 무관 센싱 정보와 매핑된 위치 데이터일 수 있다. 예를 들어, 위치 무관 센싱 정보가 카메라 센서에 의해 촬영된 정적 이미지인 경우, 특정한 피사체가 이미지 내 어디에 배치되어 있는지에 따라, 이미지 A는 위치 A에 매핑될 수 있고, 이미지 B는 위치 B에 매핑될 수 있다. 특정한 피사체는 재고 조사의 결과와 무관하게(즉, 상품의 유무와 무관하게) 고정된 위치에 항상 존재하는 심볼일 수 있다. 예를 들어, 특정한 피사체는 물리적 구조물을 구성하는 기둥 혹은 수평 받침대일 수 있다. 다른 예를 들어, 특정한 피사체는 기둥 혹은 수평 받침대에 새겨진 마크, 혹은 물리적 구조물의 영역을 구별하기 위해 부착된 마크일 수 있다.
일 실시 예에서, 무인 비행체(210b)의 결정된 위치가 이동 명령의 타겟 위치에 비하여 지정된 오차 범위 이내인 경우, 무인 운반체(220)는 타겟 위치로의 이동이 성공적으로 완료되었음을 알리는 신호를 무인 비행체(210b)에 전송할 수 있다. 타겟 위치로의 이동이 성공적으로 완료되었음을 알리는 신호를 수신한 무인 비행체(210b)는 리더기(218)를 이용하여 제품에 부착된 태그(620)를 인식함으로써 재고 조사를 수행할 수 있다. 재고 조사를 수행한 무인 비행체(210b)는 새로운 타겟 위치로의 이동 명령을 요청하는 무인 운반체(220)에 전송할 수 있다.
일 실시 예에서, 무인 비행체(210b)의 결정된 위치가 이동 명령의 타겟 위치에 비하여 지정된 오차 범위 이내가 아닌 경우, 무인 운반체(220)는 타겟 위치로의 이동이 성공적으로 완료되지 않았음을 알리는 신호를 무인 비행체(210b)에 전송할 수 있다. 무인 운반체(220)는 무인 비행체(210b)의 결정된 위치 및 타겟 위치와의 차이를 이용하여, 상기 타겟 위치로의 이동 명령을 무인 비행체(210b)에 전송할 수 있다. 예를 들어, 무인 비행체(210b)의 결정된 위치가 (3, 3, 4) 이고, 타겟 위치가 (3, 4, 5) 인 경우, 무인 운반체(220)는 현재 위치를 기준으로 (0, 1, 1)만큼 이동할 것을 나타내는 이동 명령을 무인 비행체(210b)에 전송할 수 있다.
일 실시 예에서, 무인 비행체는 무인 운반체(220)로부터 수신한 이동 명령에 따라 복수의 타겟 위치들을 차례로 이동할 수 있다(210a -> 210b -> 210c -> 210d -> 210a). 무인 비행체가 이동하는 복수의 타겟 위치들은 재고 조사의 결과에 따라 유동적으로 변경될 수 있다. 예를 들어, 무인 운반체(220)가, 무인 비행체(210b)에 의한 재고 조사 결과, 무인 비행체(210b)와 동일한 높이에 제품이 존재한다는 재고 조사 결과를 획득한 경우, 다음 타겟 위치는 무인 비행체(210b)에 비하여 제3 축(연직 방향)에 대한 값이 지정된 값만큼 증가된 위치일 수 있다.
일 실시 예에서, 무인 비행체(210)는 무인 운반체(220)를 기준으로 지정된 거리 이내인 비행 영역(610)에서 비행할 수 있다. 만약, 무인 비행체(210)가 이동해야 할 타겟 위치가, 비행 영역(610) 이내가 아닌 경우, 무인 운반체(220)는 무인 비행체(예: 무인 비행체(210d))에게 복귀 명령을 전송할 수 있다. 무인 운반체(220)는 무인 비행체(210d)의 현재 위치(예: 6, 9, 1) 및 무인 운반체의 현재 위치(예: 3, 4, 0)를 이용하여, 무인 비행체(210d)의 현재 위치를 기준으로 (-3, -5, -1)만큼 이동할 것을 나타내는 복귀 명령을 전송할 수 있다.
일 실시 예에서, 무인 운반체(220)는 무인 비행체와 결합한 후, 메모리(440)에 저장된 명령어 혹은 외부로부터 입력된 명령에 기반하여, 다음 지정된 위치(미도시)로 이동할 수 있다. 미도시되었지만, 무인 비행체(210d)는 무인 운반체(220)에 복귀하지 않고, 비행 영역(610)을 벗어난 다음 타겟 위치로 이동 (혹은 비행) 할 수도 있다.
도 7은 본 발명의 다양한 실시 예들에 따른 이동 명령을 예시한 도면이다.
도 7a를 참고할 때, 무인 비행체(210)는, 무인 운반체(미도시, 예: 무인 운반체(220))로부터, 무인 비행체(210)의 현재 위치(710)를 기준으로 하는 이동 명령(730)을 수신할 수 있다. 무인 비행체(210)의 현재 위치(710)를 기준으로 하는 이동 명령(730)은 무인 비행체(210)가 이동해야 할 타겟 위치(720)에 대한 정보를 포함할 수 있다. 무인 비행체(210)가 이동해야 할 타겟 위치(720)에 대한 정보는 이동 방향 및 이동 거리에 대한 정보를 포함할 수 있다. 미도시되었지만, 이동 방향 및 이동 거리에 대한 정보를 하나의 3차원 좌표(예: 0, 0, 5)로 표현할 수도 있다.
도 7b를 참고할 때, 무인 비행체(210)는 무인 운반체(220)로부터, 특정한 시구간에서 속도 프로파일(740) 정보를 수신할 수도 있다. 미도시되었지만, 무인 비행체(210)는 무인 운반체(220)로부터 이동 방향에 대한 정보를 추가로 수신할 수도 있다. 무인 비행체(210)는 이동 방향에 대한 정보 및 속도 프로파일(740) 정보에 따라 타겟 위치에 대한 이동을 수행할 수 있다.
도 8은 본 발명의 다양한 실시 예들에 따른 무인 비행체의 동작 방법을 도시한 순서도이다.
도 8에 개시된 순서도는 도 5에 개시된 530동작의 세부 순서도일 수 있다.
도 8의 동작 주체는 무인 비행체(210) 또는 무인 비행체(210)의 프로세서(310)일 수 있다.
무인 비행체(210)는 810동작에서, 센싱 정보 전송 주기가 도래하였는지 여부를 확인할 수 있다. 일 실시 예에서 센싱 정보 전송 주기는 520동작에서 획득한 위치 무관 센싱 정보를 무인 운반체(220)에 전송하는 주기일 수 있다.
센싱 정보 전송 주기가 아직 도래하지 않은 경우, 센싱 정보 전송 주기가 도래할 때까지 810동작을 반복하여 수행할 수 있다.
센싱 정보 전송 주기가 도래한 경우, 무인 비행체(210)는 820동작에서, 이동 명령에 따른 이동이 완료되었는지 확인할 수 있다. 예를 들어, 무인 비행체(210)는 타겟 위치로의 이동이 완료되었는지 확인할 수 있다.
이동 명령에 따른 이동이 아직 완료되지 않다고 확인된 경우, 840동작에서, 센싱 정보 및 이동 진행 정보를 전송할 수 있다. 일 실시 예에서 이동 진행 정보는 센싱 정보를 획득했을 때의 무인 비행체(210)가, 아직 이동 명령에 따른 이동을 완료하지 않았음을 나타내는 정보를 포함할 수 있다.
이동 명령에 따른 이동이 완료되었다고 확인된 경우, 830동작에서, 센싱 정보 및 이동 완료 정보를 무인 운반체(220)에 전송할 수 있다. 일 실시 예에서 이동 완료 정보는 이동 명령에 따른 이동이 완료되었음을 나타내는 정보일 수 있다. 무인 비행체(210)는 센싱 정보 및 이동 완료 정보와 함께, 의도한 위치로 이동을 완료하였는지 확인을 요청하는 신호를 무인 운반체(220)에 전송할 수도 있다.
일 실시 예에서, 무인 비행체(210)는 다른 타겟 위치에 대한 추가 이동 명령을 요청하는 신호를 전송하거나, 무인 운반체(220)의 홀더(225)로 복귀한 경우, 무인 운반체(220)의 이동을 요청하는 신호를 전송할 수도 있다.
도 9는 본 발명의 다양한 실시 예들에 따른 무인 비행체의 동작 방법을 도시한 순서도이다.
도 9에 개시된 순서도는 도 8에 개시된 830동작의 세부 순서도일 수 있다.
도 9의 동작 주체는 무인 비행체(210) 또는 무인 비행체(210)의 프로세서(310)일 수 있다.
무인 비행체(210)는 이동 명령이 무인 운반체(220)로의 복귀 명령인지 여부를 확인할 수 있다. 예를 들어, 무인 비행체(210)는 무인 운반체(220)로 복귀를 요청하는 이동 명령에 따라 이동을 완료하였는지 여부를 확인할 수 있다.
이동 명령이 복귀 명령으로 확인된 경우, 무인 비행체(210)는 센싱 정보 및 무인 운반체(220)의 이동을 요청하는 신호를 무인 운반체(220)에 전송할 수 있다. 일 실시 예에서 무인 운반체(220)로 복귀한 무인 비행체(210)는 무인 운반체(220)의 홀더(225)와 결합한 후, 무인 운반체(220)의 이동을 요청하는 신호를 무인 운반체(220)에 전송할 수 있다.
이동 명령이 복귀 명령이 아닌 것으로 확인된 경우, 무인 비행체(210)는 930동작에서, 센싱 정보를 전송함과 동시에, 혹은 센싱 정보를 전송하기 전 또는 후, 추가 이동 명령을 요청하는 신호를 전송할 수 있다.
도 10는 본 발명의 다양한 실시 예들에 따른 무인 운반체의 동작 방법을 도시한 순서도이다.
도 10의 동작 주체는 무인 운반체(220) 또는 무인 운반체(220)의 프로세서(410)일 수 있다.
1010동작에서, 무인 운반체(220)는 무인 비행체(210)로부터 위치 무관 센싱 정보를 수신할 수 있다. 위치 무관 센싱 정보는 무인 비행체(210)의 위치 정보를 이용하지 않고도 성공적으로 획득이 가능한 센싱 정보를 의미할 수 있다. 예를 들어, 위치 무관 센싱 정보는 무인 비행체(210)의 카메라(215) 혹은 이미지 센서에 의해 획득된 이미지 정보일 수 있다.
1020동작에서, 무인 운반체(220)는 위치 무관 센싱 정보 및 무인 운반체(220)의 위치에 기반하여 무인 비행체(210)의 위치를 결정할 수 있다. 일 실시 예에서, 무인 운반체(220)의 위치는 평면 위치일 수 있다. 예를 들어, 위치 무관 센싱 정보가 이미지 정보인 경우, 무인 운반체(220)는 위치 무관 센싱 정보를 메모리(440)에 저장된 복수의 이미지들과 비교함으로써, 무인 운반체(220)를 기준으로 하는 무인 비행체(210)의 상대적 위치를 결정할 수 있다. 무인 운반체(220)는 무인 운반체(220)의 평면 위치 및 무인 비행체의 상대적 위치를 이용하여, 무인 운반체(220)의 위치를 결정할 수 있다.
1030동작에서, 무인 운반체(220)는 무인 비행체(210)의 위치에 기반하여 타겟 위치를 위한 이동 명령을 전송할 수 있다.
예를 들어, 타겟 위치 A에 대한 이동 명령에 따라 무인 비행체(210)가 이동을 완료하였을 때, 무인 운반체(220)는 무인 비행체(210)의 위치를 결정하고, 무인 비행체(210)의 위치에 기반하여, 타겟 위치 A에 대한 추가 이동 명령을 무인 비행체(210)에 전송할 수 있다. 이 경우, 추가적인 위치 조정이 필요하기 때문에, 재고 조사를 수행하지 않을 것을 나타내는 신호를 추가로 전송할 수 있다.
다른 예를 들어, 타겟 위치 A에 대한 이동 명령에 따라 무인 비행체(210)가 이동을 완료하였을 때, 무인 운반체(220)는 무인 비행체(210)의 위치를 결정하고, 무인 비행체(210)의 위치, 혹은 위치 무관 센싱 정보에 기반하여, 현재 위치에서 재고 조사를 수행할 것을 나타내는 신호를 전송하고, 무인 비행체(210)로부터 재고 조사의 결과를 수신할 수 있다. 무인 운반체(220)는 수신한 재고 조사의 결과에 따라, 타겟 위치 A와 상이한 타겟 위치에 대한 이동 명령을 무인 비행체(210)에 전송할 수 있다. 제품이 존재한다는 재고 조사 결과를 수신한 경우, 타겟 위치 A와 상이한 타겟 위치 B에 대한 이동 명령을, 제품이 존재하지 않는다는 재고 조사 결과를 수신한 경우, 타겟 위치 A, B와 상이한 타겟 위치 C에 대한 이동 명령을 무인 비행체(210)에 전송할 수 있다.
도 11은 본 발명의 다양한 실시 예들에 따른 무인 운반체의 동작 방법을 도시한 순서도이다.
도 11에 개시된 순서도는 도 10에 개시된 1020동작의 세부 순서도일 수 있다.
도 11의 동작 주체는 무인 운반체(220) 또는 무인 운반체(220)의 프로세서(410)일 수 있다.
1110동작에서, 무인 운반체(220)는 무인 운반체(220)의 평면 위치를 획득할 수 있다. 무인 운반체(220)는 센서(420)를 이용하여 무인 운반체(220)의 평면 위치를 획득할 수 있다. 무인 운반체(220)는 GPS 센서를 이용하거나, 자이로 센서, 가속도 센서, 관성 센서 중 적어도 하나의 센서를 이용하여 무인 운반체(220)의 평면 위치를 획득할 수 있다. 일 실시 예에서, 무인 운반체(220)의 평면 위치는 위도 및 경도로 표현될 수도 있고, 특정한 고정된 위치(예: 창고의 입구)를 기준으로 하는 3차원 좌표로 표현될 수도 있다. 무인 운반체(220)의 평면 위치는 3차원 좌표로 표현될 수 있으나, 높이(elevation)를 의미하는 제3 축 방향(연직 방향)의 값은 0의 값일 수 있다.
1120동작에서, 무인 운반체(220)는 무인 비행체(210)로부터 획득한 센싱 정보를 이용하여, 무인 운반체(220)를 기준으로 하는 무인 비행체(210)의 상대적 위치를 결정할 수 있다. 일 실시 예에서, 무인 운반체(220)는 무인 비행체(210)로부터 획득한 이미지를 메모리(440)에 저장된 복수의 이미지들과 비교함으로써, 무인 운반체(220)를 기준으로 하는 무인 비행체(210)의 상대적 위치를 결정할 수 있다. 예를 들어, 무인 운반체(220)는 무인 비행체(210)로부터 획득한 이미지를 메모리(440)에 저장된 복수의 이미지들과 비교함으로써, 무인 비행체(210)가 무인 운반체(220)를 기준으로, 제 1축 방향으로 3, 제 2축 방향으로 4, 제 3축 방향으로 5만큼 떨어진 위치에 위치한다는 것을 확인할 수 있다.
1130동작에서, 무인 운반체(220)는 무인 비행체(210)의 상대적 위치 및 무인 운반체(220)의 평면 위치를 이용하여, 무인 비행체(210)의 위치를 결정할 수 있다. 예를 들어, 무인 운반체(220)의 평면 위치가 (2, 3, 0)이고, 무인 비행체(210)의 상대적 위치가 무인 운반체(220)를 기준으로 (3, 4, 5)인 경우, 무인 운반체(220)는 무인 비행체(210)의 위치를 (5, 7, 5)로 결정할 수 있다.
도 12는 본 발명의 다양한 실시 예들에 따른 무인 운반체가 무인 비행체의 상대적 위치를 결정하는 방법을 설명하기 위한 도면이다.
일 실시 예에서, 무인 비행체(210e, 210f)는 위치 무관 센싱 정보를 획득할 수 있다. 위치 무관 센싱 정보는 무인 비행체의 카메라(215)에 의해 촬영된 이미지 정보일 수 있다.
도 12는 2가지 경우에서 무인 비행체(210e, 210f)가 위치 무관 센싱 정보를 획득하는 예를 도시한다. 예를 들어, 무인 비행체(210e)는 외부 오브젝트(1212)에 대한 이미지(1220)를 촬영하며, 무인 비행체(210f)는 외부 오브젝트(1214)에 대한 이미지(1230)를 촬영할 수 있다. 외부 오브젝트들(1212, 1214)의 수평 위치는 서로 동일하며, 수직 위치는 서로 상이할 수 있다. 외부 오브젝트(1214)는 외부 오브젝트(1212)보다 더 높게 위치할 수 있다. 예를 들어, 외부 오브젝트들(1212, 1214)는 물품 등을 저장하기 위한 공간(예: 창고)에 배치되는 수직 구조물(1210, 예: 수평 선반을 위한 지지대)의 부착된 특정한 모양의 심볼 혹은 표지(mark) 일 수 있다.
일 실시 예에서, 무인 비행체(210e)는 무인 운반체(220)의 홀더(225)에 놓여진 상태일 수 있으며, 무인 비행체(210f)는 무인 운반체(220)와 이격되어 비행 중인 상태일 수 있다. 무인 비행체(210f)는 무인 비행체(210e)와 수평 위치가 동일하고, 수직 위치가 상이할 수 있다.
일 실시 예에서, 무인 운반체(220)는 무인 비행체(210e, 210f)로부터, 위치 무관 센싱 정보를 수신할 수 있다. 무인 운반체(220)는 수신한 위치 무관 센싱 정보에 기반하여 무인 비행체의 상대적 위치를 결정할 수 있다. 예를 들어, 무인 운반체(220)는 무인 운반체(220)와 결합된 무인 비행체(210e)가 촬영한 이미지(1220)에 포함된 피사체(1225)에 대응하는 외부 오브젝트(1212)와, 무인 운반체(220)와 이격되어 비행 중인 무인 비행체(210f)가 촬영한 이미지(1230)에 포함된 피사체(1235)에 대응하는 외부 오브젝트(1214)와의 거리(1240)에 기반하여, 무인 비행체(210f)와 무인 비행체(210e) 사이의 거리(1250)를 결정할 수 있다. 무인 운반체(220)는 무인 비행체(210f)와 무인 비행체(210e) 사이의 거리(1250)에 기반하여, 무인 운반체(220)에 대한 무인 비행체(210f)의 상대적 위치를 결정할 수 있다. 무인 운반체(220)는, 무인 운반체(220) 및 무인 운반체(220)와 결합된 상태인 무인 비행체(210e) 간 떨어진 거리를 고려하여, 무인 비행체(210f)의 상대적 위치를 결정할 수도 있다.
도 13은 본 발명의 다양한 실시 예들에 따른 무인 운반체가 무인 비행체의 상대적 위치를 결정하는 방법을 설명하기 위한 도면이다.
도 13은 2가지 경우에서 무인 비행체(210g, 210h)가 위치 무관 센싱 정보를 획득하는 예를 도시한다. 예를 들어, 도 13a는 무인 비행체(210h)가 외부 오브젝트(1314)에 대한 이미지(1330)를 촬영하며, 도 13b는 무인 비행체(210g)가 외부 오브젝트(1314)에 대한 이미지(1320)를 촬영하는 예를 도시한다. 무인 비행체(210g, 210h)는 동일한 외부 오브젝트(1314)에 대한 이미지를 촬영할 수 있다. 무인 비행체(210g)는 무인 비행체(210h)보다 외부 오브젝트(1314)로부터 더 멀리 떨어져 있을 수 있다.
일 실시 예에서, 무인 운반체(220)는 무인 비행체(210g)가 촬영한 외부 오브젝트(1314)에 대한 이미지(1320)를, 무인 비행체(210h)가 촬영한 외부 오브젝트(1314)에 대한 이미지(1330)와 비교할 수 있다. 예를 들어, 무인 운반체(220)는 이미지들(1330, 1320)에 포함된, 동일한 외부 오브젝트(1314)에 대한 피사체들(1325, 1335)에 기반하여, 무인 비행체(210g)의 상대적 위치를 결정할 수 있다. 무인 운반체(220)는 이미지(1330)에 포함된 피사체(1335)와 이미지(1320)에 포함된 피사체(1325)의 크기 혹은 길이를 비교함으로써, 무인 비행체(210h)에 대한 무인 비행체(210g)의 상대적 위치를 결정할 수 있다. 무인 운반체는 무인 비행체(210h)와 무인 비행체(210g) 간 거리(1340)를 결정할 수 있다. 예를 들어, 무인 운반체(220)는 무인 비행체(210g)가, 무인 비행체(210h)보다, 외부 오브젝트(1314)의 반대 방향으로, 결정된 거리(1340)만큼 떨어져 있다고 결정할 수 있다.
도 14는 본 발명의 다양한 실시 예들에 따른 무인 운반체의 동작 방법을 도시한 순서도이다.
도 14에 개시된 순서도는 도 10에 개시된 1020동작의 세부 순서도일 수 있다.
도 14의 동작 주체는 무인 운반체(220) 또는 무인 운반체(220)의 프로세서(410)일 수 있다.
1410동작에서, 무인 운반체(220)는 무인 운반체(220)의 평면 위치를 획득할 수 있다. 무인 운반체(220)의 평면 위치는 제1 축에 대한 값 및 제2 축에 대한 값을 포함할 수 있다. 무인 운반체(220)는 센서(320)를 이용하여 무인 운반체(220)의 평면 위치를 획득할 수 있다. 일 실시 예에서, 무인 운반체(220)는 지정된 위치(예: 창고의 입구)를 기준으로 하는 3차원 좌표 (3. 4, 0))를 획득할 수 있다.
1420동작에서, 무인 운반체(220)는 무인 운반체(220)의 평면 위치를 이용하여, 검색 영역을 결정할 수 있다. 무인 운반체(220)는 무인 운반체(220)의 평면 위치를 이용하여, 메모리(440) 혹은 외부 장치에 저장된 데이터베이스의 검색 영역을 결정할 수 있다. 무인 운반체(220)의 메모리(440) 혹은 외부 장치의 데이터베이스에서, 위치 데이터가 위치 무관 센싱 정보와 매핑되어 저장되어 있을 수 있다. 무인 운반체(220)는 1010동작에서 수신한 위치 무관 센싱 정보를 이용하여, 메모리(440) 혹은 데이터베이스에 저장된 위치 데이터의 전체 영역을 검색하지 않고, 위치 데이터의 일부 영역만을 검색할 수 있다. 본 발명의 다양한 실시 예들에 따르면 무인 비행체(210)는 무인 운반체(220)로부터 지정된 거리 이내에 이동 혹은 비행하기 때문에, 무인 운반체(220)는 무인 운반체(220)의 현재 위치로부터 일정한 거리 이내인 위치 데이터의 영역만을 검색할 수 있다.
1430동작에서, 무인 운반체(220)는 검색 영역 내에서 센싱 정보와 매칭되는 위치 데이터를 결정할 수 있다. 예를 들어, 위치 무관 센싱 정보가 무인 비행체(210)에 의해 촬영된 이미지인 경우, 무인 운반체(220)는 1420동작에서 결정된 검색 영역 내에 포함된 복수의 이미지들 중에서, 촬영된 이미지와 매칭되는 이미지를 결정할 수 있다. 무인 운반체(220)는 복수의 이미지들 중에서, 촬영된 이미지와 지정된 값 이상의 유사도를 가지는 이미지를 결정할 수 있다. 무인 운반체(220)는 촬영된 이미지와 지정된 값 이상의 유사도를 가지는 하나 이상의 이미지들 중에서, 가장 유사도가 높은 이미지를 결정할 수 있다. 무인 운반체(220)는 결정된 이미지에 매핑된 위치 데이터를, 촬영된 이미지와 매칭되는 위치 데이터로 결정할 수 있다.
1440동작에서, 무인 운반체(220)는 무인 비행체(210)의 위치를 결정할 수 있다. 무인 운반체(220)는 1430동작에서 결정된 위치 데이터를 이용하여, 무인 비행체(210)의 위치를 결정할 수 있다.
일 실시 예에서, 검색 영역 내에서 결정된 이미지와, 촬영된 이미지는 동일한 외부 오브젝트에 대한 피사체를 포함할 수 있다. 무인 운반체(220)는 동일한 외부 오브젝트에 대한 피사체의 이미지 내 위치 차이, 혹은 길이, 크기 차이를 이용하여, 무인 비행체(210)의 위치를 결정할 수 있다.
예를 들어, 동일한 외부 오브젝트에 대한 피사체의 길이 및 크기는 동일하되 이미지 내 위치만 상이한 경우, 위치의 차이 값을 실제 거리 값으로 환산하고, 환산된 값을, 결정된 이미지에 매핑된 위치 데이터에 적용함으로써, 무인 비행체(210)의 위치를 결정할 수 있다.
다른 예를 들어, 동일한 외부 오브젝트에 대한 피사체의 길이 및 크기, 위치가, 검색 영역 내에서 결정된 이미지와, 촬영된 이미지 내에서 동일한 경우, 검색 영역 내에서 결정된 이미지에 매핑된 위치 데이터를, 무인 비행체(210)의 위치로 결정할 수 있다.
도 15a - 15c는 본 발명의 다양한 실시 예들에 따라 무인 운반체가 무인 비행체에 추가 이동 명령을 전송하는 방법을 설명하기 위한 도면이다.
구체적으로, 도 15a - 15c는 타겟 위치로의 이동을 완료하였다는 정보를 무인 비행체(210)로부터 수신한 무인 운반체(220)가, 무인 비행체(210)의 위치를 조정하는 방법을 설명하기 위한 도면이다.
도 15a는 무인 운반체(220)로부터 타겟 위치로의 이동 명령을 수신한 무인 비행체(210)가 이동 명령에 따른 이동을 완료한 상태를 도시하고 있다. 타겟 위치는 물품의 적재 또는 저장을 위한 물리적 구조물(1550, 예: 랙(rack))과 관련된 위치일 수 있다. 물리적 구조물(1550)은 수평 구조물(1510) 및 수직 구조물(1512)을 포함할 수 있다. 예를 들어, 타겟 위치의 높이는 물리적 구조물(1550)을 구성하는 수평 구조물(1510)의 높이에 지정된 값을 더한 높이일 수 있다. 또한, 타겟 수평 위치는 물리적 구조물(1550)로부터 지정된 방향으로 지정된 길이만큼 떨어진 위치일 수 있다.
일 실시 예에서, 물리적 구조물(1550)을 구성하는 수평 구조물(1510)의 외관에 하나 이상의 심볼들(1532, 1534, 1536)이 배치될 수 있다. 하나 이상의 심볼들(1532, 1534, 1536)은 수평 구조물의 적재 영역을 구분하기 위한 심볼들일 수 있으며, 재고 조사의 결과와 무관하게(즉, 상품의 유무와 무관하게) 고정된 위치에 항상 존재할 수 있다. 예를 들어, 심볼(1532)에 대응하는 적재 영역에는 물품(1520 내지 1524)이 적재될 수 있으며, 심볼(1534)에 대응하는 적재 영역에는 물품(1526, 1528)이 적재될 수 있고, 심볼(1536)에 대응하는 적재 영역에는 물품(1530)이 적재될 수 있다.
도 15b는 무인 비행체(210)가 이동 명령에 따른 이동을 완료한 후, 무인 비행체(210)에 의해 획득된 위치 무관 센싱 정보를 나타낸 도면이다. 일 실시 예에서, 위치 무관 센싱 정보는 무인 비행체(210)의 카메라(215)에 의해 촬영된 이미지(1540)일 수 있다. 무인 비행체(210)는 촬영된 이미지(1540)와 함께 이동 명령에 따른 이동을 완료했음을 나타내는 신호를 무인 운반체(220)에 전송할 수 있다.
일 실시 예에서, 무인 비행체(210)로부터 촬영된 이미지(1540)와 함께 이동을 완료했음을 나타내는 신호를 수신한 무인 운반체(220)는, 무인 비행체(210)의 위치를 결정할 수 있다. 일 실시 예에서, 무인 운반체(220)는 촬영된 이미지(1540)를 메모리(440)에 저장된 복수의 이미지들과 비교하고, 비교 결과를 이용하여 무인 비행체(210)의 위치를 결정할 수 있다. 예를 들어, 무인 운반체(220)는 메모리(440)에 저장된 복수의 이미지들 중에서, 촬영된 이미지(1540)와 가장 유사도가 높은 이미지를 결정할 수 있다. 촬영된 이미지(1540)와, 메모리(440)에서 결정된 이미지는 동일한 심볼(예: 1532)에 대한 피사체를 포함할 수 있다. 무인 운반체(220)는 동일한 심볼에 대한 피사체의 이미지 내 위치 차이를 이용하여 무인 비행체(210)의 위치를 결정할 수 있다. 예를 들어, 촬영된 이미지(1540) 내 심볼(1532)의 피사체가, 촬영된 이미지(1540)의 좌측 하단 꼭지점을 기준 점으로 하는 2차원 좌표 계에서 (6, 7) 위치에 위치하고, 메모리(440)에서 결정된 이미지 내 심볼(1532)의 피사체가, 메모리(440)에서 결정된 이미지의 좌측 하단 꼭지점을 기준 점으로 하는 2차원 좌표 계에서 (8, 10)에 위치한다면, x축 좌표 값의 차이(2)와 y축 좌표 값의 차이(3)를 이용하여, 무인 비행체(210)의 위치를 결정할 수 있다. 무인 운반체(220)는 x축 좌표 값의 차이(2)와 y축 좌표 값의 차이(3)를 실제 거리 값으로 환산하고, 환산된 값을 메모리(440)에서 결정된 이미지와 매핑된 위치 데이터에 적용함으로써, 무인 비행체(210)의 위치를 결정할 수 있다.
일 실시 예에서, 결정된 무인 비행체(210)의 위치가 타겟 위치와 지정된 값 이상의 차이가 날 경우, 무인 운반체(220)는 무인 비행체(210)로, 상기 타겟 위치를 위한 추가 이동 명령을 전송할 수 있다. 예를 들어, 촬영된 이미지(1540)를 이용하여 결정된 무인 비행체(210)의 위치가 (3, 4, 4)이고, 타겟 위치가 (3, 4, 5)인 경우, 무인 운반체(220)는 (0, 0, 1)만큼 이동할 것을 나타내는 이동 명령을 무인 비행체(210)에 전송할 수 있다.
다른 실시 예에서, 무인 비행체(210)의 위치가 타겟 위치와 지정된 값 이상의 차이가 나지 않는다 하더라도, 촬영된 이미지(1540) 내에 물품(1512 내지 1530)의 재고 조사를 위한 태그(예: 1538, 1540, 1542)가 검출되지 않는 경우, 무인 운반체(220)는 무인 비행체(210)로 상기 타겟 위치를 위한 추가 이동 명령을 전송할 수 있다. 예를 들어, 촬영된 이미지(1540)를 이용하여 결정된 무인 비행체(210)의 위치가 (3, 4, 3.7)이고, 타겟 위치가 (3, 4, 5)이며, 지정된 값이 (0.4)이며, 촬영된 이미지(1540) 내에 물품(1512 내지 1530)의 재고 조사를 위한 태그(예: 1538, 1540, 1542)가 검출되지 않는 경우를 가정해보자. 무인 운반체(220)는 무인 비행체(210)의 위치와 타겟 위치의 차이가 지정된 값 이내이지만, 촬영된 이미지(1540) 내에 태그가 검출되지 않았으므로, 상기 타겟 위치를 위한 추가 이동 명령(예; (0, 0, 0.3)만큼 이동할 것을 나타내는 이동 명령)을 무인 비행체(210)에 전송할 수 있다.
도 15c는 무인 비행체(210)가 추가 이동 명령에 따른 이동을 완료한 후, 무인 비행체에 의해 획득된 위치 무관 센싱 정보를 나타낸 도면이다.
도 15b에 개시된 이미지(1540)와 달리, 추가 이동 명령에 따른 이동을 완료한 후 무인 비행체(210)에 의해 획득된 위치 무관 센싱 정보는 하나 이상의 태그(예: 1538, 1540, 1542)를 포함할 수 있다.
일 실시 예에서, 무인 운반체(220)는 상기 타겟 위치에 대한 추가 이동 명령이 더 이상 없으며, 현재 위치에서 재고 조사를 수행할 것을 나타내는 명령을 무인 비행체(210)에 전송할 수 있다. 현재 위치에서 재고 조사를 수행할 것을 나타내는 명령을 수신한 무인 비행체(210)는 리더기(218)를 이용하여, 하나 이상의 태그(1538, 1540, 1542)를 인식함으로써, 하나 이상의 물품들의 재고를 파악할 수 있다.
본 발명의 다양한 실시 예들에 따른 무인 비행체(예: 도 2의 무인 비행체(210)의 동작 방법은, 상기 무인 비행체로부터 지정된 거리 이내에 위치한 무인 운반체(예: 도 2의 무인 운반체(220))로부터, 상기 무인 비행체의 현재 위치를 기준으로 하는 이동 명령을 수신하는 동작, 상기 이동 명령에 따라 상기 무인 비행체가 이동하는 도중, 상기 무인 비행체에 포함된 적어도 하나의 센서(예: 센서(320))를 이용하여, 위치 무관 센싱 정보를 획득하는 동작, 상기 무인 운반체가 상기 위치 무관 센싱 정보를 이용하여 상기 무인 비행체의 위치를 결정하도록, 상기 위치 무관 센싱 정보를 상기 무인 운반체에 전송하는 동작을 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 지정된 거리는, 상기 무인 비행체가 수행하는 근거리 무선 통신의 커버리지일 수 있다.
다양한 실시 예들에 따르면, 상기 위치 무관 센싱 정보는 정적 이미지 혹은 동적 이미지 중 적어도 하나를 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 무인 비행체의 현재 위치를 기준으로 하는 이동 명령은, 이동 방향 및 이동 거리에 대한 정보를 포함하고, 상기 이동 방향은, 미리 결정된 좌표 계의 좌표 형식으로 구성되고, 상기 이동 거리는, 특정한 시구간에 대한 속도 프로파일 형식으로 구성될 수 있다.
다양한 실시 예들에 따르면, 상기 무인 비행체의 현재 위치를 기준으로 하는 이동 명령은, 상기 무인 운반체로의 복귀 명령을 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 이동 명령에 따른 이동이 완료되었다는 판단에 응답하여, 이동이 완료되었음을 나타내는 정보를 무인 운반체에 전송하는 동작을 더 포함할 수 있다.
다양한 실시 예들에 따르면, 상기 이동 명령이 복귀 명령인 경우, 상기 이동이 완료되었음을 나타내는 정보를 전송함과 동시에, 혹은 전송한 후, 상기 운반체의 이동을 요청하는 신호를 상기 무인 운반체에 전송하는 동작을 더 포함할 수 있다.
본 명세서와 도면에 개시된 실시 예들은 본 발명의 내용을 쉽게 설명하고, 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
Claims (15)
- 무인 비행체(unmanned aerial vehicle)에 있어서,무선 통신 회로;적어도 하나의 센서;상기 무선 통신 회로와 상기 적어도 하나의 센서에 작동적으로 연결된 프로세서; 및상기 프로세서와 작동적으로 연결된 메모리를 포함하며,상기 메모리는, 실행 시에, 상기 프로세서가,상기 무선 통신 회로를 이용하여, 상기 무인 비행체로부터 지정된 거리 이내 위치한 무인 운반체(automated guided vehicle)로부터, 상기 무인 비행체의 현재 위치를 기준으로 하는 이동 명령(moving command)을 수신하고,상기 이동 명령에 따라 상기 무인 비행체가 이동하는 도중, 상기 적어도 하나의 센서를 이용하여 위치 무관(position-unrelated) 센싱 정보를 획득하고,상기 무인 운반체가 상기 위치 무관 센싱 정보를 이용하여 상기 무인 비행체의 위치를 결정하도록, 상기 위치 무관 센싱 정보를 상기 무인 운반체에 전송하도록 하는 명령어들(instructions)을 저장하는 무인 비행체.
- 제1항에 있어서,상기 무선 통신 회로는 근거리 무선 통신을 수행하도록 설정되며,상기 지정된 거리는, 상기 근거리 무선 통신의 커버리지(coverage)인 무인 비행체.
- 제1항에 있어서,상기 적어도 하나의 센서는 이미지 센서를 포함하고,상기 위치 무관 센싱 정보는 상기 이미지 센서를 통해 획득된 정적 이미지 혹은 동적 이미지 중 적어도 하나를 포함하는 무인 비행체.
- 제1항에 있어서,상기 무인 비행체의 현재 위치를 기준으로 하는 이동 명령은, 이동 방향 및 이동 거리에 대한 정보를 포함하고,상기 이동 방향은, 미리 결정된 좌표계의 좌표 형식으로 구성되고,상기 이동 거리는, 특정한 시구간에 대한 속도 프로파일 형식으로 구성되는 무인 비행체.
- 제4항에 있어서,상기 무인 비행체의 현재 위치를 기준으로 하는 이동 명령은, 상기 무인 운반체로의 복귀 명령을 포함하는 무인 비행체.
- 제5항에 있어서,상기 명령어들은 상기 프로세서가,상기 이동 명령에 따른 이동이 완료되었다는 판단에 응답하여(in response to determination that), 이동이 완료되었음을 나타내는 정보를 상기 무인 운반체에 전송하도록 하는 무인 비행체.
- 제6항에 있어서,상기 명령어들은 상기 프로세서가,상기 이동 명령이 복귀 명령인 경우, 상기 이동이 완료되었음을 나타내는 정보를 전송함과 동시에, 혹은 전송한 후, 상기 무인 운반체의 이동을 요청하는 신호를 상기 무인 운반체에 전송하도록 하는 무인 비행체.
- 제1항에 있어서,충전 회로를 더 포함하고,상기 충전 회로는 상기 무인 운반체로부터 유선 혹은 무선으로 전력을 공급받도록 설정된 무인 비행체.
- 무인 운반체에 있어서,무선 통신 회로;적어도 하나의 센서;상기 무선 통신 회로와 상기 적어도 하나의 센서에 작동적으로 연결된 프로세서; 및상기 프로세서와 작동적으로 연결된 메모리를 포함하며,상기 메모리는, 실행 시에, 상기 프로세서가,상기 무선 통신 회로를 이용하여, 상기 무인 운반체로부터 지정된 거리 이내에 위치한 무인 비행체로부터, 위치 무관 센싱 정보를 수신하고,상기 적어도 하나의 센서를 이용하여 획득한 상기 무인 운반체의 위치 및 상기 위치 무관 센싱 정보를 이용하여, 상기 무인 비행체의 위치를 결정하고,상기 무인 운반체의 위치에 기반하여, 상기 무인 비행체의 위치를 기준으로 하는 이동 명령을 상기 무인 비행체에 전송하도록 하는 명령어들을 저장하는 무인 운반체.
- 제9항에 있어서,상기 위치 무관 센싱 정보는 정적 이미지 혹은 동적 이미지 중 적어도 하나를 포함하며,상기 명령어들은,상기 메모리에 저장된 복수의 이미지들 중에서, 상기 위치 무관 센싱 정보에 매칭되는 이미지를 결정하고,상기 결정된 이미지와 상기 위치 무관 센싱 정보에 공통적으로 포함된 피사체의 길이, 크기 혹은 위치의 차이 중 적어도 하나를 이용하여, 상기 무인 비행체의 위치를 결정하도록 하는 무인 운반체.
- 제9항에 있어서,상기 위치 무관 센싱 정보는 정적 이미지 혹은 동적 이미지 중 적어도 하나를 포함하며,상기 명령어들은,상기 무인 운반체의 위치에 기반하여 상기 메모리 내 검색 영역을 결정하고,상기 검색 영역 내에서, 상기 위치 무관 센싱 정보와 매칭되는 위치 데이터를 결정하고,상기 위치 데이터에 기반하여 상기 무인 운반체의 위치를 결정하도록 하는 무인 운반체.
- 무인 비행체의 동작 방법에 있어서,상기 무인 비행체로부터 지정된 거리 이내에 위치한 무인 운반체로부터, 상기 무인 비행체의 현재 위치를 기준으로 하는 이동 명령을 수신하는 동작,상기 이동 명령에 따라 상기 무인 비행체가 이동하는 도중, 상기 무인 비행체에 포함된 적어도 하나의 센서를 이용하여, 위치 무관 센싱 정보를 획득하는 동작,상기 무인 운반체가 상기 위치 무관 센싱 정보를 이용하여 상기 무인 비행체의 위치를 결정하도록, 상기 위치 무관 센싱 정보를 상기 무인 운반체에 전송하는 동작을 포함하는 무인 비행체의 동작 방법.
- 제 12항에 있어서,상기 지정된 거리는, 상기 무인 비행체가 수행하는 근거리 무선 통신의 커버리지인 무인 비행체의 동작 방법.
- 제 12항에 있어서,상기 위치 무관 센싱 정보는 상기 무인 비행체의 이미지 센서를 통해 획득된 정적 이미지 혹은 동적 이미지 중 적어도 하나를 포함하는 무인 비행체의 동작 방법.
- 제12항에 있어서,상기 무인 비행체의 현재 위치를 기준으로 하는 이동 명령은, 이동 방향 및 이동 거리에 대한 정보를 포함하고,상기 이동 방향은, 미리 결정된 좌표계의 좌표 형식으로 구성되고,상기 이동 거리는, 특정한 시구간에 대한 속도 프로파일 형식으로 구성되는 무인 비행체의 동작 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/760,168 US11720105B2 (en) | 2017-12-18 | 2018-12-17 | Unmanned aerial vehicle and method for operating same, and automated guided vehicle for controlling movement of unmanned aerial vehicle |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2017-0174122 | 2017-12-18 | ||
KR1020170174122A KR102465066B1 (ko) | 2017-12-18 | 2017-12-18 | 무인 비행체 및 그의 동작 방법, 그리고 상기 무인 비행체의 이동을 제어하기 위한 무인 운반체 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019124894A1 true WO2019124894A1 (ko) | 2019-06-27 |
Family
ID=66994793
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2018/015977 WO2019124894A1 (ko) | 2017-12-18 | 2018-12-17 | 무인 비행체 및 그의 동작 방법, 그리고 상기 무인 비행체의 이동을 제어하기 위한 무인 운반체 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11720105B2 (ko) |
KR (1) | KR102465066B1 (ko) |
WO (1) | WO2019124894A1 (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111610910A (zh) * | 2020-04-22 | 2020-09-01 | 深圳市云伽智能技术有限公司 | 车辆刷隐藏功能的方法、装置、计算机设备及存储介质 |
JP2022539025A (ja) * | 2019-07-12 | 2022-09-07 | 霊動科技(北京)有限公司 | 無人機と組み合わせた自律移動ロボット棚卸システム |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110632925B (zh) * | 2019-09-18 | 2020-12-01 | 同济大学 | 一种无人机辅助的agv自引导系统及其方法 |
KR20210040216A (ko) * | 2019-10-02 | 2021-04-13 | 삼성전자주식회사 | 재고 관리를 위한 무인 비행체 및 그의 동작 방법 |
US11138465B2 (en) * | 2019-12-10 | 2021-10-05 | Toyota Research Institute, Inc. | Systems and methods for transforming coordinates between distorted and undistorted coordinate systems |
DE102020133296B3 (de) * | 2020-12-14 | 2022-03-10 | Ssi Schäfer Automation Gmbh | Rettungsmodus in Shuttle-Regalanordnung |
CN112987718B (zh) * | 2021-01-15 | 2022-03-04 | 北京理工大学 | 一种基于异构机器人的自主跟踪系统及方法 |
JP7096614B1 (ja) | 2021-05-27 | 2022-07-06 | ユーピーアール株式会社 | 飛行体制御システムおよび荷物管理システム |
JP7116451B1 (ja) * | 2021-05-27 | 2022-08-10 | ユーピーアール株式会社 | 飛行体制御システムおよび荷物管理システム |
JP7164900B1 (ja) | 2021-05-28 | 2022-11-02 | ユーピーアール株式会社 | 飛行体制御システムおよび荷物管理システム |
CN114115346B (zh) * | 2021-11-24 | 2024-08-16 | 杭州米阳科技有限公司 | 基于无人机的仓储运输管理设备 |
CN114572398A (zh) * | 2022-03-24 | 2022-06-03 | 上海顺诠科技有限公司 | 空陆无人机的充电及巡检接替系统及其方法 |
KR102514846B1 (ko) * | 2022-09-13 | 2023-03-29 | 대한항업(주) | 항공촬영 영상이미지 정보의 정밀도를 향상시킨 영상처리 갱신 시스템 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160024562A (ko) * | 2014-08-26 | 2016-03-07 | 연세대학교 산학협력단 | 복수의 uav를 이용한 스테레오 비전 시스템 |
KR20160056671A (ko) * | 2014-11-12 | 2016-05-20 | 국민대학교산학협력단 | 무인 드론 연동형 라인트레이싱 기반의 무인 비행체를 이용한 무인 운송 시스템 및 이를 이용한 무인 운송 서비스 방법 |
KR101625630B1 (ko) * | 2016-02-24 | 2016-06-01 | 공간정보기술 주식회사 | 드론으로 촬영된 촬영이미지의 특정위치를 지도에 표시할 수 있는 위치확인시스템 |
KR20170114463A (ko) * | 2016-04-05 | 2017-10-16 | 한국항공우주연구원 | 감시 카메라를 포함하는 무인항공기와 제어 스테이션 |
JP2017218325A (ja) * | 2016-06-03 | 2017-12-14 | 裕之 本地川 | 情報収集装置およびこれを用いた物品管理システム、ならびに巻取装置 |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5961571A (en) * | 1994-12-27 | 1999-10-05 | Siemens Corporated Research, Inc | Method and apparatus for automatically tracking the location of vehicles |
US9067671B2 (en) * | 2013-07-25 | 2015-06-30 | Disney Enterprises, Inc. | Visual localization of unmanned aerial vehicles based on marker detection and processing |
KR101563078B1 (ko) | 2014-01-29 | 2015-10-23 | 주식회사 포스코아이씨티 | 미션 블록을 이용한 무인항공 시스템 및 이를 이용하는 방법 |
KR101580609B1 (ko) | 2014-04-25 | 2015-12-28 | 연세대학교 산학협력단 | 무인항공기 탑재 무인지상차량 |
US9494937B2 (en) * | 2014-06-20 | 2016-11-15 | Verizon Telematics Inc. | Method and system for drone deliveries to vehicles in route |
US20160247116A1 (en) | 2015-02-19 | 2016-08-25 | Droneware Technology Corporation | Method and apparatus for warehouse cycle counting using a drone |
KR20160133806A (ko) * | 2015-05-13 | 2016-11-23 | 인하대학교 산학협력단 | 무인 비행체 유도 방법 및 장치 |
KR20160142482A (ko) * | 2015-06-02 | 2016-12-13 | 고려대학교 산학협력단 | 건설용 무인 비행체 장치 |
US9689686B1 (en) * | 2015-09-25 | 2017-06-27 | Amazon Technologies, Inc. | Detecting of navigation data spoofing based on image data |
WO2017062418A1 (en) * | 2015-10-05 | 2017-04-13 | Asylon, Inc. | Methods and apparatus for reconfigurable power exchange for multiple uav types |
US10403153B2 (en) * | 2016-01-05 | 2019-09-03 | United States Of America As Represented By The Administrator Of Nasa | Autonomous emergency flight management system for an unmanned aerial system |
US9911189B1 (en) * | 2016-06-30 | 2018-03-06 | Kitty Hawk Corporation | Navigation based on downward facing sensors |
EP3494364A1 (en) * | 2016-08-05 | 2019-06-12 | Neu Robotics, Inc, | Mobile platform eg drone / uav performing localization and mapping using video |
US11164149B1 (en) * | 2016-08-31 | 2021-11-02 | Corvus Robotics, Inc. | Method and system for warehouse inventory management using drones |
US10642272B1 (en) * | 2016-09-28 | 2020-05-05 | Amazon Technologies, Inc. | Vehicle navigation with image-aided global positioning system |
US10152059B2 (en) * | 2016-10-10 | 2018-12-11 | Qualcomm Incorporated | Systems and methods for landing a drone on a moving base |
US10562398B2 (en) * | 2016-11-22 | 2020-02-18 | Walmart Apollo, Llc | System and method for autonomous battery replacement |
JP7091613B2 (ja) * | 2017-07-05 | 2022-06-28 | ソニーグループ株式会社 | 撮像装置、カメラ装着ドローン、およびモード制御方法、並びにプログラム |
US10387727B2 (en) * | 2017-09-13 | 2019-08-20 | Wing Aviation Llc | Backup navigation system for unmanned aerial vehicles |
WO2019133374A1 (en) * | 2017-12-29 | 2019-07-04 | Walmart Apollo, Llc | System and method for determining autonomous vehicle location using incremental image analysis |
US20200150695A1 (en) * | 2018-02-13 | 2020-05-14 | Honeywell International Inc. | Environment-adaptive sense and avoid system for unmanned vehicles |
JP7106160B2 (ja) * | 2018-03-27 | 2022-07-26 | 株式会社Acsl | 無人航空機 |
WO2019245665A2 (en) * | 2018-05-09 | 2019-12-26 | Blacknight Holdings, Llc | Autonomous virtual wall |
US10890921B2 (en) * | 2018-05-31 | 2021-01-12 | Carla R. Gillett | Robot and drone array |
US11036240B1 (en) * | 2018-06-18 | 2021-06-15 | Amazon Technologies, Inc. | Safe landing of aerial vehicles upon loss of navigation |
US11531833B2 (en) * | 2020-01-16 | 2022-12-20 | Honeywell International Inc. | Creating a ground control point file using an existing landmark shown in images |
US11670181B2 (en) * | 2020-01-22 | 2023-06-06 | Honeywell International Inc. | Systems and methods for aiding landing of vertical takeoff and landing vehicle |
US11253736B2 (en) * | 2020-03-12 | 2022-02-22 | RapidDeploy, Inc. | Dispatching UAVs for wildfire surveillance |
US20220113720A1 (en) * | 2020-10-08 | 2022-04-14 | Xtend Reality Expansion Ltd. | System and method to facilitate remote and accurate maneuvering of unmanned aerial vehicle under communication latency |
-
2017
- 2017-12-18 KR KR1020170174122A patent/KR102465066B1/ko active IP Right Grant
-
2018
- 2018-12-17 US US16/760,168 patent/US11720105B2/en active Active
- 2018-12-17 WO PCT/KR2018/015977 patent/WO2019124894A1/ko active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160024562A (ko) * | 2014-08-26 | 2016-03-07 | 연세대학교 산학협력단 | 복수의 uav를 이용한 스테레오 비전 시스템 |
KR20160056671A (ko) * | 2014-11-12 | 2016-05-20 | 국민대학교산학협력단 | 무인 드론 연동형 라인트레이싱 기반의 무인 비행체를 이용한 무인 운송 시스템 및 이를 이용한 무인 운송 서비스 방법 |
KR101625630B1 (ko) * | 2016-02-24 | 2016-06-01 | 공간정보기술 주식회사 | 드론으로 촬영된 촬영이미지의 특정위치를 지도에 표시할 수 있는 위치확인시스템 |
KR20170114463A (ko) * | 2016-04-05 | 2017-10-16 | 한국항공우주연구원 | 감시 카메라를 포함하는 무인항공기와 제어 스테이션 |
JP2017218325A (ja) * | 2016-06-03 | 2017-12-14 | 裕之 本地川 | 情報収集装置およびこれを用いた物品管理システム、ならびに巻取装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022539025A (ja) * | 2019-07-12 | 2022-09-07 | 霊動科技(北京)有限公司 | 無人機と組み合わせた自律移動ロボット棚卸システム |
JP7284963B2 (ja) | 2019-07-12 | 2023-06-01 | 霊動科技(北京)有限公司 | 無人機と組み合わせた自律移動ロボット棚卸システム |
EP3998563A4 (en) * | 2019-07-12 | 2023-08-09 | Lingdong Technology (Beijing) Co. Ltd | AUTONOMOUS MOBILE ROBOT VERIFICATION SYSTEM COMBINED WITH AN UNDRIVEN AERIAL VEHICLE |
CN111610910A (zh) * | 2020-04-22 | 2020-09-01 | 深圳市云伽智能技术有限公司 | 车辆刷隐藏功能的方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US11720105B2 (en) | 2023-08-08 |
US20200257295A1 (en) | 2020-08-13 |
KR102465066B1 (ko) | 2022-11-09 |
KR20190072944A (ko) | 2019-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019124894A1 (ko) | 무인 비행체 및 그의 동작 방법, 그리고 상기 무인 비행체의 이동을 제어하기 위한 무인 운반체 | |
WO2018110848A1 (en) | Method for operating unmanned aerial vehicle and electronic device for supporting the same | |
WO2018074903A1 (ko) | 이동 로봇의 제어방법 | |
WO2018066816A1 (ko) | 공항용 로봇 및 그의 동작 방법 | |
WO2020013607A1 (en) | Server device and method for collecting location information of other devices | |
WO2020130691A1 (en) | Electronic device and method for providing information thereof | |
WO2020149689A1 (ko) | 영상 처리 방법 및 이를 지원하는 전자 장치 | |
WO2020153818A1 (en) | Method of controlling external electronic device and electronic device for supporting same | |
WO2022080869A1 (ko) | 이미지를 이용한 3차원 지도의 업데이트 방법 및 이를 지원하는 전자 장치 | |
WO2021137402A1 (en) | Electronic device detecting location and method thereof | |
WO2020013608A1 (en) | Electronic device, server device, and method for determining location of electronic device | |
WO2020111727A1 (ko) | 전자 장치 및 전자 장치의 제어 방법 | |
WO2022010115A1 (ko) | Uwb 서비스를 제공하기 위한 안테나 제어 방법 및 이를 지원하는 전자 장치 | |
WO2022005227A1 (ko) | 자기 센서를 포함하는 전자 장치 및 자기 검출 방법 | |
WO2019124728A1 (ko) | 객체를 식별하기 위한 장치 및 방법 | |
WO2018135745A1 (ko) | 차량 주변의 객체를 나타내는 영상을 생성하는 방법 및 장치 | |
WO2020085712A1 (ko) | 전자 장치 및 전자 장치의 위치 측정 방법 | |
WO2023287103A1 (ko) | 청소 로봇을 제어하는 전자 장치 및 그 동작 방법 | |
WO2022211239A1 (ko) | Uwb 통신에 기반한 컨텐츠 운용 방법 및 장치 | |
WO2022149702A1 (ko) | 안전한 보행을 위한 피드백 제공 방법 및 장치 | |
WO2021182845A1 (ko) | 위치 판단에 이용되는 데이터 처리 방법 및 이를 지원하는 전자 장치 | |
WO2021080163A1 (en) | Electronic device for detecting location and method thereof | |
WO2021107349A1 (ko) | 위치를 탐지하는 전자 장치 및 그 방법 | |
WO2020171641A1 (en) | Touch input processing method and electronic device supporting the same | |
WO2021215815A1 (ko) | 무선 통신 채널을 수립하는 전자 장치 및 이의 동작 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 18892971 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 18892971 Country of ref document: EP Kind code of ref document: A1 |