WO2018066837A1 - 공항 로봇 및 이를 포함하는 시스템 - Google Patents

공항 로봇 및 이를 포함하는 시스템 Download PDF

Info

Publication number
WO2018066837A1
WO2018066837A1 PCT/KR2017/010269 KR2017010269W WO2018066837A1 WO 2018066837 A1 WO2018066837 A1 WO 2018066837A1 KR 2017010269 W KR2017010269 W KR 2017010269W WO 2018066837 A1 WO2018066837 A1 WO 2018066837A1
Authority
WO
WIPO (PCT)
Prior art keywords
person
airport robot
airport
robot
driving
Prior art date
Application number
PCT/KR2017/010269
Other languages
English (en)
French (fr)
Inventor
김동훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2018066837A1 publication Critical patent/WO2018066837A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • B25J9/1666Avoiding collision or forbidden zones
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • B25J9/1676Avoiding collision or forbidden zones
    • G06Q50/40

Definitions

  • the present invention relates to an airport robot and a system including the same. More particularly, the present invention relates to an airport robot and a system including the same.
  • Conventional robots are designed to avoid collisions by detecting nearby obstacles while driving. Therefore, when the robot detects a person located in front of the driving direction while driving, the robot avoids collision with the person by switching the driving direction.
  • the present invention provides an airport robot and a system including the same that can avoid collision with a person.
  • the present invention also provides an airport robot and a system including the same, which can avoid collision with a person by reflecting a driving situation.
  • the present invention also provides an airport robot and a system including the same, which can effectively avoid collision with a person by reflecting a surrounding environment in which the airport robot travels.
  • the present invention is to provide an airport robot and a system including the same that can prevent a collision with a person in a high probability of collision.
  • the present invention provides an airport robot and a system including the same, which effectively prevent a collision with a person by reflecting a sensed characteristic of the person.
  • an airport robot may include: an object recognizing unit configured to detect a characteristic related to a person; And a controller configured to adjust the traveling speed in response to a characteristic associated with the person when the person is present in an area within a predetermined distance from the airport robot. According to this, when a person is detected around the driving route while driving, collision with the person can be avoided by adjusting the traveling speed of the airport robot.
  • the controller may reduce the traveling speed as the distance between the human and the airport robot gets closer. According to this, a collision with a person can be avoided reflecting a driving situation.
  • the controller may reduce the traveling speed as more people are crowded around the airport robot. According to this, the collision with a person can be efficiently avoided reflecting the surrounding environment in which an airport robot runs.
  • the controller may stop driving of the airport robot when a person exists within a critical distance. According to this, the collision with the person in the situation with high possibility of collision can be prevented.
  • the controller may reduce the traveling speed of the airport robot as the height of the detected person is smaller. According to this, the collision with the person can be effectively prevented by reflecting the detected characteristic of the person.
  • a server for controlling an airport robot the communication unit for performing communication with the airport robot; And a controller configured to adjust the traveling speed in response to the characteristics related to the person when the communication unit receives data regarding whether the person exists in a region within a predetermined distance from the airport robot and the characteristics related to the person.
  • a system including an airport robot includes: an airport robot configured to detect whether a person exists in an area within a predetermined distance and to detect and transmit characteristics related to the person to a server; And a server controlling the airport robot to adjust the traveling speed in response to the characteristics associated with the person.
  • the traveling method includes: detecting a characteristic related to a person; And when a person exists in an area within a predetermined distance from the airport robot, adjusting a traveling speed in response to a characteristic associated with the person.
  • the airport robot can avoid a collision with a person.
  • the airport robot may avoid collision with a person by reflecting a driving situation.
  • the airport robot can effectively avoid collision with a person by reflecting the surrounding environment in which the airport robot travels.
  • the airport robot can prevent a collision with a person who is in a high probability of collision.
  • the airport robot can effectively prevent a collision with a person by reflecting the detected characteristics of the person.
  • FIG. 1 is a diagram showing a hardware configuration of an airport robot according to an embodiment of the present invention.
  • FIG. 2 is a view showing the structure of the software platform of the airport robot according to an embodiment of the present invention.
  • FIG. 3 is a view showing the configuration of the airport robot system according to an embodiment of the present invention.
  • FIG. 4 is a view showing a driving process of the airport robot according to an embodiment of the present invention.
  • 5A to 5C are diagrams for describing a driving method of an airport robot according to an exemplary embodiment of the present invention.
  • FIG. 6 is a view showing a driving process of the airport robot according to another embodiment of the present invention.
  • FIGS. 7A to 7C are diagrams for describing a driving method of an airport robot according to another exemplary embodiment of the present invention.
  • FIG. 8 is a view showing a driving process of the airport robot according to another embodiment of the present invention.
  • 9A and 9B are diagrams for describing a driving method of an airport robot according to still another exemplary embodiment of the present invention.
  • FIG. 10 is a view showing a driving process of the airport robot according to another embodiment of the present invention.
  • 11A and 11B are diagrams for describing a driving method of an airport robot according to still another exemplary embodiment of the present invention.
  • FIG. 1 is a diagram showing a hardware configuration of an airport robot according to an embodiment of the present invention.
  • the microcomputer 110 the power supply unit 120, the obstacle recognition unit 130, the driving driver 140, the application processor 150, the user interface unit 160, The object recognition unit 170, the location recognition unit 180, and the LAN module 190 may be included.
  • the airport robot 100 configured as described above may be configured by a part controlled by the microcomputer 110 and a part controlled by the application processor 150.
  • the part controlled by the microcomputer 110 may include the microcomputer 110, the power supply unit 120, the obstacle recognition unit 130, and the driving driver 140.
  • the part controlled by the application processor 150 may include an application processor 150, a user interface unit 160, an object recognition unit 170, a location recognition unit 180, and a LAN module 190. In this case, the microcomputer 110 and the application processor 150 may perform UART communication.
  • the microcomputer 110 may be a microcomputer made of a microprocessor integrated with a central processing unit (CPU) on a single high density integrated circuit (LSI) chip.
  • the microcomputer 110 may generally control the overall operation of the airport robot 100.
  • the microcomputer 110 may process or provide appropriate information or functions to the user by processing signals, data, information, or the like input or output through the components controlled by the microcomputer 110.
  • the microcomputer 110 may control at least some of the components shown in FIG. 1 or may operate at least two or more in combination with each other to drive the airport robot 100.
  • the power supply unit 120 supplies power to each component included in the airport robot 100 by receiving an external power source or an internal power source under the control of the microcomputer 110.
  • the power supply unit 120 may include a battery driver 121 and a battery 122.
  • the battery driver 121 may control the charging and discharging of the battery 122.
  • the battery 122 may supply power for driving the airport robot 100.
  • the battery 122 may be configured as a lithium-ion battery (Li-Ion Battery) or a rechargeable lead-acid battery which is configured by connecting two 24V / 102A lithium-ion batteries in parallel.
  • the battery 122 may be implemented in a built-in or replaceable form.
  • the obstacle recognition unit 130 may detect an obstacle located around the airport robot 100.
  • the obstacle recognition unit 130 may include one or more sensors for sensing at least one of information in the airport robot 100, surrounding environment information surrounding the airport robot 100, and user information.
  • the obstacle recognition unit 130 may include an IR remote control receiver 131, a USS 132, a Cliff PSD 133, an ARS 134, a Bumper 135, an OFS 136, and the like.
  • the IR remote controller receiver 131 may include a sensor for detecting a signal of an infrared (IR) remote controller for remotely controlling the airport robot 100.
  • the ultrasonic sensor (USS) 132 may detect distances, thicknesses, and movements by using characteristics of the ultrasonic waves or generating ultrasonic waves. For example, the ultrasonic sensor 132 may determine the distance between the obstacle and the airport robot 100 using the ultrasonic signal.
  • the Cliff PSD 133 may include a sensor for detecting a cliff or a cliff in an airport robot driving range of 360 degrees in all directions.
  • Attitude Reference System (ARS) 134 may include a sensor capable of detecting the attitude of the airport robot 100.
  • the ARS 134 may include a sensor consisting of three axes of acceleration and three axes of gyro for detecting the amount of rotation of the airport robot 100.
  • Bumper 135 may include a sensor for detecting a collision between the airport robot 100 and the obstacle.
  • the sensor included in the bumper 135 may detect a collision between the airport robot 100 and an obstacle in a 360 degree range.
  • OFS (Optical Flow Sensor) 136 may include a sensor that can measure the traveling distance of the airport robot 100 on the various phenomenon and the phenomenon of turning the wheel when the airport robot 100 runs.
  • the driving driver 140 may autonomously drive the airport robot 100.
  • the driving driver 140 may include a motor driver 141, a wheel motor 142, a rotation motor 143, a main brush motor 144, a side brush motor 145, and the like.
  • a suction motor 146 may be included.
  • the motor driver 141 may drive a wheel motor, a rotation motor, a brush motor, and a suction motor for driving and cleaning the airport robot 100.
  • the wheel motor 142 may drive a plurality of wheels to drive the airport robot 100.
  • the rotary motor 143 may be driven for left and right rotation and up and down rotation of the main body of the airport robot 100 or the head portion of the airport robot 100, or may be driven to change the direction or rotate the wheels of the airport robot 100. have.
  • the main brush motor 144 may drive a brush that sweeps up dirt from the airport floor 100.
  • the side brush motor 145 may drive a brush that sweeps up dirt in an area around an outer surface of the airport robot 100.
  • the suction motor 146 may be driven to suction dirt from the airport floor.
  • Application processor (AP) 150 may function as a central processing unit, that is, a control unit for managing the entire hardware module system of the airport robot 100. Specifically, the application processor 150 is input through a variety of sensors By using the location information, the application program for driving may be driven, or the user input / output information may be transmitted to the microcomputer 110 to control to drive the motor.
  • the user interface unit 160 is responsible for input and output of the user, the user interface processor (UI Processor, 161), LTE router (LTE Router, 162), WIFI SSID (163), microphone board (164), barcode reader (165) , A touch monitor 166, a speaker 167, and the like.
  • UI Processor 161
  • LTE router LTE Router
  • WIFI SSID 163
  • microphone board 164
  • barcode reader (165)
  • a touch monitor 166 a touch monitor 166
  • speaker 167 and the like.
  • the user interface processor 161 may control the operation of the user interface unit 160.
  • the LTE router 162 may perform LTE communication for receiving necessary information from the outside and transmitting information to the user.
  • the WIFI SSID 163 may analyze the WiFi signal strength to perform location recognition of the specific object or the airport robot 100.
  • the microphone board 164 may receive a plurality of microphone signals, process the voice signal into voice data which is a digital signal, and analyze the direction of the voice signal and the corresponding voice signal.
  • the barcode reader 165 may read barcode information written in a plurality of tickets used at an airport.
  • the touch monitor 166 may include a touch panel configured to receive a user input and a monitor for displaying output information.
  • the speaker 167 may serve to inform the user of specific information by voice.
  • the object recognizer 170 may include a 2D camera 171, an RGBD camera 172, and a recognition data processing module 173.
  • the 2D camera 171 may operate as a sensor that recognizes a person or an object based on the 2D image.
  • An RGBD camera (Red, Green, Blue, Distance, 172) is a sensor for detecting a person or object using captured images having depth data obtained from a camera with RGBD sensors or other similar 3D imaging devices. It can work.
  • the recognition data processing module 173 may recognize a person or an object by processing a signal such as a 2D image / image or a 3D image / image obtained from the 2D camera 171 and the RGBD camera 172.
  • the location recognition unit 180 recognizes a current location of the airport robot 100 and may include a stereo board (Stereo B / D, 181), a rider (Lidar, 182), and a SLAM camera 183.
  • the stereo board 181 may be in charge of data management for location recognition and obstacle recognition of the airport robot 100 by processing and processing sensing data collected from the rider 182 and the SLAM camera 183.
  • the SLAM camera Simultaneous Localization And Mapping camera, 183 can implement simultaneous location tracking and mapping technology.
  • the airport robot 100 may detect the surrounding environment information using the SLAM camera 183 and process the obtained information to prepare a map corresponding to the mission execution space and estimate its absolute position.
  • the rider (LIght Detection And Ranging: LIDAR, 182) is a laser radar, and may be a sensor that irradiates a laser beam and collects and analyzes backscattered light among light absorbed or scattered by an aerosol to perform position recognition.
  • the LAN 190 may communicate with the user interface processor 161, the recognition data processing module 173, the stereo board 181, and the AP 150.
  • the components shown in FIG. 1 are not essential to implementing the airport robot 100, so that the airport robot 100 described herein may have more or fewer components than those listed above. Can have That is, the airport robot 100 according to an embodiment of the present invention may include only some of the components shown in FIG. 1 according to a specialized function performed by the airport robot 100.
  • the airport robot 100 may include a component for recognizing an obstacle or a location in common, and a component specialized in a cleaning or guiding role may be included only when performing a corresponding function.
  • FIG. 2 is a view showing the structure of the software platform of the airport robot according to an embodiment of the present invention.
  • the microcomputer 210 and the application processor 220 may include a software platform having various structures according to embodiments.
  • the microcomputer 210 may include a data acquisition module 211, an emergency module 212, and a motor driver module 213.
  • the battery manager module 214 may include a battery manager module 214 and a data access service module 215.
  • the data acquisition module 211 may acquire data sensed from a plurality of sensors included in the airport robot 100 and transmit the data sensed to the data access service module 215.
  • the emergency module 212 is a module capable of detecting an abnormal state of the airport robot 100. When the airport robot 100 performs a predetermined type of action, the emergency module 212 detects that the airport robot 100 has entered an abnormal state. can do.
  • the motor driver module 213 may manage driving control of a wheel, a brush, and a suction motor for driving and cleaning the airport robot 100.
  • the battery manager module 214 may be responsible for charging and discharging the battery 122 of FIG. 1, and may transfer the battery state of the airport robot 100 to the data access service module 215.
  • the data access service module 215 may control operations of the data acquisition module 211, the emergency module 212, the motor driver module 213, and the battery manager module 214.
  • the application processor 220 may receive a user input from various cameras and sensors, recognize and process the same, and control the operation of the airport robot 100. To this end, the application processor 220 includes an interaction module 221, a user interface module 222, a display unit 223, a user input unit 224, and a state machine module. 225, a planning module 226, a navigation module 227, a motion module 228, and the like.
  • the interaction module 221 combines the recognition data received from the recognition data processing module 173 and the user input received from the user interface module 222 so that the user and the airport robot 100 can interact with each other.
  • the user interface module 222 provides a short distance command of a user input through a display unit 223 which is a monitor for providing the current situation and operation / information of the airport robot 100, a key, a touch screen, a reader, and the like. Receiving, receiving a remote signal such as a signal of the IR remote control for remote control of the airport robot 100, or manages the user input received from the user input unit 224 for receiving the user's input signal from a microphone or a barcode reader, etc. can do. When at least one user input is received, the user interface module 222 may transfer user input information to the state management module 225.
  • the state management module 225 receiving the user input information may manage the overall state of the airport robot 100 and may issue an appropriate command corresponding to the user input.
  • the planning module 226 determines a start and end time / action for a specific operation of the airport robot 100 according to the command received from the state management module 225, and determines which path the airport robot 100 should move to. Can be calculated
  • the navigation module 227 performs a function that is in charge of the overall driving of the airport robot 100, and may control the airport robot 100 to travel according to the driving route calculated by the planning module 226.
  • the motion module 228 may control to perform operations of the basic airport robot 100 in addition to driving.
  • the airport robot 100 may include a location recognition unit 230 and a map management module 240.
  • the position recognizer 230 may include a relative position recognizer 231 and an absolute position recognizer 234.
  • the relative position recognition unit 231 may correct the movement amount of the airport robot 100 through the RGM Mono sensor 232, and calculate the movement amount of the airport robot 100 for a predetermined time.
  • the relative position recognition unit 231 may recognize the current environment of the airport robot 100 through the LiDAR 233.
  • the absolute location recognition unit 234 may include a Wifi SSID 235 and a UWB 236.
  • the Wifi SSID 235 is a sensor module for absolute position recognition of the airport robot 100 and is a WIFI module for estimating a current position through Wifi SSID detection.
  • the Wifi SSID 235 may recognize the location of the airport robot 100 by analyzing the Wifi signal strength.
  • the UWB 236 may sense an absolute position of the airport robot 100 by calculating a distance between the transmitter and the receiver.
  • the map management module 240 may include a grid module 241, a path planning module 242, and a map partitioning module 243.
  • the grid module 241 may manage the grid-shaped map generated by the airport robot 100 through the SLAM camera or the map data of the surrounding environment for location recognition previously input to the airport robot 100.
  • the path planning module 242 may be responsible for calculating a travel route of the airport robots 100 in the map division for collaboration between the plurality of airport robots 100.
  • the path planning module 242 may calculate a travel route to which the airport robot 100 should move in an environment in which one airport robot 100 operates.
  • the map dividing module 243 may calculate an area to be in charge of each of the plurality of airport robots 100 in real time.
  • Data sensed and calculated by the location recognition unit 230 and the map management module 240 may be transferred to the state management module 225 again.
  • the state management module 225 sends a control command to the planning module 226 to control the operation of the airport robot 100 based on the data sensed and calculated by the location recognition unit 230 and the map management module 240. You can get off.
  • the software platform structure of the airport robot 100 shown in FIG. 2 may be changed according to a specialized function performed by the airport robot 100. For example, depending on whether the airport robot 100 performs a cleaning or guiding role, the state management module 225, the planning module 226, the navigation module 227, and the navigation module 227 associated with driving control of the airport robot 100 may be used.
  • the motion module 228 may be implemented differently.
  • FIG. 3 is a view showing the configuration of the airport robot system according to an embodiment of the present invention.
  • An airport robot system may include an airport robot 100, a mobile terminal 200, a server 300, and a camera 400.
  • the airport robot 100 may autonomously drive in the airport and perform a role of patrol, guide, cleaning, quarantine, and transportation.
  • the airport robot 100 may communicate with at least one of the mobile terminal 200, the server 300, and the camera 400.
  • the airport robot 100 may transmit and receive data including the server 300 and the situation information in the airport.
  • the airport robot 100 may receive image data photographing each zone of the airport from the camera 400 installed in the airport.
  • the airport robot 100 may monitor the overall situation of the airport based on the image data captured by the airport robot 100 and the image data received from the camera 400.
  • the airport robot 100 may receive a command directly from the user. For example, a command may be directly received from the user through a user input or a voice input for touching the display unit provided in the airport robot 100.
  • the airport robot 100 may autonomously travel in the airport according to a command received from the user, the server 300, or the mobile terminal 200, and perform operations such as patrol, guide, and cleaning.
  • the server 300 may receive information from the airport robot 100, the mobile terminal 200, and / or the camera 400.
  • the server 300 may integrate and store and manage information received from each device.
  • the server 300 may transmit the stored information to the airport robot 100 or the mobile terminal 200.
  • the server 300 may transmit a control command to each of the plurality of airport robots 100 arranged in the airport.
  • the camera 400 may include a camera installed in the airport.
  • the camera 400 may include a plurality of CCTV (Closed Circuit TeleVision) cameras, infrared thermal cameras, and the like installed in the airport.
  • the camera 400 may transmit the captured image to at least one of the airport robot 100, the mobile terminal 200, and the server 300.
  • the mobile terminal 200 may transmit and receive data with the server 300 in the airport.
  • the mobile terminal 200 may receive airport-related data such as a flight time schedule, an airport map, and the like from the server 300.
  • the user may obtain and receive information necessary for the airport from the server 300 through the mobile terminal 200.
  • the mobile terminal 200 may transmit data such as a picture, a video, and a message to the server 300.
  • a user may request a cleaning of a corresponding area by sending a lost child picture to the server 300 to receive a lost child or by taking a picture of an area requiring cleaning in the airport with a camera and transmitting the picture to the server 300. have.
  • the mobile terminal 200 may transmit / receive data with the airport robot 100.
  • the mobile terminal 200 may transmit a signal for calling the airport robot 100, a signal for commanding to perform a specific operation, or an information request signal to the airport robot 100.
  • the airport robot 100 may move to a location of the mobile terminal 200 or perform an operation corresponding to a command signal in response to a call signal received from the mobile terminal 200.
  • the airport robot 100 may transmit data corresponding to the information request signal to the mobile terminal 200 of each user.
  • FIG. 4 is a view showing a driving process of the airport robot according to an embodiment of the present invention.
  • the airport robot 100 may adjust the traveling speed corresponding to the distance from the person.
  • the airport robot 100 may decrease the traveling speed as the person approaches the person.
  • the airport robot 100 may increase the traveling speed as the distance from the person.
  • the airport robot 100 starts driving in the airport (S401).
  • the airport robot 100 may autonomously drive in the airport or travel a predetermined path in the airport in order to provide services to the airport users or to perform its role.
  • the airport robot 100 may autonomously generate a route and drive toward a destination without a line or GPS equipment on the airport floor.
  • the airport robot 100 may follow a line on the floor of the airport or may travel a preset route.
  • Services provided by the airport robot 100 may include guide, patrol, monitoring, notification, advertising, cleaning, goods delivery and transportation.
  • the airport robot 100 may be specialized in at least one service to provide only a corresponding service, or provide all kinds of services requested by a user or an administrator without a specialized service.
  • the airport robot 100 may autonomously travel in an airport or travel a predetermined route in the airport, in response to the type of service provided by the airport robot 100.
  • the airport robot 100 that provides the guide or the goods delivery service may autonomously drive in the airport.
  • the airport robot 100 providing a cleaning or monitoring service may travel a predetermined route within a predetermined area assigned to the airport robot 100.
  • the airport robot 100 detects an obstacle around a driving route (S402).
  • the airport robot 100 may detect an obstacle located around a driving path based on map information on the inside of the airport and / or data sensed by the obstacle recognition unit 130 of the airport robot 100.
  • the application processor 150 of the airport robot 100 compares the current location of the airport robot 100 recognized by the location recognition unit 180 with map information about the inside of the airport, and provides an obstacle located around a driving route. Can be detected. To this end, the airport robot 100 may store map information about the inside of the airport in an internal memory or receive it from the server 300.
  • the obstacle recognition unit 130 of the airport robot 100 may detect an obstacle located around the driving path by various types of sensors. For example, the obstacle recognizing unit 130 may measure whether or not the obstacle is present by measuring whether or not the laser or ultrasonic wave transmitted in a predetermined direction is reflected back.
  • the airport robot 100 may use both the map information and the data sensed by the obstacle recognition unit 130 to detect the obstacle more accurately.
  • the obstacle recognition unit 130 of the airport robot 100 may receive the obstacle information from the server, it may detect the obstacle located around the driving path.
  • the airport robot 100 may transmit location information of the airport robot 100 to a server.
  • the server may receive an image captured by cameras in the airport, and may detect an obstacle located around a driving path of the airport robot 100 based on the received image. In this case, the server may transmit the information about the obstacle located around the travel path of the airport robot 100 to the airport robot 100.
  • the server may calculate the congestion degree or the density of the person corresponding to the location information based on the received image, and transmit the congestion degree or the density to the airport robot 100.
  • the airport robot 100 determines whether a person is detected (S403).
  • the airport robot 100 may detect whether the object is an object or a person based on at least one of an object movement, a sensing temperature, and a sound.
  • the airport robot 100 measures the distance between the airport robot 100 and the person (S404).
  • the obstacle recognition unit 130 of the airport robot 100 may detect a distance from a person located around the driving path by various types of sensors. For example, the obstacle recognition unit 130 may measure the distance between the airport robot 100 and the person by measuring a time when the laser or ultrasonic wave transmitted in a predetermined direction is reflected back to the person.
  • step S403 determines whether person is detected (S403-No). If it is determined in step S403 that no person is detected (S403-No), the airport robot 100 returns to step S401 and continues driving in the airport.
  • the airport robot 100 adjusts the traveling speed based on the measured distance (S405).
  • the airport robot 100 when the airport robot 100 detects a person while driving at a normal speed, the airport robot 100 may decrease the traveling speed as the person approaches the person. In addition, the airport robot 100 may increase the traveling speed as it moves away from the person.
  • 5A to 5C are diagrams for describing a driving method of an airport robot according to an exemplary embodiment of the present invention.
  • 5A illustrates a case in which the airport robot 100 normally runs.
  • the airport robot 100 is traveling in the airport at a predetermined speed, that is, 2 km / h.
  • the airport robot 100 detects a person located in front of the driving direction.
  • 5B and 5C illustrate a case in which the airport robot 100 adjusts the traveling speed in response to a distance from a person.
  • the airport robot 100 adjusts the traveling speed in response to the distance from the person.
  • the airport robot 100 decreases the traveling speed to 1.5 km / h as the person gets closer, and decreases the traveling speed to 0.5 km / h when the person gets closer as shown in FIG. 5C. .
  • the airport robot 100 may continue driving by increasing the traveling speed to a predetermined speed, that is, 2km / h that the airport robot 100 was traveling before detecting the person.
  • the airport robot 100 may increase the traveling speed as the distance from the person.
  • the existing robot changes a driving path of the robot when the presence of the obstacle is detected.
  • a driving method is not efficient in the case of a robot running in a crowded airport. For example, even if the robot switches the driving direction, there is a high possibility that another person exists in the changed driving direction. In this case, the robot must search for the driving direction again.
  • a person may be present in all directions in front of the travel path of the robot, and may switch back to the path that the robot has passed. Therefore, a new driving method should be applied to the airport robot instead of the existing driving method of changing the driving direction and avoiding collision when sensing an obstacle.
  • the airport robot variably operates the driving speed depending on whether obstacles are detected. As a result, the airport robot can efficiently run while avoiding collision with obstacles in accordance with the location characteristics of the airport.
  • FIG. 6 is a view showing a driving process of the airport robot according to another embodiment of the present invention.
  • the airport robot 100 may adjust the traveling speed based on the density of the person.
  • the greater the density of people the more the driving speed may be reduced.
  • the airport robot 100 may reduce the traveling speed when a large number of people are detected.
  • the airport robot 100 may increase the running speed when the degree of congestion in the airport is small.
  • the airport robot 100 starts driving in the airport (S601).
  • the airport robot 100 detects an obstacle around a driving route (S602).
  • the airport robot 100 determines whether a person is detected (S603).
  • steps S601 to S603 have been described above with reference to FIG. 4, a detailed description thereof will be omitted.
  • the airport robot 100 measures the density of the person (S604).
  • the application processor 150 of the airport robot 100 may determine the density of the people around the driving route based on the two-dimensional image acquired by the object recognition unit 170 and the recognized person. Specifically, the application processor 150 analyzes the two-dimensional image to calculate the number of people located in the area around the travel route, and calculates a value obtained by dividing the area of the corresponding area by the number of people, thereby determining the density of the people around the travel route. can do.
  • the object recognition unit 170 may acquire a 2D image around the driving path by various types of sensors and recognize a person or an object based on the acquired image.
  • step S603 if it is determined in step S603 that no person is detected (S603-No), the airport robot 100 returns to step S601 to continue driving in the airport.
  • the airport robot 100 adjusts the traveling speed based on the measured density (S605).
  • the airport robot 100 when the airport robot 100 detects a person in an area around the driving path while driving at a normal speed, if the density of the person is greater than or equal to the reference value, the airport robot 100 may reduce the traveling speed as the density of the person is higher. In addition, the airport robot 100 may increase the running speed as the density of people is lower.
  • the airport robot 100 may adjust the running speed in response to the congestion degree in the airport that varies for each time zone. For example, the number of passengers at an airport varies by time of day. Accordingly, the airport robot 100 may reduce the traveling speed at a high congestion time and increase the traveling speed at a low congestion time without determining the density of people around the travel route.
  • FIGS. 7A to 7C are diagrams for describing a driving method of an airport robot according to another exemplary embodiment of the present invention.
  • FIG. 7A illustrates a case in which the airport robot 100 runs normally.
  • the airport robot 100 is traveling in the airport at a predetermined speed, that is, 2 km / h. In this case, the airport robot 100 detects the position of the person in front of the driving direction.
  • FIG. 7B and 7C illustrate a case in which the airport robot 100 adjusts the traveling speed in response to a dense degree of a person.
  • the airport robot 100 determines the density of the person and adjusts the traveling speed in response to the density of the person.
  • the airport robot 100 reduces the traveling speed to 1.5 km / h when the density of the person is greater than or equal to the reference value.
  • the airport robot 100 decreases the traveling speed to 0.5 km / h when the density of people is higher. Since FIG. 7C has a higher density of people than FIG. 7B, the airport robot 100 travels at a lower traveling speed in the case of FIG. 7C than in the case of FIG. 7B.
  • the airport robot 100 may continue running by increasing the traveling speed to a predetermined speed, that is, 2km / h that the airport robot 100 is running normally, when the density of the person is lower than the reference value.
  • the density of the person may be a density of the person in a region within a predetermined angle range from the traveling direction of the airport robot 100.
  • the airport robot 100 variably adjusts the traveling speed according to the density of the person.
  • the higher the density of people the higher the possibility that the airport robot 100 collides with the person. Therefore, when the density of people increases, the airport robot 100 may lower the traveling speed, thereby lowering the possibility of collision between the airport robot 100 and the person and preventing such an accident.
  • the airport robot 100 may travel to avoid a collision with an obstacle by reflecting a surrounding situation such as a real-time congestion degree of an airport.
  • the airport robot 100 may change the driving method based on the distribution of the person in the area in which the density and the density of the person are determined. For example, when the density around the airport robot 100 is the first density and people are evenly distributed around the airport robot 100, the airport robot 100 may lower the traveling speed. In another example, when the density around the airport robot 100 is the same first density as above, and a person is concentrated in front of the traveling direction of the airport robot 100, the airport robot 100 does not lower the running speed. You can bypass areas where people are concentrated. For another example, when the density around the airport robot 100 is the same first density as above, and a person is concentrated on the left side of the traveling direction of the airport robot 100, the airport robot 100 may use the airport robot 100. You can drive in the existing driving direction without slowing down the speed.
  • FIG. 8 is a view showing a driving process of the airport robot according to another embodiment of the present invention.
  • the airport robot 100 may stop driving when a person is detected within a predetermined area.
  • the airport robot 100 may stop the driving.
  • the airport robot 100 starts driving in the airport (S801).
  • the airport robot 100 detects an obstacle around the driving route (S802).
  • steps S801 to S802 have already been described with reference to FIG. 4, a detailed description thereof will be omitted.
  • the airport robot 100 determines whether a person is detected within a predetermined area (S803).
  • the predetermined area may be an area within a predetermined distance from the travel path of the airport robot 100.
  • the predetermined area may be set based on a predetermined distance between the airport robot 100 and a person who are likely to collide with each other.
  • the predetermined distance may be 50 cm.
  • the size of the predetermined area may be set according to the characteristics of the service provided by the airport robot 100. For example, in the case of an airport robot 100 that provides a service (eg, a guide, an advertisement, etc.) that requires an interface with a person, the person is likely to access the airport robot 100. Therefore, since the possibility of collision between the airport robot 100 and the person is relatively high, the size of the predetermined area is set large so that the driving can be stopped even if a person in the distance is detected. On the other hand, in the case of the airport robot 100 that generally provides services (eg patrol, surveillance, defense, etc.) that does not require an interface with a person, the likelihood of a person approaching the airport robot 100 is low. Therefore, since the possibility of collision between the airport robot 100 and the person is relatively low, the size of the predetermined area is set small so that the driving can be stopped only when a person in the vicinity is recognized.
  • a service eg, a guide, an advertisement, etc.
  • the airport robot 100 may adjust the size of the predetermined area based on at least one of the congestion degree in the airport, the density of people in the surrounding area, and the time zone. For example, since the collision probability between the airport robot 100 and a person is relatively high in a time when the airport is crowded, the size of a predetermined area may be narrowly set to avoid collision with each other. On the other hand, since there is a relatively low possibility of collision between the airports during the free time, it is possible to drive by setting a large size of a certain area.
  • the airport robot 100 stops driving (S804).
  • the airport robot 100 may detect whether the object is an object or a person based on at least one of an object's movement, a sensing temperature, and a sound. To this end, the object recognition unit 170 may acquire a 2D image around the driving path by various types of sensors and recognize a person or an object based on the acquired image.
  • step S803 determines whether person is detected (S803-No). If it is determined in step S803 that no person is detected (S803-No), the airport robot 100 returns to step S801 to continue driving in the airport.
  • the airport robot 100 determines whether a person is not detected within a predetermined area (S805).
  • the airport robot 100 If it is determined that no person is detected within a predetermined area (S805-Yes), the airport robot 100 re-runs the area within the airport (S806). On the other hand, if it is determined that a person is detected (S805-No), the airport robot 100 returns to step S804 and continues to maintain the driving interruption state.
  • 9A and 9B are diagrams for describing a driving method of an airport robot according to still another exemplary embodiment of the present invention.
  • FIG. 9A illustrates a case in which the airport robot 100 normally runs.
  • the airport robot 100 is traveling in the airport at a predetermined speed, that is, 2 km / h.
  • a predetermined speed that is, 2 km / h.
  • no person currently exists in a certain area that is, an area within a predetermined distance from the travel path of the airport robot 100.
  • FIG. 9B illustrates a case in which the airport robot 100 stops running.
  • the airport robot 100 detects that a person exists in a predetermined area, which is an area within a predetermined distance from the driving path, the airport robot 100 stops driving.
  • a certain area is an area within a predetermined radius of the travel path of the airport robot 100, that is, an area shown in the form of concentric circles. Since the person is detected in the area, the airport robot 100 stops driving.
  • the airport robot 100 may continuously detect whether a person exists in a predetermined area in a state in which the driving stops, and may resume driving when the person does not exist.
  • the airport robot 100 stops driving when there is a person in a certain area. If a person exists within a certain area, the possibility of collision between the airport robot 100 and the person increases. Therefore, when a person is located in a certain area, the airport robot 100 may stop driving to lower the possibility of a collision accident between the airport robot 100 and a person and prevent such an accident. As a result, the airport robot 100 can travel to efficiently avoid collisions with obstacles.
  • FIG. 10 is a view showing a driving process of the airport robot according to another embodiment of the present invention.
  • the airport robot 100 may adjust the traveling speed based on the height of the person. Specifically, when the airport robot 100 detects a person, the smaller the height of the person may reduce the running speed.
  • the airport robot 100 starts driving in the airport (S1001).
  • the airport robot 100 detects an obstacle around the driving route (S1002).
  • the airport robot 100 determines whether a person is detected (S1003).
  • the airport robot 100 measures the height of the detected person (S1004).
  • the application processor 150 of the airport robot 100 may measure the height of the person based on the real-time two-dimensional image acquired by the object recognition unit 170.
  • the application processor 150 may display a reference line on a real-time two-dimensional image screen, photograph an image of a user positioned on the reference line, and recognize the user's head end in the image.
  • the application processor 150 checks the ratio of the height of the head to the height from the baseline to the top of the captured image, and adjusts the height of the person based on the confirmed ratio and the actual height from the baseline to the top of the captured image. It can be measured.
  • step S1003 determines whether person is detected (S1003-No). If it is determined in step S1003 that no person is detected (S1003-No), the airport robot 100 returns to step S1001 to continue driving in the airport.
  • the airport robot 100 adjusts the traveling speed based on the measured height (S1005).
  • the airport robot 100 When the airport robot 100 detects a person, the smaller the height of the person, the lower the traveling speed may be. As a result, when the infant or child is present around the driving route, the airport robot 100 may travel by significantly reducing the traveling speed as compared with the case where an adult is detected.
  • 11A and 11B are diagrams for describing a driving method of an airport robot according to still another exemplary embodiment of the present invention.
  • 11A illustrates a case where the airport robot 100 detects a person having a large height while driving.
  • the airport robot 100 determines that the detected person is an adult and reduces the running speed based on the detected person. Referring to FIG. 11A, the airport robot 100 reduces the traveling speed to 2 km / h.
  • 11B illustrates a case in which the airport robot 100 detects a person having a small height while driving.
  • the airport robot 100 determines that the detected person is a child or an infant and greatly reduces the traveling speed based on the detected person. Referring to FIG. 11B, the airport robot 100 reduces the traveling speed to 0.5 km / h.
  • the airport robot 100 decreases the traveling speed as the height of the sensed person is measured small.
  • the airport robot 100 may significantly reduce the traveling speed, thereby lowering the possibility of collision between the airport robot 100 and the person and preventing such an accident.
  • the airport robot 100 can travel to efficiently avoid collisions with obstacles.
  • the airport robot 100 may determine not only the person around the airport robot 100 but also other airport robots.
  • the airport robot 100 may adjust the traveling speed of the airport robot 100 in response to characteristics associated with other airport robots.
  • the properties associated with other airport robots here may be determined in the same way as the properties associated with people.
  • control unit is generally in charge of controlling the device, and may be used interchangeably with terms such as a central processing unit, a microprocessor, and a processor.
  • the present invention described above can be embodied as computer readable codes on a medium in which a program is recorded.
  • the computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. This also includes those implemented in the form of carrier waves (eg, transmission over the Internet).
  • the computer may include the controller 180 of the terminal. Accordingly, the above detailed description should not be construed as limiting in all aspects and should be considered as illustrative. The scope of the invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the invention are included in the scope of the invention.

Abstract

본 발명의 일 실시 예에 의한 공항 로봇은, 상기 공항 로봇의 주행 경로를 소정의 주행 속도로 주행하는 주행 구동부; 와 사람과, 상기 사람과 관련된 특성을 감지하는 오브젝트 인식부; 및 상기 소정의 주행 속도로 주행하되, 상기 공항 로봇으로부터 소정 거리 내의 영역에 상기 사람이 존재하는 경우, 상기 사람과 관련된 특성에 대응하여 상기 소정의 주행 속도를 조절하도록, 상기 주행 구동부를 제어하는 제어부를 포함한다.

Description

공항 로봇 및 이를 포함하는 시스템
본 발명은 공항 로봇 및 이를 포함하는 시스템에 관한 것으로서, 보다 구체적으로 공항 로봇의 주행 경로 주위에 사람이 감지되는 경우 이에 대응하여 주행 속도를 조절하는 공항 로봇 및 이를 포함하는 시스템에 관한 것이다.
최근 공항 이용객의 폭발적인 증가 추세 및 스마트 공항으로의 도약을 위한 노력으로, 공항 내에서 로봇을 통해 서비스를 제공하는 방안이 논의되고 있다. 공항에 지능형 로봇을 도입하는 경우, 기존의 컴퓨터 시스템이 대체할 수 없었던 사람의 고유 역할을 로봇이 대신 수행할 수 있어, 제공되는 서비스의 양적 및 질적 향상에 기여할 수 있을 것으로 기대된다.
로봇의 주행과 관련하여 중요한 기능 중 하나는 장애물 회피이다. 특히, 공항은 사람이 많이 모이는 장소이므로, 로봇과 사람이 충돌하는 사고가 자주 발생할 수 있다. 따라서, 공항 로봇의 경우 장애물 회피 기능이 무엇보다 중요하다.
기존의 로봇은 주행 중 주변 장애물을 감지하여 충돌을 회피할 수 있도록 설계되어 있다. 따라서, 로봇은 주행 중 주행 방향의 전방에 위치한 사람을 감지하는 경우, 주행 방향을 전환함으로써 사람과의 충돌을 회피한다.
본 발명은 사람과의 충돌을 회피할 수 있는 공항 로봇 및 이를 포함하는 시스템을 제공하는 것이다.
또한, 본 발명은 주행 상황을 반영하여 사람과의 충돌을 회피할 수 있는 공항 로봇 및 이를 포함하는 시스템을 제공하는 것이다.
또한, 본 발명은 공항 로봇이 주행하는 주변 환경을 반영하여 사람과의 충돌을 효율적으로 회피할 수 있는 공항 로봇 및 이를 포함하는 시스템을 제공하는 것이다.
또한, 본 발명은 충돌 가능성이 높은 상황에 있는 사람과의 충돌을 방지할 수 있는 공항 로봇 및 이를 포함하는 시스템을 제공하는 것이다.
나아가, 본 발명은 감지된 사람의 특성을 반영하여 사람과의 충돌을 효율적으로 방지하는 공항 로봇 및 이를 포함하는 시스템을 제공하는 것이다.
본 발명의 일 실시 예에 따르면, 공항 로봇은, 사람과 관련된 특성을 감지하는 오브젝트 인식부; 및 공항 로봇으로부터 소정 거리 내의 영역에 사람이 존재하는 경우, 사람과 관련된 특성에 대응하여 주행 속도를 조절하는 제어부를 포함한다. 이에 의하면, 주행 중 주행 경로 주위에 사람이 감지되는 경우 공항 로봇의 주행 속도를 조절함으로써 사람과의 충돌을 회피할 수 있다.
상기 제어부는, 사람과 공항 로봇간의 거리가 가까워질수록 주행 속도를 감소시킬 수 있다. 이에 의하면, 주행 상황을 반영하여 사람과의 충돌을 회피할 수 있다.
상기 제어부는, 공항 로봇 주위에 사람이 많이 밀집될수록, 주행 속도를 감소시킬 수 있다. 이에 의하면, 공항 로봇이 주행하는 주변 환경을 반영하여 사람과의 충돌을 효율적으로 회피할 수 있다.
상기 제어부는, 임계 거리 내에 사람이 존재하는 경우 공항 로봇의 주행을 중단시킬 수 있다. 이에 의하면, 충돌 가능성이 높은 상황에 있는 사람과의 충돌을 방지할 수 있다.
상기 제어부는, 감지된 사람의 신장이 작을수록 공항 로봇의 주행 속도를 감소시킬 수 있다. 이에 의하면, 감지된 사람의 특성을 반영하여 사람과의 충돌을 효율적으로 방지할 수 있다.
본 발명의 다른 실시 예에 따르면, 공항 로봇을 제어하는 서버는, 공항 로봇과 통신을 수행하는 통신부; 및 공항 로봇으로부터 소정 거리 내의 영역에 사람이 존재하는지 여부 및 상기 사람과 관련된 특성에 대한 데이터를 통신부가 수신하는 경우, 사람과 관련된 특성에 대응하여 주행 속도를 조절하는 제어부를 포함한다.
본 발명의 또 다른 실시 예에 따르면, 공항 로봇을 포함하는 시스템은, 소정 거리 내의 영역에 사람이 존재하는지 여부 및 사람과 관련된 특성을 감지하여 서버에 전송하는 공항 로봇; 및 사람과 관련된 특성에 대응하여 주행 속도를 조절하도록 공항 로봇을 제어하는 서버를 포함한다.
본 발명의 또 다른 실시 예에 따르면, 공항 로봇의 주행 방법을 수행하는 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체에서, 상기 주행 방법은, 사람과 관련된 특성을 감지하는 단계; 및 공항 로봇으로부터 소정 거리 내의 영역에 사람이 존재하는 경우, 사람과 관련된 특성에 대응하여 주행 속도를 조절하는 단계를 포함한다.
본 발명의 일 실시 예에 따르면, 공항 로봇은 사람과의 충돌을 회피할 수 있다.
본 발명의 다른 실시 예에 따르면, 공항 로봇은 주행 상황을 반영하여 사람과의 충돌을 회피할 수 있다.
본 발명의 또 다른 실시 예에 따르면, 공항 로봇은 해당 공항 로봇이 주행하는 주변 환경을 반영하여 사람과의 충돌을 효율적으로 회피할 수 있다.
본 발명의 또 다른 실시 예에 따르면, 공항 로봇은 충돌 가능성이 높은 상황에 있는 사람과의 충돌을 방지할 수 있다.
본 발명의 또 다른 실시 예에 따르면, 공항 로봇은 감지된 사람의 특성을 반영하여 사람과의 충돌을 효율적으로 방지할 수 있다.
도 1은 본 발명의 일 실시 예에 의한 공항 로봇의 하드웨어 구성을 도시한 도면이다.
도 2는 본 발명의 일 실시 예에 의한 공항 로봇의 소프트웨어 플랫폼의 구조를 도시한 도면이다.
도 3은 본 발명의 일 실시 예에 의한 공항 로봇 시스템의 구성을 도시한 도면이다.
도 4는 본 발명의 일 실시 예에 의한 공항 로봇의 주행 과정을 도시한 도면이다.
도 5a 내지 도 5c는 본 발명의 일 실시 예에 의한 공항 로봇의 주행 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 다른 실시 예에 의한 공항 로봇의 주행 과정을 도시한 도면이다.
도 7a 내지 도 7c는 본 발명의 다른 실시 예에 의한 공항 로봇의 주행 방법을 설명하기 위한 도면이다.
도 8은 본 발명의 또 다른 실시 예에 의한 공항 로봇의 주행 과정을 도시한 도면이다.
도 9a와 도 9b는 본 발명의 또 다른 실시 예에 의한 공항 로봇의 주행 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 또 다른 실시 예에 의한 공항 로봇의 주행 과정을 도시한 도면이다.
도 11a와 도 11b는 본 발명의 또 다른 실시 예에 의한 공항 로봇의 주행 방법을 설명하기 위한 도면이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
도 1은 본 발명의 일 실시 예에 의한 공항 로봇의 하드웨어 구성을 도시한 도면이다.
본 발명의 일 실시 예에 의한 공항 로봇(100)은 마이컴(110), 전원부(120), 장애물 인식부(130), 주행 구동부(140), 어플리케이션 프로세서(150), 유저 인터페이스부(160), 오브젝트 인식부(170), 위치 인식부(180) 및 랜 모듈(190)을 포함할 수 있다.
이와 같이 구성되는 공항 로봇(100)은 마이컴(110)에 의해 제어되는 부분과, 어플리케이션 프로세서(150)에 의해 제어되는 부분으로 구성될 수 있다. 마이컴(110)에 의해 제어되는 부분은, 마이컴(110)과 전원부(120), 장애물 인식부(130) 및 주행 구동부(140)를 포함할 수 있다. 어플리케이션 프로세서(150)에 의해 제어되는 부분은 어플리케이션 프로세서(150), 유저 인터페이스부(160), 오브젝트 인식부(170), 위치 인식부(180) 및 랜 모듈(190)을 포함할 수 있다. 이 경우, 마이컴(110)과 어플리케이션 프로세서(150)는 UART 통신을 수행할 수 있다.
마이컴(Micom, 110)은 중앙처리장치(CPU)를 하나의 고밀도집적회로(LSI) 칩에 집적된 마이크로프로세서로 만든 초소형 컴퓨터일 수 있다. 마이컴(110)은 일반적으로 공항 로봇(100)의 전반적인 동작을 제어할 수 있다. 마이컴(110)은 마이컴(110)이 제어하는 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리함으로써, 사용자에게 적절한 정보 또는 기능을 제공하거나 처리할 수 있다. 또한, 마이컴(110)은 공항 로봇(100)을 구동하기 위하여, 도 1에 도시된 구성요소들 중 적어도 일부를 제어하거나, 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.
전원부(120)는 마이컴(110)의 제어 하에서, 외부의 전원 또는 내부의 전원을 인가 받아 공항 로봇(100)에 포함된 각 구성요소들에 전원을 공급한다. 이를 위해, 전원부(120)는 배터리 드라이버(Battery Driver, 121) 및 배터리(Battery, 122)를 포함할 수 있다.
배터리 드라이버(121)는 배터리(122)의 충전과 방전을 제어할 수 있다.
배터리(122)는 공항 로봇(100)의 구동을 위한 전원을 공급할 수 있다. 실시 예에 따라, 배터리(122)는 24V/102A 리튬-이온 배터리 2개를 병렬로 연결하여 구성된 리튬-이온 배터리(Li-Ion Battery) 또는 충전 가능한 2차 전지인 납축 전지로 구성될 수 있다. 배터리(122)는 내장형 또는 교체 가능한 형태로 구현될 수 있다.
장애물 인식부(130)는 공항 로봇(100)의 주위에 위치하는 장애물을 감지할 수 있다. 이를 위해, 장애물 인식부(130)는 공항 로봇(100) 내 정보, 공항 로봇(100)을 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 감지하기 위한 하나 이상의 센서를 포함할 수 있다. 구체적으로, 장애물 인식부(130)는 IR 리모콘 수신부(131), USS(132), Cliff PSD(133), ARS(134), Bumper(135) 및 OFS(136) 등을 포함할 수 있다.
IR 리모콘 수신부(131)는 공항 로봇(100)을 원격 조정하기 위한 적외선(Infrared, IR) 리모컨의 신호를 감지하는 센서를 포함할 수 있다. 초음파 센서(Ultra Sonic Sensor: USS)(132)는 초음파의 특성을 이용하거나 초음파를 발생시켜 거리나 두께 및 움직임 등을 검출할 수 있다. 예를 들어, 초음파 센서(132)는 초음파 신호를 이용하여 장애물과 공항 로봇(100) 사이의 거리를 판단할 수 있다. Cliff PSD(133)는 360도 전 방향의 공항 로봇 주행 범위에서 낭떠러지 또는 절벽 등을 감지하기 위한 센서를 포함할 수 있다. ARS(Attitude Reference System, 134)는 공항 로봇(100)의 자세를 검출할 수 있는 센서를 포함할 수 있다. 이를 위해, ARS(134)는 공항 로봇(100)의 회전량 검출을 위한 가속도 3축 및 자이로 3축으로 구성되는 센서를 포함할 수 있다. Bumper(135)는 공항 로봇(100)과 장애물 사이의 충돌을 감지하는 센서를 포함할 수 있다. Bumper(135)에 포함되는 센서는 360도의 범위에서 공항 로봇(100)과 장애물 사이의 충돌을 감지할 수 있다. OFS(Optical Flow Sensor, 136)는 공항 로봇(100)의 주행 시 헛바퀴가 도는 현상 및 다양한 바닥 면에서 공항 로봇(100)의 주행거리를 측정할 수 있는 센서를 포함할 수 있다.
주행 구동부(140)는 공항 로봇(100)을 자율적으로 주행시킬 수 있다. 이를 위해, 주행 구동부(140)는 모터 드라이버(Motor Drivers, 141), 휠 모터(142), 회전 모터(143), 메인 브러시 모터(Main Brush, 144), 사이드 브러시 모터(Side Brush, 145) 및 석션 모터(Suction, 146)를 포함할 수 있다.
모터 드라이버(141)는 공항 로봇(100)의 주행 및 청소를 위한 휠 모터, 회전 모터, 브러시 모터 및 석션 모터를 구동할 수 있다. 휠 모터(142)는 공항 로봇(100)의 주행을 위하여 복수 개의 바퀴를 구동시킬 수 있다. 회전 모터(143)는 공항 로봇(100)의 메인 바디 또는 공항 로봇(100)의 헤드부의 좌우 회전 및 상하 회전을 위해 구동되거나, 공항 로봇(100)의 바퀴의 방향 전환 또는 회전을 위하여 구동될 수 있다. 메인 브러시 모터(144)는 공항 바닥(100)의 오물을 쓸어 올리는 브러시를 구동시킬 수 있다. 사이드 브러시 모터(145)는 공항 로봇(100)의 바깥 면 주변 영역의 오물을 쓸어 담는 브러시를 구동시킬 수 있다. 석션 모터(146)는 공항 바닥의 오물을 흡입하기 위해 구동될 수 있다.
어플리케이션 프로세서(Application Processor: AP(150)는 공항 로봇(100)의 하드웨어 모듈 전체 시스템을 관리하는 중앙 처리 장치, 즉 제어부로서 기능할 수 있다. 구체적으로, 어플리케이션 프로세서(150)는 각종 센서들을 통해 입력된 위치 정보를 이용하여 주행을 위한 응용 프로그램을 구동하거나, 사용자 입출력 정보를 마이컴(110) 측으로 전송하여 모터 등의 구동을 수행하도록 제어할 수 있다.
유저 인터페이스부(160)는 사용자의 입출력을 담당하며, 유저 인터페이스 프로세서(UI Processor, 161), LTE 라우터(LTE Router, 162), WIFI SSID(163), 마이크 보드(164), 바코드 리더기(165), 터치 모니터(166) 및 스피커(167) 등을 포함할 수 있다.
유저 인터페이스 프로세서(161)는 유저 인터페이스부(160)의 동작을 제어할 수 있다. LTE 라우터(162)는 외부로부터 필요한 정보를 수신하고 사용자에게 정보를 송신하기 위한 LTE 통신을 수행할 수 있다. WIFI SSID(163)는 WiFi 신호 강도를 분석하여 특정 사물 또는 공항 로봇(100)의 위치 인식을 수행할 수 있다. 마이크 보드(164)는 복수 개의 마이크 신호를 입력받아 음성 신호를 디지털 신호인 음성 데이터로 처리하고, 음성 신호의 방향 및 해당 음성 신호를 분석할 수 있다. 바코드 리더기(165)는 공항에서 사용되는 복수 개의 티켓에 기재된 바코드 정보를 리드할 수 있다. 터치 모니터(166)는 사용자의 입력을 수신하기 위해 구성된 터치 패널 및 출력 정보를 표시하기 위한 모니터를 포함할 수 있다. 스피커(167)는 사용자에게 특정 정보를 음성으로 알려주는 역할을 수행할 수 있다.
오브젝트 인식부(170)는 2D 카메라(171), RGBD 카메라(172) 및 인식 데이터 처리 모듈(173)을 포함할 수 있다.
2D 카메라(171)는 2차원 영상을 기반으로 사람 또는 사물을 인식하는 센서로 동작할 수 있다. RGBD 카메라(Red, Green, Blue, Distance, 172)는 RGBD 센서들을 갖는 카메라 또는 다른 유사한 3D 이미징 디바이스들로부터 획득되는 깊이(Depth) 데이터를 갖는 캡쳐 영상들을 이용하여 사람 또는 사물을 검출하기 위한 센서로 동작할 수 있다. 인식 데이터 처리 모듈(173)은 2D 카메라(171) 및 RGBD 카메라 (172)로부터 획득된 2D 이미지/영상 또는 3D 이미지/영상 등의 신호를 처리하여 사람 또는 사물을 인식할 수 있다.
위치 인식부(180)는 공항 로봇(100)의 현재 위치를 인식하며, 스테레오 보드(Stereo B/D, 181), 라이더(Lidar, 182) 및 SLAM 카메라(183)를 포함할 수 있다.
스테레오 보드(181)는 라이더(182) 및 SLAM 카메라(183) 등으로부터 수집되는 센싱 데이터를 처리 및 가공하여, 공항 로봇(100)의 위치 인식과 장애물 인식을 위한 데이터 관리를 담당할 수 있다. SLAM 카메라(Simultaneous Localization And Mapping 카메라, 183)는 동시간 위치 추적 및 지도 작성 기술을 구현할 수 있다. 이에 의해, 공항 로봇(100)은 SLAM 카메라(183)를 이용하여 주변 환경 정보를 검출하고 얻어진 정보를 가공하여 임무 수행 공간에 대응되는 지도를 작성함과 동시에 자신의 절대 위치를 추정할 수 있다. 라이더(LIght Detection And Ranging: LIDAR, 182)는 레이저 레이더로서, 레이저 빔을 조사하고 에어로졸에 의해 흡수 혹은 산란된 빛 중 후방 산란된 빛을 수집, 분석하여 위치 인식을 수행하는 센서일 수 있다.
랜(LAN, 190)은 유저 인터페이스 프로세서(161), 인식 데이터 처리 모듈(173), 스테레오 보드(181) 및 AP(150)와 통신을 수행할 수 있다.
한편, 도 1에 도시된 구성요소들은 공항 로봇(100)를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 공항 로봇(100)은 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다. 즉, 본 발명의 일 실시 예에 의한 공항 로봇(100)은 자신이 수행하는 특화된 기능에 따라, 도 1에 도시된 구성요소들 중 일부만을 포함할 수 있다. 예를 들어, 공항 로봇(100)은 장애물이나 위치를 인식하기 위한 구성요소는 공통적으로 포함하고, 청소 또는 안내 역할에 특화된 구성 요소는 해당 기능을 수행하는 경우에만 포함할 수 있다.
도 2는 본 발명의 일 실시 예에 의한 공항 로봇의 소프트웨어 플랫폼의 구조를 도시한 도면이다.
공항 로봇(100)의 인지와 동작 및 주행을 제어하기 위하여, 마이컴(210) 과 어플리케이션 프로세서(220)는 실시 예에 따라 다양한 구조를 가지는 소프트웨어 플랫폼을 포함할 수 있다.
일 실시 예에 의하면, 도 2에 도시된 바와 같이, 마이컴(210)은 데이터 획득 모듈(Data Acquisition module, 211), 이머전시 모듈(Emergency module, 212), 모터 드라이버 모듈(Motor Driver module, 213), 배터리 매니저 모듈(Battery Manager module, 214) 및 데이터 액세스 서비스 모듈(Data Access Service module, 215)을 포함할 수 있다.
데이터 획득 모듈(211)은 공항 로봇(100)에 포함된 복수 개의 센서로부터 센싱된 데이터를 취득하여 데이터 액세스 서비스 모듈(215)로 전달할 수 있다. 이머전시 모듈(212)은 공항 로봇(100)의 이상 상태를 감지할 수 있는 모듈로서, 공항 로봇(100)이 기 정해진 타입의 행동을 수행하는 경우 공항 로봇(100)이 이상 상태에 진입했음을 감지할 수 있다. 모터 드라이버 모듈(213)은 공항 로봇(100)의 주행 및 청소를 위하여 휠, 브러시, 석션 모터의 구동 제어를 관리할 수 있다. 배터리 매니저 모듈(214)은 도 1의 배터리(122)의 충전과 방전을 담당하고, 공항 로봇(100)의 배터리 상태를 데이터 액세스 서비스 모듈(215)에 전달할 수 있다. 데이터 액세스 서비스 모듈(215)은 데이터 획득 모듈(211), 이머전시 모듈(212), 모터 드라이버 모듈(213) 및 배터리 매니저 모듈(214)의 동작을 제어할 수 있다.
어플리케이션 프로세서(220)는 각종 카메라 및 센서들로부터 사용자 입력 등을 수신하고, 이를 인식 및 가공하여 공항 로봇(100)의 동작을 제어할 수 있다. 이를 위해, 어플리케이션 프로세서(220)는 인터랙션 모듈(Interaction module, 221), 유저 인터페이스 모듈(U/I module, 222), 디스플레이부(223), 사용자 입력부(224), 상태 관리 모듈(State Machine module, 225), 플래닝 모듈(Planning module, 226), 네비게이션 모듈(Navigation module, 227) 및 모션 모듈(Motion module, 228) 등을 포함할 수 있다.
인터랙션 모듈(221)은 인식 데이터 처리 모듈(173)로부터 수신하는 인식 데이터와 유저 인터페이스 모듈(222)로부터 수신하는 사용자 입력을 조합하여, 사용자와 공항 로봇(100)이 상호 교류할 수 있는 소프트웨어(Software)를 총괄하는 모듈일 수 있다.
유저 인터페이스 모듈(222)은 공항 로봇(100)의 현재 상황 및 조작/정보 제공 등을 위한 모니터인 디스플레이부(223)와 키(key), 터치 스크린, 리더기 등을 통하여 입력된 사용자의 근거리 명령을 수신하거나, 공항 로봇(100)의 원격 조정을 위한 IR 리모콘의 신호와 같은 원거리 신호를 수신하거나, 마이크 또는 바코드 리더기 등으로부터 사용자의 입력 신호를 수신하는 사용자 입력부(224)로부터 수신되는 사용자 입력을 관리할 수 있다. 적어도 하나 이상의 사용자 입력이 수신되는 경우, 유저 인터페이스 모듈(222)은 상태 관리 모듈(225)로 사용자 입력 정보를 전달할 수 있다.
사용자 입력 정보를 수신한 상태 관리 모듈(225)은 공항 로봇(100)의 전체 상태를 관리하고, 사용자 입력에 대응하는 적절한 명령을 내릴 수 있다.
플래닝 모듈(226)은 상태 관리 모듈(225)로부터 전달받은 명령에 따라서 공항 로봇(100)의 특정 동작을 위한 시작과 종료 시점/행동을 판단하고, 공항 로봇(100)이 어느 경로로 이동해야 하는지를 계산할 수 있다.
네비게이션 모듈(227)은 공항 로봇(100)의 주행 전반을 담당하는 기능을 수행하며, 플래닝 모듈(226)에서 계산된 주행 경로에 따라 공항 로봇(100)이 주행하도록 제어할 수 있다.
모션 모듈(228)은 주행 이외에 기본적인 공항 로봇(100)의 동작을 수행하도록 제어할 수 있다.
또한, 본 발명의 일 실시 예에 의한 공항 로봇(100)은 위치 인식부 (230)와 맵 관리 모듈(240)을 포함할 수 있다.
위치 인식부(230)는 상대 위치 인식부(231)와 절대 위치 인식부(234)를 포함할 수 있다. 상대 위치 인식부(231)는 RGM Mono(232) 센서를 통해 공항 로봇(100)의 이동량을 보정하고, 일정한 시간 동안 공항 로봇(100)의 이동량을 계산할 수 있다. 또한, 상대 위치 인식부(231)는 LiDAR(233)를 통해 현재 공항 로봇(100)의 주변 환경을 인식할 수 있다. 절대 위치 인식부(234)는 Wifi SSID(235) 및 UWB(236)를 포함할 수 있다. Wifi SSID(235)는 공항 로봇(100)의 절대 위치 인식을 위한 센서 모듈로서, Wifi SSID 감지를 통해 현재 위치를 추정하기 위한 WIFI 모듈이다. Wifi SSID(235)는 Wifi 신호 강도를 분석하여 공항 로봇(100)의 위치를 인식할 수 있다. UWB(236)는 발신부와 수신부 사이의 거리를 계산하여 공항 로봇(100)의 절대적 위치를 센싱할 수 있다.
맵 관리 모듈(240)은 그리드 모듈(Grid module, 241), 패스 플래닝 모듈(Path Planning module, 242) 및 맵 분할 모듈(243)을 포함할 수 있다. 그리드 모듈(241)은 공항 로봇(100)이 SLAM 카메라를 통해 생성한 격자 형태의 지도 혹은 사전에 미리 공항 로봇(100)에 입력된 위치 인식을 위한 주변환경의 지도 데이터를 관리할 수 있다. 패스 플래닝 모듈(242)은 복수 개의 공항 로봇(100)들 사이의 협업을 위한 맵 구분에서, 공항 로봇(100)들의 주행 경로 계산을 담당할 수 있다. 또한, 패스 플래닝 모듈(242)은 공항 로봇(100) 한대가 동작하는 환경에서 공항 로봇(100)이 이동해야 할 주행 경로도 계산할 수 있다. 맵 분할 모듈(243)은 복수 개의 공항 로봇(100)들이 각자 담당해야 할 구역을 실시간으로 계산할 수 있다.
위치 인식부(230)와 맵 관리 모듈(240)로부터 센싱되고 계산된 데이터 들은 다시 상태 관리 모듈(225)로 전달될 수 있다. 상태 관리 모듈(225)은 위치 인식부(230)와 맵 관리 모듈(240)로부터 센싱되고 계산된 데이터들에 기초하여, 공항 로봇(100)의 동작을 제어하도록 플래닝 모듈(226)에 제어명령을 내릴 수 있다.
도 2에 도시된 공항 로봇(100)의 소프트웨어 플랫폼 구조는 자신이 수행하는 특화된 기능에 따라 변경될 수 있다. 예를 들어, 공항 로봇(100)은 청소 또는 안내 역할을 수행하는지 여부에 따라, 공항 로봇(100)의 주행 제어와 관련된 상태 관리 모듈(225), 플래닝 모듈(226), 네비게이션 모듈(227) 및 모션 모듈(228) 등이 상이하게 구현될 수 있다.
도 3은 본 발명의 일 실시 예에 의한 공항 로봇 시스템의 구성을 도시한 도면이다.
본 발명의 일 실시 예에 의한 공항 로봇 시스템은, 공항 로봇(100), 이동 단말기(200), 서버(300) 및 카메라(400)를 포함할 수 있다.
공항 로봇(100)은 공항 내를 자율 주행하며, 순찰, 안내, 청소, 방역 및 운반 등의 역할을 수행할 수 있다.
이를 위해, 공항 로봇(100)은 이동 단말기(200)와 서버(300) 및 카메라(400)중 적어도 하나와 통신을 수행할 수 있다. 예를 들어, 공항 로봇 (100)은 서버(300)와 공항 내 상황 정보 등을 포함한 데이터를 송수신할 수 있다. 또한, 공항 로봇(100)은 공항 내 설치된 카메라(400)로부터 공항의 각 구역들을 촬영한 영상 데이터를 수신할 수 있다. 이 경우, 공항 로봇(100)은 공항 로봇(100)이 촬영한 영상 데이터 및 카메라(400)로부터 수신한 영상 데이터에 기초하여 공항의 전체 상황을 모니터링 할 수 있다.
공항 로봇(100)은 사용자로부터 직접 명령을 수신할 수 있다. 예를 들어, 공항 로봇(100)에 구비된 디스플레이부를 터치하는 사용자 입력 또는 음성 입력 등을 통해 사용자로부터 명령을 직접 수신할 수 있다. 공항 로봇(100)은 사용자, 서버(300), 또는 이동 단말기(200) 등으로부터 수신된 명령에 따라 공항 내를 자율 주행하며 순찰, 안내, 청소 등의 동작을 수행할 수 있다.
서버(300)는 공항 로봇(100), 이동 단말기(200) 및/또는 카메라(400) 로부터 정보를 수신할 수 있다. 서버(300)는 각 기기들로부터 수신된 정보들을 통합하여 저장 및 관리할 수 있다. 서버(300)는 저장된 정보들을 공항 로봇(100) 또는 이동 단말기(200)에 전송할 수 있다. 또한, 서버(300)는 공항에 배치된 복수의 공항 로봇(100)들 각각에 제어 명령을 전송할 수 있다.
카메라(400)는 공항 내에 설치된 카메라를 포함할 수 있다. 예를 들어, 카메라(400)는 공항 내에 설치된 복수 개의 CCTV(Closed Circuit TeleVision) 카메라, 적외선 열감지 카메라 등을 포함할 수 있다. 카메라(400)는 촬영된 영상을 공항 로봇(100), 이동 단말기(200) 및 서버(300) 중 적어도 하나에 전송할 수 있다.
이동 단말기(200)는 공항 내 서버(300)와 데이터를 송수신할 수 있다. 예를 들어, 이동 단말기(200)는 서버(300)로부터 비행 시간 스케쥴, 공항 지도 등과 같은 공항 관련 데이터를 수신할 수 있다. 사용자는 이동 단말기(200)를 통해 공항에서 필요한 정보를 서버(300)로부터 수신하여 얻을 수 있다. 또한, 이동 단말기(200)는 서버(300)로 사진이나 동영상, 메시지 등과 같은 데이터를 전송할 수 있다. 예를 들어, 사용자는 찾고자 하는 미아 사진을 서버(300)로 전송하여 미아 접수를 하거나, 공항 내 청소가 필요한 구역의 사진을 카메라로 촬영하여 서버(300)로 전송함으로써 해당 구역의 청소를 요청할 수 있다.
또한, 이동 단말기(200)는 공항 로봇(100)과 데이터를 송수신할 수 있다. 예를 들어, 이동 단말기(200)는 공항 로봇(100)을 호출하는 신호나 특정 동작을 수행하도록 명령하는 신호 또는 정보 요청 신호 등을 공항 로봇(100)으로 전송할 수 있다. 공항 로봇(100)은 이동 단말기(200)로부터 수신된 호출 신호에 응답하여 이동 단말기(200)의 위치로 이동하거나 명령 신호에 대응하는 동작을 수행할 수 있다. 또는 공항 로봇(100)은 정보 요청 신호에 대응하는 데이터를 각 사용자의 이동 단말기(200)로 전송할 수 있다.
이하에서는, 상기와 같이 구성되는 공항 로봇이 공항 내를 자율 주행하는 경우에 있어서, 장애물의 감지 여부 및 감지 정도에 기초하여 주행 속도를 조절하는 다양한 실시 예들에 대해 상세하게 설명하기로 한다.
사람과의 거리에 따른 주행 속도의 제어
도 4는 본 발명의 일 실시 예에 의한 공항 로봇의 주행 과정을 도시한 도면이다.
본 발명의 일 실시 예에 의하면, 공항 로봇(100)은 사람과의 거리에 대응하여 주행 속도를 조절할 수 있다. 구체적으로, 공항 로봇(100)은 사람을 감지하는 경우, 사람과 가까워질수록 주행 속도를 감소시킬 수 있다. 또한, 공항 로봇(100)은 사람으로부터 멀어질수록 주행 속도를 증가시킬 수 있다.
도 4에 도시된 바와 같이, 공항 로봇(100)은 공항 내 주행을 시작한다 (S401).
공항 로봇(100)은 공항 이용객들에게 서비스를 제공하거나 자신의 역할을 수행하기 위하여, 공항 내를 자율 주행하거나 공항 내의 정해진 경로를 주행할 수 있다. 자율 주행하는 경우, 공항 로봇(100)은 공항 바닥의 라인이나 GPS 장비 없이, 자율적으로 경로를 생성하여 목적지를 향해 주행할 수 있다. 정해진 경로를 주행하는 경우, 공항 로봇(100)은 공항 바닥의 라인을 따라가거나 기 설정된 경로를 주행할 수 있다.
공항 로봇(100)이 제공하는 서비스는, 안내, 순찰, 감시, 알림, 광고, 청소, 물품 배달 및 운반 등을 포함할 수 있다. 이 경우, 공항 로봇(100)은 적어도 어느 하나의 서비스에 특화되어 해당 서비스만을 제공하거나, 특화된 서비스 없이 사용자 또는 관리자가 요청하는 모든 종류의 서비스를 제공할 수 있다.
일 실시 예에 의하면, 공항 로봇(100)은 해당 공항 로봇(100)이 제공하는 서비스의 종류에 대응하여, 공항 내를 자율 주행하거나 공항 내의 정해진 경로를 주행할 수 있다. 예를 들어, 안내 또는 물품 배달 서비스를 제공하는 공항 로봇(100)은 공항 내를 자율 주행할 수 있다. 또한, 청소 또는 감시 서비스를 제공하는 공항 로봇(100)은 자신에게 할당된 일정 구역 내의 정해진 경로를 주행할 수 있다.
공항 로봇(100)은 주행 경로 주위의 장애물을 감지한다(S402).
공항 로봇(100)은 공항 내부에 대한 지도 정보 및/또는 공항 로봇(100)의 장애물 인식부(130)가 센싱한 데이터에 기초하여, 주행 경로 주위에 위치한 장애물을 감지할 수 있다.
구체적으로, 공항 로봇(100)의 어플리케이션 프로세서(150)는, 위치 인식부(180)가 인식한 공항 로봇(100)의 현재 위치를 공항 내부에 대한 지도 정보와 비교하여, 주행 경로 주위에 위치한 장애물을 감지할 수 있다. 이를 위해, 공항 로봇(100)은 공항 내부에 대한 지도 정보를 내부 메모리에 저장하거나, 서버(300)로부터 수신할 수 있다.
또한, 공항 로봇(100)의 장애물 인식부(130)는 다양한 종류의 센서들에 의해 주행 경로 주위에 위치하는 장애물을 감지할 수 있다. 예를 들어, 장애물 인식부(130)는 소정 방향으로 송신한 레이저나 초음파 등이 반사되어 되돌아오는지 여부를 측정함으로써, 장애물의 존재 여부 및 위치를 측정할 수 있다.
이 경우, 공항 로봇(100)은 장애물을 보다 정확하게 감지하기 위하여, 공항 내부에 대한 지도 정보와 장애물 인식부(130)가 센싱한 데이터를 모두 이용할 수도 있다.
또한, 공항 로봇(100)의 장애물 인식부(130)는 서버로부터 장애물 정보를 수신함으로써, 주행 경로 주위에 위치하는 장애물을 감지할 수 있다.
구체적으로 공항 로봇(100)은 공항 로봇(100)의 위치 정보를 서버로 전송할 수 있다. 한편 서버는 공항 내 카메라들로부터 촬영된 영상을 수신하고, 상기 수신된 영상에 기초하여 공항 로봇(100)의 주행 경로 주위에 위치하는 장애물을 감지할 수 있다. 이 경우 서버는 공항 로봇(100)의 주행 경로 주위에 위치하는 장애물에 대한 정보를 공항 로봇(100)에 전송할 수 있다.
또한 서버는, 수신된 영상에 기초하여, 상기 위치 정보에 대응하는 영역의 혼잡도나 사람의 밀집도를 산출하고, 상기 혼잡도나 밀집도를 공항 로봇(100)에 전송할 수 있다.
공항 로봇(100)은 사람이 감지되는지 판단한다(S403).
이를 위해, 공항 로봇(100)은 오브젝트의 움직임 유무, 감지 온도 및 소리 중 적어도 하나에 기초하여, 해당 오브젝트가 물체인지 또는 사람인지 여부를 구분하여 감지할 수 있다.
사람이 감지된다고 판단되면(S403-Yes), 공항 로봇(100)은 공항 로봇 (100)과 사람과의 거리를 측정한다(S404).
공항 로봇(100)의 장애물 인식부(130)는 다양한 종류의 센서들에 의해 주행 경로 주위에 위치하는 사람과의 거리를 감지할 수 있다. 예를 들어, 장애물 인식부(130)는 소정 방향으로 송신한 레이저나 초음파 등이 사람에 반사되어 되돌아오는 시간을 측정함으로써, 공항 로봇(100)과 사람과의 거리를 측정할 수 있다.
한편, S403 단계에서 사람이 감지되지 않는다고 판단되면(S403-No), 공항 로봇(100)은 S401 단계로 되돌아가 공항 내 주행을 계속한다.
공항 로봇(100)은 측정된 거리에 기초하여 주행 속도를 조절한다(S405).
구체적으로, 공항 로봇(100)은 정상 속도로 주행 중 사람을 감지하는 경우, 사람과 가까워질수록 주행 속도를 감소시킬 수 있다. 또한, 공항 로봇 (100)은 사람으로부터 멀어질수록 주행 속도를 증가시킬 수 있다.
도 5a 내지 도 5c는 본 발명의 일 실시 예에 의한 공항 로봇의 주행 방법을 설명하기 위한 도면이다.
도 5a는 공항 로봇(100)이 정상적으로 주행하는 경우이다. 공항 로봇 (100)은 공항 안을 소정 속도, 즉 2km/h로 주행하고 있다. 이 경우, 공항 로봇 (100)은 주행 방향의 전방에 위치한 사람을 감지한다.
도 5b와 도 5c는 공항 로봇(100)이 사람과의 거리에 대응하여 주행 속도를 조절하는 경우이다. 사람이 감지되는 경우, 공항 로봇(100)은 사람과의 거리에 대응하여 주행 속도를 조절한다. 공항 로봇(100)은 도 5b에 도시된 바와 같이 사람이 가까워지면 주행 속도를 1.5km/h로 감소시키고, 도 5c에 도시된 바와 같이 사람이 좀더 가까워지면 주행 속도를 0.5km/h로 감소시킨다.
한편, 공항 로봇(100)은 사람을 지나치는 경우, 사람을 감지하기 전에 공항 로봇(100)이 주행하던 소정 속도, 즉 2km/h로 주행 속도를 증가시켜 주행을 계속할 수 있다. 또한, 공항 로봇(100)은 사람으로부터 멀어질수록 주행 속도를 증가시킬 수도 있다.
기존의 로봇은 장애물과의 충돌을 회피하기 위하여, 장애물의 존재가 감지되는 경우 로봇의 주행 경로를 변경한다. 그러나, 사람이 많이 밀집되어 있는 공항을 주행하는 로봇의 경우 이와 같은 주행 방법이 효율적이지 못하다. 예를 들어, 로봇이 주행 방향을 전환하더라도 전환한 주행 방향에 또 다른 사람이 존재할 가능성이 높다. 이 경우, 로봇은 주행 방향을 다시 탐색하여야 한다. 또한, 로봇의 주행 경로 전방의 전 방향에 사람이 존재하여, 로봇이 지나온 길로 방향을 전환하여 되돌아갈 수도 있다. 따라서, 공항 로봇에는 장애물을 감지하면 주행 방향을 전환하여 충돌을 회피하는 기존의 주행 방법 대신, 새로운 주행 방법이 적용되어야 한다.
본 발명의 일 실시 예에 의하면, 공항 로봇은 장애물의 감지 유무에 따라 주행 속도를 가변적으로 운용한다. 이에 의해, 공항의 장소적 특성에 맞게, 공항 로봇은 장애물과의 충돌을 회피하며 효율적인 주행을 할 수 있다.
사람의 밀집도에 따른 주행 속도의 제어
도 6은 본 발명의 다른 실시 예에 의한 공항 로봇의 주행 과정을 도시한 도면이다.
본 발명의 다른 실시 예에 의하면, 공항 로봇(100)은 사람의 밀집도에 기초하여 주행 속도를 조절할 수 있다. 구체적으로, 공항 로봇(100)은 사람을 감지하는 경우, 사람의 밀집도가 클수록 주행 속도를 감소시킬 수 있다. 예를 들어, 공항 로봇(100)은 감지되는 인원이 많으면 주행 속도를 줄일 수 있다. 반면, 공항 로봇(100)은 공항 내 혼잡도가 적은 경우 주행 속도를 증가시킬 수 있다.
도 6에 도시된 바와 같이, 공항 로봇(100)은 공항 내 주행을 시작한다 (S601).
공항 로봇(100)은 주행 경로 주위에 장애물을 감지한다(S602).
공항 로봇(100)은 사람이 감지되는지 판단한다(S603).
상기 S601 단계 내지 S603 단계에 대해서는 앞서 도 4에서 이미 설명하였으므로, 이에 대한 상세한 설명은 생략한다.
사람이 감지된다고 판단되면(S603-Yes), 공항 로봇(100)은 사람의 밀집도를 측정한다(S604).
공항 로봇(100)의 어플리케이션 프로세서(150)는 오브젝트 인식부(170)가 획득한 2차원 영상 및 인식한 사람에 기초하여, 주행 경로 주위의 사람의 밀집도를 판단할 수 있다. 구체적으로, 어플리케이션 프로세서(150)는 2차원 영상을 분석하여 주행 경로 주위의 영역에 위치한 사람 수를 계산하고, 해당 영역의 넓이를 사람 수로 나눈 값을 계산함으로써, 주행 경로 주위의 사람의 밀집도를 판단할 수 있다.
이를 위해, 오브젝트 인식부(170)는 다양한 종류의 센서들에 의해 주행 경로 주위의 2차원 영상을 획득하고, 획득한 영상을 기반으로 사람 또는 사물을 인식할 수 있다.
한편, S603단계에서 사람이 감지되지 않는다고 판단되면(S603-No), 공항 로봇(100)은 S601 단계로 되돌아가 공항 내 주행을 계속한다.
공항 로봇(100)은 측정된 밀집도에 기초하여 주행 속도를 조절한다(S605).
구체적으로, 공항 로봇(100)은 정상 속도로 주행 중 주행 경로 주위의 영역에 사람을 감지하는 경우, 사람의 밀집도가 기준값 이상이면 사람의 밀집도가 높을수록 주행 속도를 감소시킬 수 있다. 또한, 공항 로봇(100)은 사람의 밀집도가 낮을수록 주행 속도를 증가시킬 수 있다.
한편, 실시 예에 따라, 공항 로봇(100)은 시간대 별로 달라지는 공항 내 혼잡도에 대응하여 주행 속도를 조절할 수도 있다. 예를 들어, 공항의 이용객 수는 시간대 별로 달라진다. 따라서, 공항 로봇(100)은 주행 경로 주위의 사람의 밀집도를 판단하지 않고도, 혼잡도가 높은 시간대에는 주행 속도를 감소시키고 혼잡도가 낮은 시간대에는 주행 속도를 증가시킬 수 있다.
도 7a 내지 도 7c는 본 발명의 다른 실시 예에 의한 공항 로봇의 주행 방법을 설명하기 위한 도면이다.
도 7a는 공항 로봇(100)이 정상적으로 주행하는 경우이다. 공항 로봇 (100)은 공항 안을 소정 속도, 즉 2km/h로 주행하고 있다. 이 경우, 공항 로봇 (100)은 주행 방향의 전방에 사람을 위치하는 것을 감지한다.
도 7b와 도 7c는 공항 로봇(100)이 사람의 밀집도에 대응하여 주행 속도를 조절하는 경우이다. 사람이 감지되는 경우, 공항 로봇(100)은 사람의 밀집도를 판단하고, 사람의 밀집도에 대응하여 주행 속도를 조절한다. 공항 로봇(100)은 도 7b에 도시된 바와 같이 사람의 밀집도가 기준값 이상이면 주행 속도를 1.5km/h로 감소시킨다. 또한, 공항 로봇(100)은 도 7c에 도시된 바와 같이 사람의 밀집도가 좀더 높으면 주행 속도를 0.5km/h로 감소시킨다. 도 7b보다 도 7c가 사람의 밀집도가 더 높으므로, 공항 로봇(100)은 도 7b 의 경우보다 도 7c의 경우에서 보다 낮은 주행 속도로 주행하게 된다.
한편, 공항 로봇(100)은 사람의 밀집도가 기준값 이상으로 낮아지는 경우, 공항 로봇(100)이 정상적으로 주행하던 소정 속도, 즉 2km/h로 주행 속도를 증가시켜 주행을 계속할 수 있다.
한편 상기 사람의 밀집도는, 공항 로봇(100)의 진행 방향으로부터 일정 각도 범위 내의 영역에서의 사람의 밀집도일 수 있다.
도 6 내지 도 7c에 도시된 바와 같이, 본 발명의 다른 실시 예에 의하면, 공항 로봇(100)은 사람의 밀집도에 따라 주행 속도를 가변적으로 조정한다. 사람의 밀집도가 높아질수록 공항 로봇(100)이 사람과 충돌할 가능성은 높아진다. 따라서, 사람의 밀집도가 높아지면 공항 로봇(100)은 주행 속도를 낮춤으로써 공항 로봇(100)과 사람과의 충돌 사고가 발생할 가능성을 낮추고 이러한 사고를 예방할 수 있다. 이에 의해, 공항 로봇(100)은 공항의 실시간 혼잡도 등의 주변 상황을 반영하여 장애물과의 충돌을 회피하는 주행을 할 수 있다.
한편 공항 로봇(100)은 사람의 밀집도 및 밀집도를 판단한 영역 내 사람의 분포에 기초하여 주행 방법을 변경할 수 있다. 예를 들어 공항 로봇(100) 주변의 밀집도가 제1 밀집도이고, 공항 로봇(100) 주변에 사람이 고르게 분포되어 있는 경우, 공항 로봇(100)은 주행 속도를 낮출수 있다. 다른 예를 들어, 공항 로봇(100) 주변의 밀집도가 위와 동일한 제1 밀집도이고, 공항 로봇(100)의 진행 방향의 정면에 사람이 밀집되어 있는 경우, 공항 로봇(100)은 주행 속도를 낮추지 않고 사람이 밀집되어 있는 영역을 우회할 수 있다. 다른 예를 들어, 공항 로봇(100) 주변의 밀집도가 위와 동일한 제1 밀집도이고, 공항 로봇(100)의 진행 방향의 좌측면에 사람이 밀집되어 있는 경우, 공항 로봇(100)은 공항 로봇(100)의 속도를 낮추지 않고 기존의 주행 방향으로 주행할 수 있다.
일정 영역 이내에 사람이 존재하는 경우 주행의 중단
도 8은 본 발명의 또 다른 실시 예에 의한 공항 로봇의 주행 과정을 도시한 도면이다.
본 발명의 또 다른 실시 예에 의하면, 공항 로봇(100)은 일정 영역 이내에 사람이 감지되면 주행을 중단할 수 있다. 구체적으로, 공항 로봇(100)은 주행 중 주행 경로로부터 일정 거리 내에 위치하는 사람을 감지하는 경우, 주행을 중단할 수 있다.
도 8에 도시된 바와 같이, 공항 로봇(100)은 공항 내 주행을 시작한다 (S801).
공항 로봇(100)은 주행 경로 주위에 장애물을 감지한다(S802).
상기 S801 단계 내지 S802 단계에 대해서는 앞서 도 4에서 이미 설명하였으므로, 이에 대한 상세한 설명은 생략한다.
공항 로봇(100)은 일정 영역 이내에 사람이 감지되는지 판단한다(S803).
일정 영역은 공항 로봇(100)의 주행 경로로부터 소정 거리 내의 영역일 수 있다. 이 경우, 일정 영역은 서로 충돌할 가능성이 높은 공항 로봇(100)과 사람간의 소정 거리에 기초하여 설정될 수 있다. 예를 들어, 소정 거리는 50cm일 수 있다.
일 실시 예에 의하면, 일정 영역의 크기는 공항 로봇(100)이 제공하는 서비스의 특성에 대응하여 설정될 수 있다. 예를 들어, 사람과의 인터페이스가 필요한 서비스(예를 들어, 안내, 광고 등)를 제공하는 공항 로봇(100)의 경우, 사람이 공항 로봇(100)에 접근할 가능성이 높다. 따라서, 공항 로봇(100)과 사람이 충돌할 가능성이 상대적으로 높으므로, 멀리 있는 사람을 감지하더라도 주행을 중단할 수 있도록 일정 영역의 크기는 크게 설정된다. 반면, 일반적으로 사람과의 인터페이스가 필요하지 않은 서비스(예를 들어, 순찰, 감시, 방역 등)를 제공하는 공항 로봇(100)의 경우 사람이 공항 로봇(100)에 접근할 가능성이 낮다. 따라서, 공항 로봇(100)과 사람이 충돌할 가능성이 상대적으로 낮으므로, 가까운 곳에 있는 사람을 인식하는 경우에만 주행을 중단할 수 있도록 일정 영역의 크기는 작게 설정된다.
다른 실시 예에 의하면, 공항 로봇(100)은 공항 내 혼잡도, 주위 영역의 사람의 밀집도 및 시간대 중 적어도 어느 하나에 기초하여, 일정 영역의 크기를 조정할 수 있다. 예를 들어, 공항이 혼잡한 시간대에는 공항 로봇(100)과 사람 간의 충돌 가능성이 상대적으로 높으므로, 일정 영역의 크기를 좁게 설정하여 상호간의 충돌을 회피하며 주행할 수 있다. 반면, 공항이 한가한 시간대에는 상호 간의 충돌 가능성이 상대적으로 낮으므로, 일정 영역의 크기를 크게 설정하여 주행할 수 있다.
일정 영역 이내에 사람이 감지된다고 판단되면(S803-Yes), 공항 로봇(100)은 주행을 중단한다(S804).
공항 로봇(100)은 오브젝트의 움직임 유무, 감지 온도 및 소리 중 적어도 하나에 기초하여, 해당 오브젝트가 물체인지 또는 사람인지 여부를 구분하여 감지할 수 있다. 이를 위해, 오브젝트 인식부(170)는 다양한 종류의 센서들에 의해 주행 경로 주위의 2차원 영상을 획득하고, 획득한 영상을 기반으로 사람 또는 사물을 인식할 수 있다.
한편, S803단계에서 사람이 감지되지 않는다고 판단되면(S803-No), 공항 로봇(100)은 S801 단계로 되돌아가 공항 내 주행을 계속한다.
공항 로봇(100)은 일정 영역 이내에 사람이 감지되지 않는지 판단한다 (S805).
일정 영역 이내에 사람이 감지되지 않는다고 판단되면(S805-Yes), 공항 로봇(100)은 공항 내 영역을 재 주행한다(S806). 반면, 사람이 감지된다고 판단되면(S805-No), 공항 로봇(100)은 S804 단계로 되돌아가 주행 중단 상태를 계속 유지한다.
도 9a와 도 9b는 본 발명의 또 다른 실시 예에 의한 공항 로봇의 주행 방법을 설명하기 위한 도면이다.
도 9a는 공항 로봇(100)이 정상적으로 주행하는 경우이다. 공항 로봇 (100)은 공항 안을 소정 속도, 즉 2km/h로 주행하고 있다. 도 9a에 도시된 바와 같이, 현재 일정 영역, 즉 공항 로봇(100)의 주행 경로로부터 소정 거리 내의 영역에 존재하는 사람은 없다.
도 9b는 공항 로봇(100)이 주행을 중단하는 경우이다. 공항 로봇(100)은 주행 경로로부터 소정 거리내의 영역인 일정 영역에 사람이 존재하는 것을 감지하는 경우, 주행을 중단한다. 도 9b에서, 일정 영역은 공항 로봇(100)의 주행 경로에서 소정 반경 내의 영역, 즉 동심원 형태로 도시된 영역이다. 해당 영역에서 사람이 감지되므로, 공항 로봇(100)은 주행을 중단한다.
한편, 공항 로봇(100)은 주행 중단 중인 상태에서 일정 영역 내에 사람이 존재하는지 여부를 계속 감지하고, 사람이 존재하지 않게 되는 경우 재 주행을 시작할 수 있다.
도 8 내지 도 9b에 도시된 바와 같이, 본 발명의 또 다른 실시 예에 의하면, 공항 로봇(100)은 일정 영역 내에 사람이 존재하는 경우 주행을 중단한다. 일정 영역 내에 사람이 존재하는 경우, 공항 로봇(100)과 사람이 충돌할 가능성은 높아진다. 따라서, 일정 영역 내에 사람이 위치하는 경우 공항 로봇(100)은 주행을 중단함으로써 공항 로봇(100)과 사람과의 충돌 사고가 발생할 가능성을 낮추고 이러한 사고를 예방할 수 있다. 이에 의해, 공항 로봇(100)은 장애물과의 충돌을 효율적으로 회피하는 주행을 할 수 있다.
사람의 신장에 따른 주행 속도 제어
도 10은 본 발명의 또 다른 실시 예에 의한 공항 로봇의 주행 과정을 도시한 도면이다.
본 발명의 또 다른 실시 예에 의하면, 공항 로봇(100)은 사람의 신장에 기초하여 주행 속도를 조절할 수 있다. 구체적으로, 공항 로봇(100)은 사람을 감지하는 경우, 사람의 신장이 작을수록 주행 속도를 감소시킬 수 있다.
도 10에 도시된 바와 같이, 공항 로봇(100)은 공항 내 주행을 시작한다 (S1001).
공항 로봇(100)은 주행 경로 주위에 장애물을 감지한다(S1002).
공항 로봇(100)은 사람이 감지되는지 판단한다(S1003).
상기 S1001 단계 내지 S1003 단계에 대해서는 앞서 도 4에서 이미 설명하였으므로, 이에 대한 상세한 설명은 생략한다.
사람이 감지된다고 판단되면(S1003-Yes), 공항 로봇(100)은 감지된 사람의 신장을 측정한다(S1004).
일 실시 예에 의하면, 공항 로봇(100)의 어플리케이션 프로세서(150)는 오브젝트 인식부(170)가 획득한 실시간 2차원 영상에 기초하여 사람의 신장을 측정할 수 있다. 구체적으로, 어플리케이션 프로세서(150)는 실시간 2차원 영상 화면에서 기준선을 표시하고, 기준선에 위치한 사용자의 이미지를 촬영하여 이 이미지에서 사용자의 머리끝을 인식할 수 있다. 이 경우, 어플리케이션 프로세서(150)는 기준선에서부터 촬영 이미지의 상단까지의 높이에 대한 머리끝 높이의 비율을 확인하여, 확인된 비율과 기준선에서부터 촬영 이미지의 상단까지의 실제 높이를 토대로, 사람의 신장을 측정할 수 있다.
한편, S1003단계에서 사람이 감지되지 않는다고 판단되면(S1003-No), 공항 로봇(100)은 S1001 단계로 되돌아가 공항 내 주행을 계속한다.
공항 로봇(100)은 측정된 신장에 기초하여 주행 속도를 조절한다(S1005).
공항 로봇(100)은 사람을 감지하는 경우, 사람의 신장이 작을수록 주행 속도를 감소시킬 수 있다. 이에 의해, 공항 로봇(100)은 주행 경로 주위에 유아나 아동이 존재하는 경우 성인이 감지되는 경우와 비교하여 상대적으로 주행 속도를 크게 감소시켜 주행할 수 있다.
도 11a와 도 11b는 본 발명의 또 다른 실시 예에 의한 공항 로봇의 주행 방법을 설명하기 위한 도면이다.
도 11a는 공항 로봇(100)이 주행 중 신장이 큰 사람을 감지하는 경우이다. 공항 로봇(100)은 감지된 사람의 신장이 소정의 기준값 이상으로 측정되는 경우, 감지된 사람이 성인이라 판단하고 이에 기초하여 주행 속도를 감소시킨다. 도 11a를 참조하면, 공항 로봇(100)은 주행 속도를 2km/h로 감소시킨다.
도 11b는 공항 로봇(100)이 주행 중 신장이 작은 사람을 감지하는 경우이다. 공항 로봇(100)은 감지된 사람의 신장이 소정의 기준값 미만으로 측정되는 경우, 감지된 사람이 아동 또는 유아라고 판단하고 이에 기초하여 주행 속도를 크게 감소시킨다. 도 11b를 참조하면, 공항 로봇(100)은 주행 속도를 0.5km/h로 감소시킨다.
도 10 내지 도 11b에 도시된 바와 같이, 본 발명의 또 다른 실시 예에 의하면, 공항 로봇(100)은 감지된 사람의 신장이 작게 측정될수록 주행 속도를 감소시킨다. 신장이 작은 유아나 아동의 경우, 성인에 비해 인지력과 판단력이 떨어지므로, 공항 로봇(100)과의 충돌 사고에 적절히 대처하는 것이 어렵다. 따라서, 감지된 사람의 신장이 작게 측정될수록, 공항 로봇(100)은 주행 속도를 크게 감소시킴으로써 공항 로봇(100)과 사람과의 충돌 사고가 발생할 가능성을 낮추고 이러한 사고를 예방할 수 있다. 이에 의해, 공항 로봇(100)은 장애물과의 충돌을 효율적으로 회피하는 주행을 할 수 있다.
한편, 공항 로봇(100)은 사람의 혼잡도 판단을 하는 경우, 공항 로봇(100) 주변의 사람뿐만 아니라 다른 공항 로봇까지 고려하여 판단할 수 있다.
또한 공항 로봇(100)은 다른 공항 로봇과 관련된 특성에 대응하여 공항 로봇(100)의 주행 속도를 조절할 수 있다. 여기서 다른 공항 로봇과 관련된 특성은, 사람과 관련된 특성을 결정하는 것과 동일한 방식으로 결정될 수 있다.
한편, 제어부는 일반적으로 장치의 제어를 담당하는 구성으로, 중앙처리장치, 마이크로 프로세서, 프로세서 등의 용어와 혼용될 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 단말기의 제어부(180)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (15)

  1. 공항 로봇에 있어서,
    상기 공항 로봇의 주행 경로를 소정의 주행 속도로 주행하는 주행 구동부;
    사람과, 상기 사람과 관련된 특성을 감지하는 오브젝트 인식부; 및
    상기 소정의 주행 속도로 주행하되, 상기 공항 로봇으로부터 소정 거리 내의 영역에 상기 사람이 존재하는 경우, 상기 사람과 관련된 특성에 대응하여 상기 소정의 주행 속도를 조절하도록, 상기 주행 구동부를 제어하는 제어부를 포함하는 공항 로봇.
  2. 제1항에 있어서,
    상기 소정 거리는, 상기 공항 로봇이 제공하는 서비스의 종류 및 특성 중 적어도 어느 하나에 대응하여 설정되는 공항 로봇.
  3. 제1항에 있어서,
    상기 소정 거리는, 공항 내 혼잡도 및 시간대 중 적어도 어느 하나에 대응하여 설정되는 공항 로봇.
  4. 제1항에 있어서,
    상기 사람과 관련된 특성은, 상기 사람과 상기 공항 로봇간의 거리이고,
    상기 제어부는, 상기 사람과 상기 공항 로봇간의 거리가 가까워질수록 상기 소정의 주행 속도를 감소시키도록 상기 주행 구동부를 제어하는 공항 로봇.
  5. 제1항에 있어서,
    상기 사람과 관련된 특성은, 상기 영역에 상기 사람이 존재하는 정도인 사람의 밀집도이고,
    상기 제어부는, 상기 사람의 밀집도가 높을수록 상기 소정의 주행 속도를 감소시키도록 상기 주행 구동부를 제어하는 공항 로봇.
  6. 제 5항에 있어서,
    상기 제어부는,
    상기 사람의 밀집도 및 상기 밀집도를 판단한 영역 내의 사람의 분포에 기초하여 주행 방법을 결정하는 공항 로봇.
  7. 제1항에 있어서,
    상기 사람과 관련된 특성은, 상기 소정 거리보다 짧은 임계 거리 내에 상기 사람이 존재하는지 여부이고,
    상기 제어부는, 상기 임계 거리 내에 상기 사람이 존재하는 경우 상기 공항 로봇의 주행을 중단시키도록 상기 주행 구동부를 제어하는 공항 로봇.
  8. 제1항에 있어서,
    상기 사람과 관련된 특성은, 상기 사람의 신장이고,
    상기 제어부는, 상기 사람의 신장이 작을수록 상기 소정의 주행 속도를 감소시키도록 상기 주행 구동부를 제어하는 공항 로봇.
  9. 공항 로봇을 제어하는 서버에 있어서,
    상기 공항 로봇과 통신을 수행하는 통신부; 및
    소정의 주행 속도로 주행하도록 상기 공항 로봇을 제어하는 제어부를 포함하되,
    상기 제어부는, 상기 공항 로봇으로부터 소정 거리 내의 영역에 사람이 존재하는지 여부 및 상기 사람과 관련된 특성에 대한 데이터를 상기 통신부가 수신하는 경우, 상기 사람과 관련된 특성에 대응하여 상기 소정의 주행 속도를 조절하도록 상기 공항 로봇을 제어하는 서버.
  10. 제9항에 있어서,
    상기 소정 거리는, 상기 공항 로봇이 제공하는 서비스의 종류 및 특성 중 적어도 어느 하나에 대응하여 설정되는 서버.
  11. 제9항에 있어서,
    상기 소정 거리는, 공항 내 혼잡도 및 시간대 중 적어도 어느 하나에 대응하여 설정되는 서버.
  12. 제9항에 있어서,
    상기 사람과 관련된 특성은, 상기 사람과 상기 공항 로봇간의 거리이고,
    상기 제어부는, 상기 사람과 상기 공항 로봇간의 거리가 가까워질수록 상기 소정의 주행 속도를 감소시키도록 상기 공항 로봇을 제어하는 서버.
  13. 제9항에 있어서,
    상기 사람과 관련된 특성은, 상기 영역에 상기 사람이 존재하는 정도인 사람의 밀집도이고,
    상기 제어부는, 상기 사람의 밀집도가 높을수록 상기 소정의 주행 속도를 감소시키도록 상기 공항 로봇을 제어하는 서버.
  14. 제9항에 있어서,
    상기 사람과 관련된 특성은, 상기 소정 거리보다 짧은 임계 거리 내에 상기 사람이 존재하는지 여부이고,
    상기 제어부는, 상기 임계 거리 내에 상기 사람이 존재하는 경우 주행을 중단하도록 상기 공항 로봇을 제어하는 서버.
  15. 제9항에 있어서,
    상기 사람과 관련된 특성은, 상기 사람의 신장이고,
    상기 제어부는, 상기 사람의 신장이 작을수록 상기 소정의 주행 속도를 감소시키도록 상기 공항 로봇을 제어하는 서버.
PCT/KR2017/010269 2016-10-07 2017-09-19 공항 로봇 및 이를 포함하는 시스템 WO2018066837A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0130045 2016-10-07
KR1020160130045A KR102578138B1 (ko) 2016-10-07 2016-10-07 공항 로봇 및 이를 포함하는 시스템

Publications (1)

Publication Number Publication Date
WO2018066837A1 true WO2018066837A1 (ko) 2018-04-12

Family

ID=61831835

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/010269 WO2018066837A1 (ko) 2016-10-07 2017-09-19 공항 로봇 및 이를 포함하는 시스템

Country Status (2)

Country Link
KR (1) KR102578138B1 (ko)
WO (1) WO2018066837A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111562782A (zh) * 2020-04-15 2020-08-21 长沙中联重科环境产业有限公司 一种防疫消毒清洁机器人
US20210008723A1 (en) * 2018-04-25 2021-01-14 Samsung Electronics Co., Ltd. Mobile robot device and method for providing service to user
CN113706790A (zh) * 2021-09-28 2021-11-26 平安国际智慧城市科技股份有限公司 行驶辅助的方法、系统、装置、设备及介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200094831A (ko) 2019-01-22 2020-08-10 삼성전자주식회사 로봇 및 그 제어 방법
KR102314009B1 (ko) * 2019-10-22 2021-10-18 네이버랩스 주식회사 로봇의 주행을 위해 설정된 전용 도로를 사용하여 로봇을 제어하는 방법 및 시스템
KR102565568B1 (ko) * 2020-10-30 2023-08-14 한국전자기술연구원 로봇 주행 방법 및 이를 지원하는 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146491A (ja) * 2004-11-18 2006-06-08 Matsushita Electric Ind Co Ltd 移動ロボットおよびその追従方法
KR20080056669A (ko) * 2006-12-18 2008-06-23 가부시키가이샤 히타치세이사쿠쇼 안내 로봇장치 및 안내시스템
KR20080090150A (ko) * 2007-04-04 2008-10-08 삼성전자주식회사 서비스 로봇과 서비스 로봇을 이용하는 서비스 시스템 및서비스 로봇을 이용하는 서비스 시스템의 제어방법
KR100904191B1 (ko) * 2008-05-29 2009-06-22 (주)다사로봇 안내용 로봇
KR20160000162A (ko) * 2014-06-24 2016-01-04 주식회사 네오텍 안내용 서비스 로봇의 자율주행 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5617562B2 (ja) * 2010-11-26 2014-11-05 株式会社国際電気通信基礎技術研究所 移動ロボット

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006146491A (ja) * 2004-11-18 2006-06-08 Matsushita Electric Ind Co Ltd 移動ロボットおよびその追従方法
KR20080056669A (ko) * 2006-12-18 2008-06-23 가부시키가이샤 히타치세이사쿠쇼 안내 로봇장치 및 안내시스템
KR20080090150A (ko) * 2007-04-04 2008-10-08 삼성전자주식회사 서비스 로봇과 서비스 로봇을 이용하는 서비스 시스템 및서비스 로봇을 이용하는 서비스 시스템의 제어방법
KR100904191B1 (ko) * 2008-05-29 2009-06-22 (주)다사로봇 안내용 로봇
KR20160000162A (ko) * 2014-06-24 2016-01-04 주식회사 네오텍 안내용 서비스 로봇의 자율주행 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210008723A1 (en) * 2018-04-25 2021-01-14 Samsung Electronics Co., Ltd. Mobile robot device and method for providing service to user
US11931906B2 (en) * 2018-04-25 2024-03-19 Samsung Electronics Co., Ltd. Mobile robot device and method for providing service to user
CN111562782A (zh) * 2020-04-15 2020-08-21 长沙中联重科环境产业有限公司 一种防疫消毒清洁机器人
CN113706790A (zh) * 2021-09-28 2021-11-26 平安国际智慧城市科技股份有限公司 行驶辅助的方法、系统、装置、设备及介质

Also Published As

Publication number Publication date
KR20180038870A (ko) 2018-04-17
KR102578138B1 (ko) 2023-09-13

Similar Documents

Publication Publication Date Title
WO2018066837A1 (ko) 공항 로봇 및 이를 포함하는 시스템
WO2018052204A1 (ko) 공항 로봇 및 그를 포함하는 공항 로봇 시스템
WO2018070664A1 (ko) 공항용 보조 로봇 및 그의 동작 방법
WO2018070663A1 (ko) 공항용 로봇 및 그의 동작 방법
WO2018128292A1 (ko) 공항용 로봇 및 그의 동작 방법
WO2018070686A1 (ko) 공항용 안내 로봇 및 그의 동작 방법
WO2018066816A1 (ko) 공항용 로봇 및 그의 동작 방법
WO2018070687A1 (ko) 공항 로봇 및 그를 포함하는 공항 로봇 시스템
WO2019235743A1 (ko) 장애물 회피에 기반하여 경유 지점을 주행하는 로봇 및 주행하는 방법
WO2018164326A1 (ko) 청소기 및 그 제어방법
WO2018117513A1 (ko) 공항용 로봇 및 그의 동작 방법
EP3829830A1 (en) Moving robot, system of moving robot and method for moving to charging station of moving robot
WO2018043957A1 (en) Robot cleaner
WO2018066836A1 (ko) 공항 로봇 및 공항 로봇 시스템
KR102570164B1 (ko) 공항 로봇 및 그와 연결되는 서버의 동작 방법
WO2020241950A1 (ko) 이동 로봇 및 그 제어방법
WO2019135437A1 (ko) 안내 로봇 및 그의 동작 방법
WO2020141900A1 (ko) 이동 로봇 및 그 구동 방법
WO2018117514A1 (ko) 공항용 로봇 및 그의 동작 방법
WO2020159277A2 (ko) 이동 로봇 및 이의 제어 방법
WO2017171503A1 (ko) 크라우드 소싱 데이터 기반 교통 신호 조절 방법 및 서버
WO2019194415A1 (en) Mover robot system and controlling method for the same
WO2021230441A1 (ko) 이동 로봇 시스템의 송출기 및 이의 이탈 감지 방법
KR20180037855A (ko) 공항 로봇 및 공항 로봇 시스템
WO2019240374A1 (ko) 대기열을 인식하는 이동식 로봇 및 이동식 로봇의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17858632

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17858632

Country of ref document: EP

Kind code of ref document: A1