WO2018117513A1 - 공항용 로봇 및 그의 동작 방법 - Google Patents
공항용 로봇 및 그의 동작 방법 Download PDFInfo
- Publication number
- WO2018117513A1 WO2018117513A1 PCT/KR2017/014491 KR2017014491W WO2018117513A1 WO 2018117513 A1 WO2018117513 A1 WO 2018117513A1 KR 2017014491 W KR2017014491 W KR 2017014491W WO 2018117513 A1 WO2018117513 A1 WO 2018117513A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- button
- user
- airport robot
- signal
- display device
- Prior art date
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 8
- 238000000034 method Methods 0.000 title claims description 40
- 238000001514 detection method Methods 0.000 claims abstract description 29
- 238000013459 approach Methods 0.000 claims abstract description 8
- 238000011017 operating method Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 51
- 238000010586 diagram Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 9
- 238000007726 management method Methods 0.000 description 8
- HBBGRARXTFLTSG-UHFFFAOYSA-N Lithium ion Chemical compound [Li+] HBBGRARXTFLTSG-UHFFFAOYSA-N 0.000 description 6
- 238000004140 cleaning Methods 0.000 description 6
- 229910001416 lithium ion Inorganic materials 0.000 description 6
- 238000013439 planning Methods 0.000 description 6
- 238000000060 site-specific infrared dichroism spectroscopy Methods 0.000 description 6
- 238000002604 ultrasonography Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000007599 discharging Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 239000000443 aerosol Substances 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 230000002618 waking effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/086—Proximity sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3206—Monitoring of events, devices or parameters that trigger a change in power modality
- G06F1/3231—Monitoring the presence, absence or movement of users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/325—Power saving in peripheral device
- G06F1/3265—Power saving in display device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/325—Power saving in peripheral device
- G06F1/3278—Power saving in modem or I/O interface
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/26—Power supply means, e.g. regulation thereof
- G06F1/32—Means for saving power
- G06F1/3203—Power management, i.e. event-based initiation of a power-saving mode
- G06F1/3234—Power saving characterised by the action undertaken
- G06F1/3287—Power saving characterised by the action undertaken by switching off individual functional units in the computer system
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0421—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means by interrupting or reflecting a light beam, e.g. optical touch-screen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Definitions
- the present invention relates to a robot disposed at an airport and a method of operating the same, and more particularly, to an airport guide robot and a method of operating the same, which are arranged at an airport and provide a road guide to users.
- Robot applications are generally classified into industrial, medical, space, and submarine applications.
- robots can perform repetitive tasks.
- many industrial robots are already in operation that repeat the same movement for hours if the human arm is taught only once.
- the sensing sensor may transmit a signal including an ultrasonic wave or an infrared ray, and receive a reflected wave signal reflected by an obstacle to recognize an object in proximity.
- a sensing sensor is applied to various proximity sensing systems.
- a sensing sensor is installed on a bumper side of a vehicle to prevent a collision of a vehicle, and there is a proximity sensing system that detects and informs when an object approaches a vehicle.
- the sensing sensor when the sensing sensor is applied to the display device, the sensing sensor may detect that a part of the user's body approaches or contacts the display device.
- Another object of the present invention is to enable the user to intuitively recognize whether the operation menu of the robot is active.
- the robot for an airport attaches a sensor around the display unit, and automatically activates a menu of the display unit when the user approaches.
- the airport robot according to the present invention may generate a control signal for outputting as an audio or image whether the menu button is in an activatable state.
- the airport robot attaches a sensor around the display unit, and automatically activates a menu of the display unit when the user is in proximity to the display unit, an effect of eliminating a manual operation of the user for activating a menu button is omitted. Bring.
- the airport robot according to the present invention has an effect of allowing the user to intuitively recognize whether the operation menu of the robot is active by outputting as an audio or image whether the menu button is in an active state.
- FIG. 1 is a block diagram showing a hardware configuration of an airport robot according to an embodiment of the present invention.
- FIG. 2 is a view showing in detail the configuration of the micom and the AP of the airport robot according to another embodiment of the present invention.
- FIG. 3 is a view for explaining the structure of the airport robot system according to an embodiment of the present invention.
- FIG. 4 is a diagram illustrating an example in which an airport robot detects a human body or an object at predetermined distances according to an embodiment of the present invention.
- FIG. 5 is a diagram illustrating an example in which a display device using proximity sensing is actually applied according to an embodiment of the present invention.
- FIG. 6 is a block diagram of a display device using proximity sensing according to an embodiment of the present invention.
- FIG. 7 is a diagram illustrating an example in which the sensing sensor illustrated in FIG. 6 is mounted on a display device.
- FIG. 8 is a diagram illustrating another example in which the sensing sensor illustrated in FIG. 6 is mounted on a display device.
- FIG. 9 is a diagram illustrating a method of detecting a position where a part of a user's body is close by using the sensor shown in FIG. 6.
- FIG. 10 is a diagram for explaining a method of detecting a button existing in a position where a body part of a user is close by the button detector illustrated in FIG. 6.
- FIG. 11 is a diagram illustrating an example in which a button is detected in a display apparatus by the button detector illustrated in FIG. 6.
- FIG. 12 is a diagram for describing a method of operating the operable state detector illustrated in FIG. 6.
- FIG. 13 is a diagram illustrating an operation method of a preceding button search unit illustrated in FIG. 6.
- FIG. 14 is a diagram illustrating an example in which a preceding button is displayed on a display device.
- FIG. 15 is a diagram illustrating an operation method of the state information search unit illustrated in FIG. 6.
- FIG. 16 is a diagram illustrating a method of operating the state information search unit illustrated in FIG. 6 when a button is operable.
- FIG. 17 is a diagram illustrating a method of operating the state information search unit illustrated in FIG. 6 when a button is inoperable.
- FIG. 18 is a flowchart illustrating a display control method using proximity sensing according to an embodiment of the present invention.
- FIG. 19 is a flowchart illustrating a display control method using proximity sensing according to another exemplary embodiment of the present invention.
- FIG. 20 is a flowchart illustrating a display control method using proximity sensing according to another exemplary embodiment of the present invention.
- FIG. 21 is a flowchart illustrating a display control method using proximity sensing when there is no state information corresponding to the function of the button illustrated in FIG. 19.
- FIG. 1 is a block diagram showing a hardware configuration of an airport robot according to an embodiment of the present invention.
- the hardware of the airport robot 100 may be composed of a micom group and an AP group.
- the microcomputer 110 group may include a microcomputer 110, a power supply unit 120, an obstacle recognition unit 130, and a driving driver 140.
- the AP group may include the AP 150, the user interface unit 160, the object recognition unit 170, the location recognition unit 180, and the LAN 190.
- the user interface unit 160 may be referred to as a communication unit.
- the microcomputer 110 may manage a power supply unit 120 including a battery, an obstacle recognition unit 130 including various sensors, and a driving driver 140 including a plurality of motors and wheels among hardware of the airport robot. .
- the power supply unit 120 may include a battery driver 121 and a lithium-ion battery 122.
- the battery driver 121 may manage charging and discharging of the lithium-ion battery 122.
- the lithium-ion battery 122 may supply power for driving the airport robot.
- the lithium-ion battery 122 may be configured by connecting two 24V / 102A lithium-ion batteries in parallel.
- the obstacle recognition unit 130 may include an IR remote control receiver 131, a USS 132, a Cliff PSD 133, an ARS 134, a Bumper 135, and an OFS 136.
- the IR remote control receiver 131 may include a sensor for receiving a signal of an infrared (IR) remote controller for remotely controlling the airport robot.
- the USS (Ultrasonic sensor) 132 may include a sensor for determining a distance between the obstacle and the airport robot using an ultrasonic signal.
- Cliff PSD 133 may include a sensor for detecting cliffs or cliffs in the airport robot driving range of 360 degrees.
- Attitude Reference System (ARS) 134 may include a sensor for detecting a posture of an airport robot.
- the ARS 134 may include a sensor composed of three axes of acceleration and three axes of gyro for detecting the amount of rotation of the airport robot.
- Bumper 135 may include a sensor for detecting a collision between the airport robot and the obstacle. The sensor included in the bumper 135 may detect a collision between the airport robot and the obstacle in a 360 degree range.
- OFS Optical Flow Sensor, 1366
- OFS Optical Flow Sensor
- the driving unit 140 may include a motor driver 141, a wheel motor 142, a rotation motor 143, a main brush motor 144, a side brush motor 145, and a suction motor 146. It may include.
- the motor driver 141 may serve to drive a wheel motor, a brush motor, and a suction motor for driving and cleaning the airport robot.
- the wheel motor 142 may drive a plurality of wheels for driving the airport robot.
- the rotary motor 143 may be driven for left and right rotation and up and down rotation of the main body of the airport robot or the head of the airport robot, or may be driven to change the direction or rotate the wheels of the airport robot.
- the main brush motor 144 may drive a brush for sweeping up dirt from the airport floor.
- the side brush motor 145 may drive a brush that sweeps up dirt in an area around an outer surface of the airport robot.
- the suction motor 146 may be driven to suction dirt from the airport floor.
- the application processor 150 may function as a central processing unit for managing the entire hardware module system of the airport robot.
- the AP 150 may transmit the application program for driving and the user input / output information to the microcomputer 110 by using the location information input through various sensors to drive the motor.
- the user interface unit 160 may include a UI processor 161, an LTE router 162, a WIFI SSID 163, a microphone board 164, a barcode reader 165, a touch monitor 166, and the like. It may include a speaker 167.
- the user interface processor 161 may control an operation of a user interface unit that is responsible for input / output of a user.
- the LTE router 162 may perform LTE communication for receiving necessary information from the outside and transmitting information to the user.
- the WIFI SSID 163 may analyze the signal strength of the WiFi to perform location recognition of a specific object or an airport robot.
- the microphone board 164 may receive a plurality of microphone signals, process the voice signal into voice data which is a digital signal, and analyze the direction of the voice signal and the corresponding voice signal.
- the barcode reader 165 may read barcode information written in a plurality of tickets used at an airport.
- the touch monitor 166 may include a touch panel configured to receive a user input and a monitor for displaying output information.
- the speaker 167 may serve to inform the user of specific information by voice.
- the object recognition unit 170 may include a 2D camera 171, an RGBD camera 172, and a recognition data processing module 173.
- the 2D camera 171 may be a sensor for recognizing a person or an object based on the 2D image.
- RGBD camera Red, Green, Blue, Distance, 172
- the recognition data processing module 173 may recognize a person or an object by processing a signal such as a 2D image / image or a 3D image / image obtained from the 2D camera 171 and the RGBD camera 172.
- the position recognition unit 180 may include a stereo board (Stereo B / D, 181), a rider (Lidar, 182), and a SLAM camera 183.
- the SLAM camera Simultaneous Localization And Mapping camera, 183) can implement simultaneous location tracking and mapping technology.
- the airport robot detects the surrounding environment information using the SLAM camera 183 and processes the obtained information to prepare a map corresponding to the mission execution space and estimate its absolute position.
- the rider Light Detection and Ranging: Lidar, 182) is a laser radar, and may be a sensor that irradiates a laser beam and collects and analyzes backscattered light among light absorbed or scattered by an aerosol to perform position recognition.
- the stereo board 181 may be in charge of data management for location recognition and obstacle recognition of the airport robot by processing and processing sensing data collected from the rider 182 and the SLAM camera 183.
- the LAN 190 may communicate with the user input / output related user interface processor 161, the recognition data processing module 173, the stereo board 181, and the AP 150.
- FIG. 2 is a view showing in detail the configuration of the micom and the AP of the airport robot according to another embodiment of the present invention.
- the microcomputer 210 and the AP 220 may be implemented in various embodiments to control the recognition and behavior of the airport robot.
- the microcomputer 210 may include a data access service module 215.
- the data access service module 215 may include a data acquisition module 211, an emergency module 212, a motor driver module 213, and a battery manager module 214. It may include.
- the data acquisition module 211 may acquire data sensed from a plurality of sensors included in the airport robot and transfer it to the data access service module 215.
- the emergency module 212 is a module capable of detecting an abnormal state of the airport robot. When the airport robot performs a predetermined type of action, the emergency module 212 may detect that the airport robot has entered an abnormal state. Can be.
- the motor driver module 213 may manage driving control of a wheel, a brush, and a suction motor for driving and cleaning the airport robot.
- the battery manager module 214 may be responsible for charging and discharging the lithium-ion battery 122 of FIG. 1, and may transmit the battery status of the airport robot to the data access service module 215.
- the AP 220 may receive various cameras, sensors, user inputs, and the like, and process the recognition of the airport robot.
- the interaction module 221 synthesizes the recognition data received from the recognition data processing module 173 and the user input received from the user interface module 222 to manage the software that the user and the airport robot can interact with each other. May be a module.
- the user interface module 222 receives a short distance command of a user such as a display unit 223 and a key, a touch screen, a reader, etc., which are monitors for providing current status and operation / information of the airport robot,
- the user input may be received from a user input unit 224 receiving a remote signal such as a signal of an IR remote controller for remote control or receiving a user input signal from a microphone or a barcode reader.
- the user interface module 222 may transfer user input information to a state machine module 225.
- the state management module 225 having received the user input information may manage the overall state of the airport robot and issue an appropriate command corresponding to the user input.
- the planning module 226 may determine start and end points / actions for a specific operation of the airport robot according to a command received from the state management module 225, and calculate which path the airport robot should move.
- the navigation module 227 is responsible for the overall driving of the airport robot, and may cause the airport robot to travel according to the driving route calculated by the planning module 226.
- the motion module 228 may perform operations of a basic airport robot in addition to driving.
- the airport robot may include a location recognition unit 230.
- the position recognizer 230 may include a relative position recognizer 231 and an absolute position recognizer 234.
- the relative position recognition unit 231 may correct the movement amount of the airport robot through the RGM mono (232) sensor, calculate the movement amount of the airport robot for a predetermined time, and recognize the current environment of the current airport robot through the LiDAR 233. can do.
- the absolute location recognition unit 234 may include a Wifi SSID 235 and a UWB 236.
- the Wifi SSID 235 is a UWB sensor module for absolute position recognition of an airport robot, and is a WIFI module for estimating a current position through Wifi SSID detection.
- the Wifi SSID 235 may recognize the location of the airport robot by analyzing the signal strength of the Wifi.
- the UWB 236 may calculate the distance between the transmitter and the receiver to sense the absolute position of the airport robot.
- the airport robot may include a map management module 240.
- the map management module 240 may include a grid module 241, a path planning module 242, and a map partitioning module 243.
- the grid module 241 may manage the grid-shaped map generated by the airport robot through the SLAM camera or the map data of the surrounding environment for location recognition previously input to the airport robot.
- the path planning module 242 may be responsible for calculating a driving route of the airport robots in a map classification for collaboration between the plurality of airport robots.
- the path planning module 242 may calculate a driving route to which the airport robot should move in an environment in which one airport robot operates.
- the map segmentation module 243 may calculate the area to be in charge of each of the plurality of airport robots in real time.
- Data sensed and calculated by the location recognition unit 230 and the map management module 240 may be transferred to the state management module 225 again.
- the state management module 225 may instruct the planning module 226 to control the operation of the airport robot based on the data sensed and calculated by the location recognition unit 230 and the map management module 240.
- FIG. 3 is a view for explaining the structure of the airport robot system according to an embodiment of the present invention.
- An airport robot system may include a mobile terminal 310, a server 320, an airport robot 300, and a camera 330.
- the mobile terminal 310 may transmit and receive data with the server 320 in the airport.
- the mobile terminal 310 may receive airport-related data such as a flight time schedule, an airport map, and the like from the server 320.
- the user may receive and obtain information necessary for the airport from the server 320 through the mobile terminal 310.
- the mobile terminal 310 may transmit data such as a picture, a video, a message, etc. to the server 320.
- a user may request a cleaning of a corresponding area by transmitting a lost picture to the server 320 to receive a lost child or by taking a picture of an area requiring cleaning in the airport with a camera and transmitting the picture to the server 320.
- the mobile terminal 310 may transmit and receive data with the airport robot (300).
- the mobile terminal 310 may transmit a signal for calling the airport robot 300, a signal for commanding to perform a specific operation, or an information request signal to the airport robot 300.
- the airport robot 300 may move to the location of the mobile terminal 310 or perform an operation corresponding to the command signal in response to the call signal received from the mobile terminal 310.
- the airport robot 300 may transmit data corresponding to the information request signal to the mobile terminal 310 of each user.
- the airport robot 300 may serve as patrol, guidance, cleaning, quarantine, transport, etc. in the airport.
- the airport robot 300 may transmit / receive a signal with the mobile terminal 310 or the server 320.
- the airport robot 300 may transmit and receive a signal including the server 320 and the situation information in the airport.
- the airport robot 300 may receive image information photographing each zone of the airport from the camera 330 in the airport. Therefore, the airport robot 300 may monitor the situation of the airport by combining the image information taken by the airport robot 300 and the image information received from the camera 330.
- the airport robot 300 may receive a command directly from the user. For example, a command may be directly received from a user through an input for touching a display unit provided in the airport robot 300 or a voice input.
- the airport robot 300 may perform an operation such as patrolling, guiding, cleaning, or the like according to a command received from a user, a mobile terminal 310, a server 320, or the like.
- the server 320 may receive information from the mobile terminal 310, the airport robot 300, and the camera 330.
- the server 320 may integrate and store and manage information received from each device.
- the server 320 may transmit the stored information to the mobile terminal 310 or the airport robot 300.
- the server 320 may transmit a command signal for each of the plurality of airport robot 300 disposed in the airport.
- the camera 330 may include a camera installed in the airport.
- the camera 330 may include a plurality of CCTV (closed circuit television) cameras, infrared thermal cameras, and the like installed in the airport.
- the camera 330 may transmit the captured image to the server 320 or the airport robot 300.
- FIG. 4 is a diagram illustrating an example in which an airport robot detects a human body or an object at predetermined distances according to an embodiment of the present invention.
- the airport robot 400 may operate a different type of object recognition mode for each distance or range. For example, when a human body or an object is detected in the first range 410, the user interface 160 of the airport robot 400 may automatically wake up. If the user approaches only until reaching the first range 410 of the sensing range of the airport robot 400, the user may interface with the airport robot without manually waking the airport robot 400. In addition, when a human body or an object is detected in the second range 420, the airport robot 400 may execute a mode for interfacing with a user. If the user is in the second range 420, the airport robot 400 may first transmit a message to the speaker or text indicating that the user is able to interface before the user requests.
- the airport robot 400 may activate a dangerous mode. At this time, the airport robot 400 may output a warning sound to the speaker, or output a warning message, etc. to the monitor to inform that the user is too close.
- the airport robot 400 may stop the dangerous mode and notify the user that the safe distance has been reached.
- the airport robot 400 detects that the user enters within the third range 430, the airport robot 400 maintains a distance from itself or moves away from the airport robot 400 itself so that the user enters the second range 420. You can move in the falling direction.
- the airport robot 400 may provide a road guide service while accompanying the user to a specific destination.
- the airport robot 400 may move while sensing the distance with the user so that the user is at least within the first range 410. Therefore, the airport robot 400 may provide a road guide service while maintaining the distance with the user to always come within a certain range.
- FIG. 5 is a diagram illustrating an example in which a display device using proximity sensing is actually applied according to an embodiment of the present invention.
- the airport robot 500 may include a display device 510 that can rotate. Therefore, when the user 520 is detected within a predetermined distance, the display device 510 may execute an operation according to a predetermined algorithm.
- the display device 510 using proximity sensing may detect that a part of the user's body approaches the display device.
- the display device may detect a button located at a position where the body part of the user is in proximity, and output an operation information signal for the detected button. Therefore, it is possible to provide the user with operation guide information for a button that approaches the user's body part or state information corresponding to the function of the button. It may include both a graphic icon displayed on the screen of the display device and a touch button or a physical button provided on a portion other than the screen of the display device.
- the display device 510 using proximity sensing of the present invention may detect that a part of the user's body (for example, a finger 520) is approaching.
- the button control apparatus detects that the user's body part is in proximity to the display device
- the button control device may detect a button in which the user's body part is in the near position.
- the display device may output an operation information signal for the detected button.
- the dynamic information signal may include function information corresponding to the corresponding button, operation state information of the corresponding button, and guide information for operating the corresponding button when the operation of the corresponding button is impossible.
- the display device 510 may include a sensing sensor 610, a controller 620, an output unit 630, and a memory unit 640.
- the detection sensor 610 may be provided inside the display device 510 to detect that the user's body part 520 is close to the display device 510.
- the display device 510 may detect a position of the body part 520 of the user who is close to the display device 510 near the display device 510 by using the detection sensor 610.
- at least three detection sensors 610 may be provided in the display device 510.
- three display sensors 610 may be provided in the display apparatus 510 as shown in FIG. 7, but four display sensors 510 may be provided in order to increase detection accuracy.
- three display sensors 610 are provided in the display device 510.
- the position at which the sensor 610 is mounted may be mounted at appropriate positions for determining the position of the body part 520 of the user near the display device 510.
- the detection sensor 610 may include a signal transmitter 611 that transmits ultrasound and infrared signals to detect the proximity of the user's body part 520 to the display device 510.
- the signal transmission unit 611 may include a signal receiving unit 612 for receiving a reflected wave signal reflected by the body part 520 of the user.
- the signal transmitter 611 may transmit ultrasound and infrared signals to the display apparatus 510 so as to detect whether a user's body part 520 is in proximity. When the user's body part 520 is close to the display apparatus 510, the signal transmitter 611 adjusts an angle such that the transmitted ultrasound is reflected by the user's body part 520 to be received by the signal receiver 120. It can be adjusted to transmit ultrasonic and infrared signals.
- the signal receiver 612 may receive reflected waves in which ultrasonic waves and infrared signals transmitted from the signal transmitter 611 are reflected on the body part 520 of the user proximate the display apparatus 510.
- the signal receiver 612 may analyze whether the body part 520 of the user is close to the display apparatus 510 by analyzing the received reflected wave.
- the signal receiver 612 may calculate the level of the received reflected wave signal.
- the signal receiver 612 may detect that the user's body part 520 is close to the display device 510 when the calculated reflected wave signal has a level higher than or equal to a predetermined reference signal level.
- the signal receiver 612 may transmit the proximity detection signal and the information about the received reflected wave to the controller 620.
- the controller 620 may be located at a position where the user's body part 520 is close to the display device 510. Can detect a button. Then, it is possible to control to output the operation information signal of the detected button.
- the controller 620 may include a button detector 621, an operable state detector 622, and a preceding button searcher 623.
- the button detector 621 may receive the proximity detection signal and the reflected wave information from the signal receiver 612. When the proximity detection signal is received from the signal receiver 612, the button detector 621 may detect the button by using the received reflected wave information.
- the information on the reflected wave received from the signal receiver 612 may include reflected wave information received by at least three or more sensing sensors 610 provided in the display apparatus 510.
- the button detector 621 may detect location information of the body part 520 of the user near the display device 510 using at least three pieces of reflected wave information. In this case, detecting the position information of the body part 520 of the user proximate to the display device 510 may be performed by using at least three pieces of reflected wave information received from the signal receiver 612. The location information can be detected.
- the received reflected wave signal may be analyzed to detect position information of a part of the user's body 520.
- location information of the body part 520 of the user may be detected by applying triangulation to at least three reflected waves received as shown in FIG. 8.
- the method can detect the position information of the body part 520 of the user using the received reflected wave signal, other position detection methods may be applied in addition to the above-described method.
- the detected position information of the body part 520 of the user who is close to the display apparatus 510 may include (x, y, z) coordinate information.
- the button detector 621 may detect a position corresponding to the position of the body part 520 of the user who is close to the display apparatus 510 in the display apparatus 510. After detecting the corresponding position in the display apparatus 510, the button detector 621 may detect a button closest to the detected corresponding position as illustrated in FIG. 11. At this time, detecting the button closest to the detected corresponding position may detect the button closest to the detected corresponding position using button position data in which the position information of the button is stored for each button.
- the operable state detector 622 may detect whether the button 1130 detected by the button detector 621 is in a currently operable state. In this case, when the user touches or performs a physical manipulation of the corresponding button 1130, this may mean detecting whether a function corresponding to the corresponding button 1130 is executed immediately.
- the operation state detector 622 may control the operation notification signal to be output through the output unit 630 when the corresponding button 1130 is in an operation state. For example, the operable state detector 622 may display the Internet window when the button 1130 detected by the button detector 621 is an Internet button, and a network is connected and the user touches or physically operates the Internet button.
- the operation state detection unit 622 may output the operation notification signal of the Internet button on the screen of the display device 510 as shown in FIG. At this time, the outputting of the operation notification signal of the Internet button may be to output a pop-up window indicating "Internet button, current status: operable" as shown in FIG. Meanwhile, when the state information of the button 1230 is retrieved by the state information search unit 624, the operation state detection unit 622 may control to output the state information together with the operation notification signal.
- the operation notification signal may be output as a pop-up window that can be seen through the screen of the display device 510, as shown in Figure 12, it may be output as a voice message that can be heard through a speaker provided in the display device 510. have.
- a pop-up window may be output through the screen of the display device 510 and a voice message may be output through the speaker.
- the operation state detector 622 may transmit a search signal to the preceding button searcher 623 when the button 1230 detected by the button detector 621 is in an inoperable state.
- the preceding button search unit 623 may search for the preceding button to be operated before the operation of the button 1230 when the operation state detection unit 622 detects that the button 1230 is in an inoperable state. For example, if the button 1230 detected in an inoperable state by the operable state detector 622 is an internet button, the preceding button search unit 623 may search for a network connection button with the preceding button of the internet button. . The preceding button searching unit 623 may search for the preceding button through the operation sequence data previously stored in the memory unit 640.
- the manipulation order data may refer to data stored by sequentially arranging buttons to be manipulated in order to operate an arbitrary button 1230 for each button 1230. For example, since the network connection button must first be operated in order to operate the Internet button as described above, the operation sequence data for the Internet control button may be "network connection button".
- buttons 1230 that can be operated only when two or more preceding buttons are operated. For example, in order to operate an access button with another device, a network connection button must first be operated. The access unblocking button must then be operated. Since the access button with the other device must be operated next, the operation sequence data for the access button with the other device may be an "access button with another device".
- the preceding button search unit 623 may output an operation guide signal for the found preceding button.
- the operation guide signal for the found preceding button is to operate the corresponding button 1330 when the user manipulates the button 1330 to which the body part 520 of the user detected by the button detector 621 is located.
- This is a guide signal for the preceding button to be operated before.
- In order to induce the user to manipulate the preceding button to operate the corresponding button 1330 may include a guide signal including a notification signal for the preceding button or a message to operate the preceding button.
- a notification pop-up window including a notification signal indicating that a button detected by the button detector 621 is not currently operable and an operation guide signal for a preceding button may be output on the screen of the display apparatus 510.
- the preceding button search unit 623 includes a notification signal indicating that the button detected by the button detector 621 is not currently operable and an operation guide signal for the preceding button on the screen of the display apparatus 510.
- the notification popup window can be displayed.
- the preceding button may be displayed on the screen of the display device 510.
- the preceding button search unit 623 may output an operation guide signal for the preceding button and then check whether the preceding button is operated by the user.
- the preceding button search unit 623 may first output an operation notification signal for the button 1430 to which the body part 520 of the user is located. Therefore, at first, the user's body part 520 outputs an operation notification signal for a button 1430 that is close to the user, that is, a button 1430 that the user wants to operate to guide the user to operate the button 1430. Can be.
- the preceding button search unit 623 may output the operation guide signal for the searched preceding button without having to determine the output order.
- the output order may be important.
- the preceding button search unit 623 may output an operation guide signal for the preceding button according to the operation order stored in the operation order data.
- the button 1430 where the body part 520 of the user is adjacent may be an access button with another device.
- the preceding button search unit 623 according to the operation sequence of the operation sequence data.
- the operation guide signal for the network connection button can be output. If the network connection button is operated by the user after outputting the operation guide signal for the network connection button, the preceding button search unit 623 may output the operation guide signal for the access blocking release button. When the access block release button is operated by the user, the preceding button search unit 623 may control to output an operation notification signal for an access button with another device.
- the control unit 620 corresponds to the function of the button 1530 detected by the button detector 621 because it is detected that the body part 1520 of the user is close to the display device 510. Status information can be output.
- the controller 620 may include a state information searcher 624.
- the state information search unit 624 may detect that the body part 520 of the user is close to the corresponding button 1530 by the detection sensor 610. In this case, in response to the function of the button 1530 detected by the button detector 621, it is possible to search whether there is state information that can be provided to the user.
- the state information corresponding to the function of the button 1530 may mean information about a state currently set corresponding to the function of the button 1530 before the user operates the corresponding button 1530. For example, if the button 1530 is a volume control button (volume up button or volume down button), the state information corresponding to the function of the button 1530 may be volume information of the current speaker.
- the button information data may detect the latest state information corresponding to the button 1530 and store the latest state information corresponding to the button 1530 in the part classified into the corresponding button 1530.
- the button information data of the volume up button and the volume down button may store volume information as state information corresponding to the function of the corresponding button 1530.
- the state information may be periodically updated or newly detected state information when the state information on the corresponding button 1530 is detected.
- the status information retrieval unit 624 has status information corresponding to the function of the button 530 detected by the button detector 621.
- status information corresponding to the function of the corresponding button 1530 may be output through the output unit 630. For example, if the user's body part 520 is close to the display device 510 and the volume down button is detected by the button detector 621 as shown in FIG. 15, the volume level of the current speaker is 10. The information may be retrieved and output on the screen of the display device 510.
- the state information search unit 624 may control to output information on whether the corresponding button 1530 is in an operable state together with state information corresponding to the function of the button 1530 detected by the button detector 621. have.
- the state information retrieval unit 624 may check whether there is state information corresponding to the function of the button 1530 detected by the button detector 621.
- the operation state detector 622 may determine whether the corresponding button 1530 is in an operation state.
- the button 1530 is output through the output unit 630.
- Status information corresponding to the function of the and the button 1530 can output an operation notification signal indicating that the operation is possible.
- the button 1530 detected by the button detector 621 when the body part 520 of the user is in close proximity is a volume down button, is currently operable, and the volume level currently set in the speaker is 10. If is present, as shown in FIG. 16, a message pop-up window may be displayed on the screen of the display apparatus 510 such as “the volume down button, the current volume: 10, the current state: operable”.
- the state information retrieval unit 624 has state information corresponding to the function of the button 1630 detected by the button detection unit 621 due to the proximity of the body part 520 of the user, and the button 1630 is inoperable. If it is confirmed that the state, first through the preceding button detection unit 622 may be controlled so that the preceding button to be operated before the corresponding button 1630 for operating the corresponding button 1630. When the preceding button of the corresponding button 1630 is found, the status information searching unit 624 is in a state in which the corresponding button 1630 is currently inoperable, and in order to operate the corresponding button 1630, the searched preceding button must be operated first.
- An operation guide signal for a preceding button capable of providing guide information and state information corresponding to a function of the corresponding button 1630 may be output.
- the corresponding button 1630 is a volume down button, and is currently inoperable, and there is state information that the volume level set in the current speaker is 10, as shown in FIG. This is the DOWN button. Current volume: 10, Current status: Not operable. Please press the power button first. "
- the state information search unit 624 does not have state information corresponding to the function of the button 1730 detected by the button detector 621 due to the proximity of the body part 520 of the user, and the button 1730 operates. When it is determined that the operation is possible, only the operation notification signal of the corresponding button 1730 may be controlled to be output.
- the state information search unit 624 does not have state information corresponding to the function of the button 1730 detected by the button detector 621 due to the proximity of the body part 520 of the user, and the button 1730 operates. If it is determined that the impossible state, first through the preceding button detection unit 622 may be controlled so that the preceding button to be operated before the corresponding button 1730 for operating the corresponding button 1730. When the preceding button of the corresponding button 1730 is found, the status information searching unit 624 may control to output an operation guide signal for the found preceding button.
- control unit 620 may be confirmed that after the operation guide signal for the found preceding button is output, the preceding button is operated by the user to activate the function corresponding to the preceding button. .
- the controllable notification signal of the corresponding button 1730 may be controlled to be output.
- the status information of the button 1730 or the operation information signal of the button 1730 may be output as a message popup window that can be viewed through the screen of the display device 610.
- the speaker may be output as a voice message that can be heard through the speaker.
- a message popup window may be output through the screen of the display device 510 and a voice message may be output through the speaker.
- the output unit 630 detects that the user's body part 520 is close and outputs an operation information signal for the button 1730 detected by the button detector 621 or state information corresponding to the function of the button 1730. can do.
- the output unit 630 may output an operation information signal for the button 1730 detected by the button detector 621 or state information corresponding to the function of the button 1730 through the screen of the display device 510. . If the display device 510 is equipped with a speaker, the output unit 630 may provide operation information signals for the button 1730 detected by the button detector 621 or state information corresponding to the function of the button 1730. Can be output as a voice signal.
- the memory unit 640 may store a program for processing and controlling the controller 620, and may perform a function for temporarily storing input / output data.
- the memory unit 640 may store reference level data that may determine whether the user's body part 520 is close to the button 1730.
- the button information data in which the status information is classified by the buttons 1730 in which the buttons to be operated in order for the arbitrary buttons 1730 are operated are arranged in order and stored therein and the status information corresponding to the corresponding functions. Can be stored.
- the sensor 610 determines whether the user's body part 520 is close to the button 1130 (S1810).
- checking whether the body part 520 of the user is close to the button 1130 through the detection sensor 610 may transmit ultrasonic waves and infrared rays through the signal transmitter 611 provided inside the button.
- the ultrasound and infrared rays transmitted are received by the reflected wave reflected on the body part 520 of the user to check whether the signal level of the received reflected wave is greater than or equal to a predetermined reference signal level, so that the user's body part 520 is pressed. It may be determined whether it is close to 1130.
- the received reflected wave signal may be analyzed to detect a position where the user's body part 520 is in the display device 510. (S1820).
- the received reflected wave signal may be analyzed to be deformed by hitting the body part 520 of the user to detect a position where the body part 520 of the user is close.
- the triangulation method may be applied to at least three or more reflected wave signals received by the at least three detection sensors 610 to detect a position where the body part 520 of the user is close.
- the button 1130 closest to the detected position on the display device 510 may be detected (S1830).
- the user After detecting the button 1130 (S1830), the user checks whether the corresponding button 1130 is in an operable state so that the user can know whether the button 1130 is currently operated by the user (S1840). .
- the user If it is determined that the button 1130 is in an inoperable state (S1840), the user must previously operate to operate the button 1130 in order to guide the user about an action to be performed to operate the button 1130.
- the preceding button is searched for (S1850).
- the operation guide signal for the preceding button may include a guide message and position information and operation method information of the preceding button so that the user may know that the preceding button should be operated first in order to operate the corresponding button 1130. have.
- the user can output an operation notification signal for the corresponding button 1130 so that the user can inform that the button 1130 is operable immediately (S1880).
- the user can output an operation notification signal for the button 1130 so that the user can inform that the button 1130 is in an operable state immediately ( S1880).
- the received reflection wave signal is analyzed to detect a position where the user's body part 520 is close by the display apparatus 510 (S1920). ).
- the button 1130 closest to the detected location on the display device 510 is detected (S1930).
- the state information corresponding to the function of the button 1130 may mean information about a state currently set corresponding to the function of the button 1130 before the user operates the corresponding button 1130.
- the state information corresponding to the function of the button 1130 is classified and stored for each button 1130 in the memory unit 640 when the state information exists for an arbitrary button 1130.
- the state information corresponding to the function of the button 1130 is output through the output unit 630 (S1950).
- the display apparatus 510 may also provide a signal indicating whether the corresponding button 1130 is currently operable. have.
- the controller 1 checks whether the state information corresponding to the function of the button 1130 exists (S2025), and if the state information corresponding to the function of the button 1130 exists, the corresponding button. In operation S2030, it is determined whether the operation 1130 is in an operable state.
- the state information corresponding to the function of the button 1130 and the operation notification signal of the corresponding button 1130 are output together (S2035).
- the button 1130 is in an inoperable state (S2030), in order to guide the user about an operation to be operated to operate the button 1130, it must be operated before to operate the button 1130.
- the preceding button is searched for (S2040).
- the operation guide signal for the preceding button may include a guide message and position information and operation method information of the preceding button so that the user may know that the preceding button should be operated first in order to operate the corresponding button 1130. have.
- the user can output an operation notification signal for the corresponding button 1130 so that the user can inform that the button 1130 is operable immediately (S2055).
- an operation guide signal for the found preceding button is output along with status information corresponding to the function of the corresponding button 1130 (S2130).
- the operation guide signal for the preceding button may include a guide message and position information and operation method information of the preceding button so that the user may know that the preceding button should be operated first in order to operate the corresponding button 1130. have.
- the user can output an operation notification signal for the corresponding button 1130 so that the user can inform that the button 1130 is operable immediately (S2150). .
- the user can output an operation notification signal for the corresponding button 1130 so that the user can inform that the button 1130 is operable immediately ( S2150).
- Such a display control technique using proximity recognition may be implemented in the form of program instructions that may be implemented as an application or executed through various computer components, and recorded on a computer-readable recording medium.
- the computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.
- the present invention described above can be embodied as computer readable codes on a medium in which a program is recorded.
- the computer-readable medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, and the like. This also includes those implemented in the form of carrier waves (eg, transmission over the Internet).
- the computer may include the AP 150 of the airport robot. Accordingly, the above detailed description should not be construed as limiting in all aspects and should be considered as illustrative. The scope of the invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the invention are included in the scope of the invention.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Computing Systems (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Traffic Control Systems (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명의 일 실시예에 의한 공항용 로봇은, 디스플레이부, 인체 및 물체를 센싱하는 사물 인식부 및 상기 공항용 로봇의 동작을 제어하는 제어부를 포함하고, 상기 사물 인식부는 상기 디스플레이부에 사용자의 신체 일부가 근접하는지 여부를 감지하는 감지센서를 포함하고, 상기 제어부는 상기 감지 센서를 이용하여 상기 디스플레이부에서 상기 사용자의 신체 일부가 근접한 위치를 검출하고, 상기 디스플레이부에서 상기 검출된 위치에 가장 근접한 버튼을 확인하고, 상기 버튼의 동작정보신호를 출력하도록 제어하는 것을 특징으로 한다.
Description
본 발명은 공항에 배치되는 로봇 및 그의 동작 방법에 관한 것으로, 보다 상세하게는 공항에 배치되어 사용자들에게 길 안내를 제공하는 공항용 안내 로봇 및 그의 동작 방법에 관한 것이다.
로봇의 응용분야는 대체로 산업용, 의료용, 우주용, 해저용으로 분류된다. 예를 들면, 자동차 생산과 같은 기계 가공 공업에서는 로봇이 반복작업을 수행할 수 있다. 즉, 사람의 팔이 하는 작업을 한 번만 가르쳐 주면 몇 시간이든 같은 동작을 반복하는 산업로봇이 이미 많이 가동되고 있다.
일반적으로, 감지 센서는 초음파 또는 적외선을 포함하는 신호를 송신하고, 장애물에 반사되어 돌아오는 반사파신호를 수신하여 근접하는 물체를 인식할 수 있다.
이러한 감지 센서는 여러 근접감지시스템에 적용되고 있으며, 일례로 차량충돌방지를 위해 차량 범퍼 쪽에 감지센서를 설치하여 차량으로 임의의 물체가 근접하는 경우 이를 감지하여 알리는 근접감지시스템이 있다.
또한, 이러한 감지 센서를 디스플레이 장치에 적용하면, 감지 센서를 통해 사용자의 신체 일부가 디스플레이 장치에 근접 또는 접촉하는 것을 감지할 수 있다.
본 발명의 목적은 사용자의 수동 조작 없이 로봇의 디스플레이부의 조작 메뉴가 자동으로 활성화되는 기능을 제공하는 것이다.
본 발명의 다른 목적은 로봇의 조작 메뉴가 활성상태인지 여부를 사용자가 직관적으로 인지할 수 있도록 하는 것이다.
본 발명에 따른 공항용 로봇은 디스플레이부 주변에 감지센서를 부착하여, 사용자 근접시 자동으로 디스플레이부의 메뉴를 활성화시킬 수 있다.
본 발명에 따른 공항용 로봇은 메뉴 버튼이 활성 가능 상태인지 여부를 오디오 또는 이미지로서 출력하도록 하는 제어 신호를 생성할 수 있다.
본 발명에 따른 공항용 로봇은 디스플레이부 주변에 감지센서를 부착하여, 사용자 근접시 자동으로 디스플레이부의 메뉴를 활성화시킬 수 있기 때문에, 메뉴 버튼 등을 활성화시키기 위한 사용자의 수동 조작 과정을 생략시키는 효과를 가져온다.
본 발명에 따른 공항용 로봇은 메뉴 버튼이 활성 가능 상태인지 여부를 오디오 또는 이미지로서 출력하여 로봇의 조작 메뉴가 활성상태인지 여부를 사용자가 직관적으로 인지할 수 있도록 하는 효과를 가져온다.
도 1은 본 발명의 일 실시예에 의한 공항 로봇의 하드웨어 구성을 도시한 블록도이다.
도 2는 본 발명의 다른 일 실시예에 의한 공항 로봇의 마이컴 및 AP의 구성을 자세하게 도시한 도면이다.
도 3은 본 발명의 실시 예에 따른 공항 로봇 시스템의 구조를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 의한 공항 로봇이 기 정해진 거리마다 인체 또는 물체를 감지하는 일 예를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 근접 감지를 이용한 디스플레이 장치가 실제로 적용된 일예를 도시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 근접 감지를 이용한 디스플레이 장치의 블록도이다.
도 7은 도 6 에 도시된 감지 센서가 디스플레이 장치에 장착되는 일예를 도시한 도면이다.
도 8은 도 6 에 도시된 감지 센서가 디스플레이 장치에 장착되는 다른 예를 도시한 도면이다.
도 9 는 도 6 에 도시된 감지 센서를 이용하여 사용자의 신체 일부가 근접한 위치를 검출하는 방법을 설명하기 위해 도시한 도면이다.
도 10은 도 6 에 도시된 버튼 검출부가 디스플레이 장치에서 사용자의 신체 일부가 근접한 위치에 존재하는 버튼을 검출하는 방법을 설명하기 위해 도시한 도면이다.
도 11 은 도 6 에 도시된 버튼 검출부에 의해 디스플레이 장치에서 버튼이 검출된 일예를 도시한 도면이다.
도 12는 도 6 에 도시된 조작가능 상태 검출부의 동작 방법을 설명하기 위해 도시한 도면이다.
도 13 은 도 6 에 도시된 선행버튼 검색부의 동작 방법을 설명하기 위해 도시한 도면이다.
도 14 는 선행버튼이 디스플레이 장치에 표시되는 일예를 도시한 도면이다.
도 15 은 도 6 에 도시된 상태정보 검색부의 동작 방법을 설명하기 위해 도시한 도면이다.
도 16 은 버튼이 조작 가능할 경우 도 6 에 도시된 상태정보 검색부의 동작 방법을 설명하기 위해 도시한 도면이다.
도 17은 버튼이 조작 불가능할 경우 도 6 에 도시된 상태정보 검색부의 동작 방법을 설명하기 위해 도시한 도면이다.
도 18 은 은 본 발명의 일 실시예에 따른 근접 감지를 이용한 표시 제어 방법을 도시한 순서도이다.
도 19 는 본 발명의 다른 실시예에 따른 근접 감지를 이용한 표시 제어 방법을 도시한 순서도이다.
도 20은 본 발명의 또 다른 실시예에 따른 근접 감지를 이용한 표시 제어 방법을 도시한 순서도이다.
도 21 은 도 19 에 도시된 버튼의 기능에 대응하는 상태 정보가 존재하지 않는 경우에 대한 근접 감지를 이용한 표시 제어 방법을 도시한 순서도이다.
이하, 본 발명과 관련된 실시 예에 대하여 도면을 참조하여 보다 상세하게 설명한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.
도 1은 본 발명의 일 실시예에 의한 공항 로봇의 하드웨어 구성을 도시한 블록도이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 의한 공항 로봇(100)의 하드웨어는 마이컴(Micom) 그룹과 및 AP 그룹으로 구성될 수 있다. 마이컴(110) 그룹은 마이컴(110), 전원부(120), 장애물 인식부(130) 및 주행구동부(140)을 포함할 수 있다. AP 그룹은 AP(150), 유저 인터페이스부(160), 사물 인식부(170), 위치 인식부(180) 및 LAN(190)을 포함할 수 있다. 상기 유저 인터페이스부(160)는 통신부로 명명될 수 있다.
마이컴(110)은 공항 로봇의 하드웨어 중 배터리 등을 포함하는 전원부(120), 각종 센서들을 포함하는 장애물 인식부(130) 및 복수 개의 모터 및 휠들을 포함하는 주행구동부(140)를 관리할 수 있다.
전원부(120)는 배터리 드라이버(battery Driver, 121) 및 리튬-이온 배터리(Li-Ion Battery, 122)를 포함할 수 있다. 배터리 드라이버(121)는 리튬-이온 배터리(122)의 충전과 방전을 관리할 수 있다. 리튬-이온 배터리(122)는 공항 로봇의 구동을 위한 전원을 공급할 수 있다. 리튬-이온 배터리(122)는 24V/102A 리튬-이온 배터리 2개를 병렬로 연결하여 구성될 수 있다.
장애물 인식부(130)는 IR 리모콘 수신부(131), USS(132), Cliff PSD(133), ARS(134), Bumper(135) 및 OFS(136)를 포함할 수 있다. IR 리모콘 수신부(131)는 공항 로봇을 원격 조정하기 위한 IR(Infrared) 리모콘의 신호를 수신하는 센서를 포함할 수 있다. USS(Ultrasonic sensor, 132)는 초음파 신호를 이용하여 장애물과 공항 로봇 사이의 거리를 판단하기 위한 센서를 포함할 수 있다. Cliff PSD(133)는 360도 전방향의 공항 로봇 주행 범위에서 낭떠러지 또는 절벽 등을 감지하기 위한 센서를 포함할 수 있다. ARS(Attitude Reference System, 134)는 공항 로봇의 자세를 검출할 수 있는 센서를 포함할 수 있다. ARS(134)는 공항 로봇의 회전량 검출을 위한 가속도 3축 및 자이로 3축으로 구성되는 센서를 포함할 수 있다. Bumper(135)는 공항 로봇과 장애물 사이의 충돌을 감지하는 센서를 포함할 수 있다. Bumper(135)에 포함되는 센서는 360도 범위에서 공항 로봇과 장애물 사이의 충돌을 감지할 수 있다. OFS(Optical Flow Sensor, 136)는 공항 로봇의 주행 시 헛바퀴가 도는 현상 및 다양한 바닥 면에서 공항 로봇의 주행거리를 측정할 수 있는 센서를 포함할 수 있다.
주행구동부(140)는 모터 드라이버(Motor Drivers, 141), 휠 모터(142), 회전 모터(143), 메인 브러시 모터(144), 사이드 브러시 모터(145) 및 석션 모터 (Suction Motor, 146)를 포함할 수 있다. 모터 드라이버(141)는 공항 로봇의 주행 및 청소를 위한 휠 모터, 브러시 모터 및 석션 모터를 구동하는 역할을 수행할 수 있다. 휠 모터(142)는 공항 로봇의 주행을 위한 복수 개의 바퀴를 구동시킬 수 있다. 회전 모터(143)는 공항 로봇의 메인 바디 또는 공항 로봇의 헤드부의 좌우 회전, 상하 회전을 위해 구동되거나 공항 로봇의 바퀴의 방향 전환 또는 회전을 위하여 구동될 수 있다. 메인 브러시 모터(144)는 공항 바닥의 오물을 쓸어 올리는 브러시를 구동시킬 수 있다. 사이드 브러시 모터(145)는 공항 로봇의 바깥면 주변 영역의 오물을 쓸어 담는 브러시를 구동시킬 수 있다. 석션 모터(146)는 공항 바닥의 오물을 흡입하기 위해 구동될 수 있다.
AP(Application Processor, 150)는 공항 로봇의 하드웨어 모듈 전체 시스템을 관리하는 중앙 처리 장치로서 기능할 수 있다. AP(150)는 각종 센서들을 통해 들어온 위치 정보를 이용하여 주행을 위한 응용프로그램 구동과 사용자 입출력 정보를 마이컴(110) 측으로 전송하여 모터 등의 구동을 수행하게 할 수 있다.
유저 인터페이스부(160)는 유저 인터페이스 프로세서(UI Processor, 161), LTE 라우터(LTE Router, 162), WIFI SSID(163), 마이크 보드(164), 바코드 리더기(165), 터치 모니터(166) 및 스피커(167)를 포함할 수 있다. 유저 인터페이스 프로세서(161)는 사용자의 입출력을 담당하는 유저 인터페이스부의 동작을 제어할 수 있다. LTE 라우터(162)는 외부로부터 필요한 정보를 수신하고 사용자에게 정보를 송신하기 위한 LTE 통신을 수행할 수 있다. WIFI SSID(163)는 WiFi의 신호 강도를 분석하여 특정 사물 또는 공항 로봇의 위치 인식을 수행할 수 있다. 마이크 보드(164)는 복수 개의 마이크 신호를 입력 받아 음성 신호를 디지털 신호인 음성 데이터로 처리하고, 음성 신호의 방향 및 해당 음성 신호를 분석할 수 있다. 바코드 리더기(165)는 공항에서 사용되는 복수 개의 티켓에 기재된 바코드 정보를 리드할 수 있다. 터치 모니터(166)는 사용자의 입력을 수신하기 위해 구성된 터치 패널 및 출력 정보를 표시하기 위한 모니터를 포함할 수 있다. 스피커(167)는 사용자에게 특정 정보를 음성으로 알려주는 역할을 수행할 수 있다.
사물인식부(170)는 2D 카메라(171), RGBD 카메라(172) 및 인식 데이터 처리 모듈(173)를 포함할 수 있다. 2D 카메라(171)는 2차원 영상을 기반으로 사람 또는 사물을 인식하기 위한 센서일 수 있다. RGBD 카메라(Red, Green, Blue, Distance, 172)로서, RGBD 센서들을 갖는 카메라 또는 다른 유사한 3D 이미징 디바이스들로부터 획득되는 깊이(Depth) 데이터를 갖는 캡처된 이미지들을 이용하여 사람 또는 사물을 검출하기 위한 센서일 수 있다. 인식 데이터 처리 모듈(173)은 2D 카메라(171) 및 RGBD 카메라(172)로부터 획득된 2D 이미지/영상 또는 3D 이미지/영상 등의 신호를 처리하여 사람 또는 사물을 인식할 수 있다.
위치인식부(180)는 스테레오 보드(Stereo B/D, 181), 라이더(Lidar, 182) 및 SLAM 카메라(183)를 포함할 수 있다. SLAM 카메라(Simultaneous Localization And Mapping 카메라, 183)는 동시간 위치 추적 및 지도 작성 기술을 구현할 수 있다. 공항 로봇은 SLAM 카메라(183)를 이용하여 주변 환경 정보를 검출하고 얻어진 정보를 가공하여 임무 수행 공간에 대응되는 지도를 작성함과 동시에 자신의 절대 위치를 추정할 수 있다. 라이더(Light Detection and Ranging : Lidar, 182)는 레이저 레이더로서, 레이저 빔을 조사하고 에어로졸에 의해 흡수 혹은 산란된 빛 중 후방산란된 빛을 수집, 분석하여 위치 인식을 수행하는 센서일 수 있다. 스테레오 보드(181)는 라이더(182) 및 SLAM 카메라(183) 등으로부터 수집되는 센싱 데이터를 처리 및 가공하여 공항 로봇의 위치 인식과 장애물 인식을 위한 데이터 관리를 담당할 수 있다.
랜(LAN, 190)은 사용자 입출력 관련 유저 인터페이스 프로세서(161), 인식 데이터 처리 모듈(173), 스테레오 보드(181) 및 AP(150)와 통신을 수행할 수 있다.
도 2는 본 발명의 다른 일 실시예에 의한 공항 로봇의 마이컴 및 AP의 구성을 자세하게 도시한 도면이다.
도 2에 도시된 바와 같이, 공항 로봇의 인식 및 행동을 제어하기 위해서 마이컴(210)과 AP(220)는 다양한 실시예로 구현될 수 있다.
일 예로서, 마이컴(210)은 데이터 액세스 서비스 모듈(Data Access Service Module, 215)를 포함할 수 있다. 데이터 액세스 서비스 모듈(215)은 데이터 획득 모듈(Data acquisition module, 211), 이머전시 모듈(Emergency module, 212), 모터 드라이버 모듈(Motor driver module, 213) 및 배터리 매니저 모듈(Battery manager module, 214)을 포함할 수 있다. 데이터 획득 모듈(211)은 공항 로봇에 포함된 복수 개의 센서로부터 센싱된 데이터를 취득하여 데이터 액세스 서비스 모듈(215)로 전달할 수 있다. 이머전시 모듈(212)은 공항 로봇의 이상 상태를 감지할 수 있는 모듈로서, 공항 로봇이 기 정해진 타입의 행동을 수행하는 경우에 이머전시 모듈(212)은 공항 로봇이 이상 상태에 진입했음을 감지할 수 있다. 모터 드라이버 모듈(213)은 공항 로봇의 주행 및 청소를 위한 휠, 브러시, 석션 모터의 구동 제어를 관리할 수 있다. 배터리 매니저 모듈(214)은 도 1의 리튬-이온 배터리(122)의 충전과 방전을 담당하고, 공항 로봇의 배터리 상태를 데이터 액세스 서비스 모듈(215)에 전달할 수 있다.
AP(220)는 각종 카메라 및 센서들과 사용자 입력 등을 수신하고, 인식 가공하여 공항 로봇의 동작을 제어하는 역할을 수행할 수 있다. 인터랙션 모듈(221)은 인식 데이터 처리 모듈(173)로부터 수신하는 인식 데이터와 유저 인터페이스 모듈(222)로부터 수신하는 사용자 입력을 종합하여, 사용자와 공항 로봇이 상호 교류할 수 있는 소프트웨어(Software)를 총괄하는 모듈일 수 있다. 유저 인터페이스 모듈(222)은 공항 로봇의 현재 상항 및 조작/정보 제공 등을 위한 모니터인 디스플레이부(223)와 키(key), 터치 스크린, 리더기 등과 같은 사용자의 근거리 명령을 수신하거나, 공항 로봇을 원격 조정을 위한 IR 리모콘의 신호와 같은 원거리 신호를 수신하거나, 마이크 또는 바코드 리더기 등으로부터 사용자의 입력 신호를 수신하는 사용자 입력부(224)로부터 수신되는 사용자 입력을 관리할 수 있다. 적어도 하나 이상의 사용자 입력이 수신되면, 유저 인터페이스 모듈(222)은 상태 관리 모듈(State Machine module, 225)로 사용자 입력 정보를 전달할 수 있다. 사용자 입력 정보를 수신한 상태 관리 모듈(225)은 공항 로봇의 전체 상태를 관리하고, 사용자 입력 대응하는 적절한 명령을 내릴 수 있다. 플래닝 모듈(226)은 상태 관리 모듈(225)로부터 전달받은 명령에 따라서 공항 로봇의 특정 동작을 위한 시작과 종료 시점/행동을 판단하고, 공항 로봇이 어느 경로로 이동해야 하는지를 계산할 수 있다. 네비게이션 모듈(227)은 공항 로봇의 주행 전반을 담당하는 것으로서, 플래닝 모듈(226)에서 계산된 주행 루트에 따라서 공항 로봇이 주행하게 할 수 있다. 모션 모듈(228)은 주행 이외에 기본적인 공항 로봇의 동작을 수행하도록 할 수 있다.
또한, 본 발명의 다른 일 실시예에 의한 공항 로봇은 위치 인식부(230)를 포함할 수 있다. 위치 인식부(230)는 상대 위치 인식부(231)와 절대 위치 인식부(234)를 포함할 수 있다. 상대 위치 인식부(231)는 RGM mono(232) 센서를 통해 공항 로봇의 이동량을 보정하고, 일정한 시간 동안 공항 로봇의 이동량을 계산할 수 있고, LiDAR(233)를 통해 현재 공항 로봇의 주변 환경을 인식할 수 있다. 절대 위치 인식부(234)는 Wifi SSID(235) 및 UWB(236)을 포함할 수 있다. Wifi SSID(235)는 공항 로봇의 절대 위치 인식을 위한 UWB 센서 모듈로서, Wifi SSID 감지를 통해 현재 위치를 추정하기 위한 WIFI 모듈이다. Wifi SSID(235)는 Wifi의 신호 강도를 분석하여 공항 로봇의 위치를 인식할 수 있다. UWB(236)는 발신부와 수신부 사이의 거리를 계산하여 공항 로봇의 절대적 위치를 센싱할 수 있다.
또한, 본 발명의 다른 일 실시예에 의한 공항 로봇은 맵 관리 모듈(240)을 포함할 수 있다. 맵 관리 모듈(240)은 그리드 모듈(Grid module, 241), 패스 플래닝 모듈(Path Planning module, 242) 및 맵 분할 모듈(243)을 포함할 수 있다. 그리드 모듈(241)은 공항 로봇이 SLAM 카메라를 통해 생성한 격자 형태의 지도 혹은 사전에 미리 공항 로봇에 입력된 위치 인식을 위한 주변환경의 지도 데이터를 관리할 수 있다. 패스 플래닝 모듈(242)은 복수 개의 공항 로봇들 사이의 협업을 위한 맵 구분에서, 공항 로봇들의 주행 경로 계산을 담당할 수 있다. 또한, 패스 플래닝 모듈(242)은 공항 로봇 한대가 동작하는 환경에서 공항 로봇이 이동해야 할 주행 경로도 계산할 수 있다. 맵 분할 모듈(243)은 복수 개의 공항 로봇들이 각자 담당해야할 구역을 실시간으로 계산할 수 있다.
위치 인식부(230) 및 맵 관리 모듈(240)로부터 센싱되고 계산된 데이터들은 다시 상태 관리 모듈(225)로 전달될 수 있다. 상태 관리 모듈(225)은 위치 인식부(230) 및 맵 관리 모듈(240)로부터 센싱되고 계산된 데이터들에 기초하여, 공항 로봇의 동작을 제어하도록 플래닝 모듈(226)에 명령을 내릴 수 있다.
다음으로 도 3은 본 발명의 실시 예에 따른 공항 로봇 시스템의 구조를 설명하기 위한 도면이다.
본 발명의 일 실시 예에 따른 공항 로봇 시스템은 이동 단말기(310), 서버(320), 공항 로봇(300) 및 카메라(330)를 포함할 수 있다.
이동 단말기(310)는 공항 내 서버(320)와 데이터를 송수신할 수 있다. 예를 들어, 이동 단말기(310)는 서버(320)로부터 비행 시간 스케쥴, 공항 지도 등과 같은 공항 관련 데이터를 수신할 수 있다. 사용자는 이동 단말기(310)를 통해 공항에서 필요한 정보를 서버(320)로부터 수신하여 얻을 수 있다. 또한, 이동 단말기(310)는 서버(320)로 사진이나 동영상, 메시지 등과 같은 데이터를 전송할 수 있다. 예를 들어, 사용자는 미아 사진을 서버(320)로 전송하여 미아 접수를 하거나, 공항 내 청소가 필요한 구역의 사진을 카메라로 촬영하여 서버(320)로 전송함으로써 해당 구역의 청소를 요청할 수 있다.
또한, 이동 단말기(310)는 공항 로봇(300)과 데이터를 송수신할 수 있다.
예를 들어, 이동 단말기(310)는 공항 로봇(300)을 호출하는 신호나 특정 동작을 수행하도록 명령하는 신호 또는 정보 요청 신호 등을 공항 로봇(300)으로 전송할 수 있다. 공항 로봇(300)은 이동 단말기(310)로부터 수신된 호출 신호에 응답하여 이동 단말기(310)의 위치로 이동하거나 명령 신호에 대응하는 동작을 수행할 수 있다. 또는 공항 로봇(300)은 정보 요청 신호에 대응하는 데이터를 각 사용자의 이동 단말기(310)로 전송할 수 있다.
다음으로, 공항 로봇(300)은 공항 내에서 순찰, 안내, 청소, 방역, 운반 등의 역할을 할 수 있다.
공항 로봇(300)은 이동 단말기(310) 또는 서버(320)와 신호를 송수신할 수 있다. 예를 들어, 공항 로봇(300)은 서버(320)와 공항 내 상황 정보 등을 포함한 신호를 송수신할 수 있다. 또한, 공항 로봇(300)은 공항 내 카메라(330)로부터 공항의 각 구역들을 촬영한 영상 정보를 수신할 수 있다. 따라서 공항 로봇(300)은 공항 로봇(300)이 촬영한 영상 정보 및 카메라(330)로부터 수신한 영상 정보를 종합하여 공항의 상황을 모니터링할 수 있다.
공항 로봇(300)은 사용자로부터 직접 명령을 수신할 수 있다. 예를 들어, 공항 로봇(300)에 구비된 디스플레이부를 터치하는 입력 또는 음성 입력 등을 통해 사용자로부터 명령을 직접 수신할 수 있다. 공항 로봇(300)은 사용자, 이동 단말기(310) 또는 서버(320) 등으로부터 수신된 명령에 따라 순찰, 안내, 청소 등의 동작을 수행할 수 있다.
다음으로 서버(320)는 이동 단말기(310), 공항 로봇(300), 카메라(330)로부터 정보를 수신할 수 있다. 서버(320)는 각 장치들로부터 수신된 정보들을 통합하여 저장 및 관리할 수 있다. 서버(320)는 저장된 정보들을 이동 단말기(310) 또는 공항 로봇(300)에 전송할 수 있다. 또한, 서버(320)는 공항에 배치된 복수의 공항 로봇(300)들 각각에 대한 명령 신호를 전송할 수 있다.
카메라(330)는 공항 내에 설치된 카메라를 포함할 수 있다. 예를 들어, 카메라(330)는 공항 내에 설치된 복수 개의 CCTV(closed circuit television) 카메라, 적외선 열감지 카메라 등을 모두 포함할 수 있다. 카메라(330)는 촬영된 영상을 서버(320) 또는 공항 로봇(300)에 전송할 수 있다.
도 4는 본 발명의 일 실시예에 의한 공항 로봇이 기 정해진 거리마다 인체 또는 물체를 감지하는 일 예를 설명하기 위한 도면이다.
도 4에 도시된 바와 같이 본 발명의 일 실시예에 의한 공항 로봇(400)은 거리 또는 일정한 범위(range) 마다 서로 다른 형태의 물체 인식 모드를 가동할 수 있다. 예를 들어, 인체 또는 물체가 제1 범위(410)에서 감지되는 경우, 공항 로봇(400)의 유저 인터페이스부(160)가 자동으로 웨이크업(wake-up)될 수 있다. 사용자는 공항 로봇(400)의 센싱 범위 중 제1 범위(410)에 도달할 때까지만 가까이 접근하면, 공항 로봇(400)을 수동으로 깨우지 않고도 공항 로봇과 인터페이스할 수 있다. 또한, 인체 또는 물체가 제2 범위(420)에서 감지되는 경우, 공항 로봇(400)은 사용자와 인터페이스하기 위한 모드를 실행할 수 있다. 사용자가 제2 범위(420)에 있는 경우에, 공항 로봇(400)은 사용자가 요청하기 전에 먼저 인터페이스 가능함을 알리는 메시지를 스피커 또는 텍스트로 전달할 수 있다. 또한, 공항 로봇(400)은 사용자가 제3 범위(430) 이내로 들어오는 것을 감지하는 경우, 위험 모드를 가동할 수 있다. 이 때, 공항 로봇(400)은 경고 음을 스피커로 출력하거나, 경고 메시지 등을 모니터에 출력하여 사용자에게 너무 가까이 있음을 알릴 수 있다. 그리고, 사용자가 다시 제3 범위(430)에서 제2 범위(420)이상으로 멀어지는 경우, 위험 모드를 중지하고, 안전한 거리가 되었음을 사용자에게 알릴 수 있다. 또는, 공항 로봇(400)은 사용자가 제3 범위(430) 이내로 들어오는 것을 감지하는 경우, 자체적으로 사용자와 일정 거리를 유지하거나 사용자가 제2 범위(420) 내에 들어오도록 공항 로봇(400) 스스로 멀리 떨어지는 방향으로 이동할 수 있다.
나아가, 공항 로봇(400)은 사용자를 특정 목적지까지 동행하면서 길 안내 서비스를 제공할 수 있다. 이 경우, 공항 로봇(400)은 사용자가 적어도 제1 범위(410) 내에 위치하도록 계속해서 사용자와의 거리를 센싱하면서 이동할 수 있다. 따라서, 공항 로봇(400)은 사용자와의 거리가 항상 일정한 범위 내에 들어오도록 유지하면서 길 안내 서비스를 제공할 수 있다.
도 5는 본 발명의 일 실시예에 따른 근접 감지를 이용한 디스플레이 장치가 실제로 적용된 일예를 도시한 도면이다.
도 5에 도시된 바와 같이, 본 발명의 일 실시예에 의한 공항 로봇(500)은 회전이 가능한 디스플레이 장치(510)를 포함할 수 있다. 따라서, 사용자(520)가 기 정해진 거리 내에서 감지되면, 디스플레이 장치(510)는 정해진 알고리즘에 따라서 동작을 실행할 수 있다.
본 발명의 일 실시예에 따른 근접 감지를 이용한 디스플레이 장치(510)는 사용자의 신체 일부가 디스플레이 장치에 근접하는 것을 감지할 수 있다. 그리고 디스플레이 장치에서 사용자의 신체 일부가 근접한 위치에 있는 버튼을 검출하고, 검출된 버튼에 대한 동작정보신호를 출력할 수 있다. 따라서 사용자에게 사용자가 사용자의 신체 일부를 근접하게 다가간 버튼에 대한 조작안내정보 또는 해당 버튼의 기능에 대응하는 상태 정보를 제공할 수 있다. 디스플레이 장치의 화면에 표시되는 그래픽 아이콘 및 디스플레이 장치의 화면 외의 부분에 마련되어 있는 터치 버튼 또는 물리적 버튼을 모두 포함할 수 있다.
본 발명의 근접 감지를 이용한 디스플레이 장치(510)는 사용자의 신체 일부(예를 들어, 손가락, 520)이 근접하는 것을 감지할 수 있다. 버튼 제어 장치는 사용자의 신체 일부가 디스플레이 장치에 근접하는 것으로 감지되면, 디스플레이 장치에서 사용자의 신체 일부가 근전한 위치에 있는 버튼을 검출할 수 있다. 디스플레이 장치는 검출된 버튼에 대한 동작정보신호를 출력할 수 있다. 이때, 동적정보신호는 해당 버튼에 대응하는 기능 정보, 해당 버튼의 조작 가능 상태 정보 및 해당 버튼의 조작 불가능한 경우 해당 버튼을 조작하기 위한 안내 정보를 포함할 수 있다.
도 6을 참조하면, 본 발명의 일 실시예에 따른 디스플레이 장치(510)는 감지 센서(610), 제어부(620), 출력부(630) 및 메모리부(640)를 포함할 수 있다.
감지 센서(610)는 디스플레이 장치(510) 내부에 구비되어 디스플레이 장치(510)에 사용자의 신체 일부(520)가 근접하는 것을 감지할 수 있다. 디스플레이 장치(510)는 감지 센서(610)를 이용하여 디스플레이 장치(510)에 근접하는 사용자의 신체 일부(520)가 디스플레이 장치(510)에서 어느 위치에 근접하는지를 검출할 수 있다. 이를 위해 감지 센서(610)는 디스플레이 장치(510)에 적어도 3개 이상 구비될 수 있다. 예를 들어, 감지 센서(610)는 도 7 과 같이 디스플레이 장치(510)에 3개가 구비될 수 있으나, 검출의 정확도를 높이기 위해 도 8과 같이 디스플레이 장치(510)에 4개가 구비될 수 있다. 후술하는 설명에서는 디스플레이 장치(510)에 감지 센서(610)가 3개 구비되는 것을 예를 들어 설명한다. 이때, 감지 센서(610)가 장착되는 위치는 디스플레이 장치(510)에 근접하는 사용자의 신체 일부(520)의 위치를 파악하기 위한, 적합한 위치에 각각 장착될 수 있다.
감지 센서(610)는 사용자의 신체 일부(520)가 디스플레이 장치(510)에 근접하는 것을 감지하기 위해 초음파 및 적외선 신호를 송신하는 신호 송신부(611)를 포함할 수 있다. 그리고 신호 송신부(611)로부터 송신된 신호가 사용자의 신체 일부(520)에 반사되는 반사파 신호를 수신하는 신호 수신부(612)를 포함할 수 있다.
신호 송신부(611)는 디스플레이 장치(510)로 사용자의 신체 일부(520)가 근접하는지 여부를 감지할 수 있도록 초음파 및 적외선 신호를 송신할 수 있다. 신호 송신부(611)는 디스플레이 장치(510)에 사용자의 신체 일부(520)가 근접할 시, 송신된 초음파가 사용자의 신체 일부(520)에 반사되어 신호 수신부(120)로 수신될 수 있도록 각도를 조절하여 초음파 및 적외선 신호를 송신할 수 있다.
신호 수신부(612)는 신호 송신부(611)로부터 송신된 초음파 및 적외선 신호가 디스플레이 장치(510)에 근접한 사용자의 신체 일부(520)에 반사되는 반사파를 수신할 수 있다. 신호 수신부(612)는 수신된 반사파를 분석하여 디스플레이 장치(510)에 사용자의 신체 일부(520)가 근접하는지 여부를 감지할 수 있다. 신호 수신부(612)는 반사파 신호가 수신되면, 수신된 반사파 신호의 레벨을 산출할 수 있다. 신호 수신부(612)는 산출된 반사파 신호의 레벨이 미리 정해진 기준 신호 레벨 이상이면, 사용자의 신체 일부(520)가 디스플레이 장치(510)에 근접한 것으로 감지할 수 있다. 신호 수신부(612)는 사용자의 신체 일부(520)가 디스플레이 장치(510)에 근접하는 것으로 감지되면, 근접 감지 신호와 수신된 반사파에 대한 정보를 제어부(620)에 전달할 수 있다.
제어부(620)는 감지 센서(610)에 의해 사용자의 신체 일부(520)가 디스플레이 장치(510)에 근접하는 것으로 감지되면, 디스플레이 장치(510)에서 사용자의 신체 일부(520)가 근접하는 위치에 있는 버튼을 검출할 수 있다. 그리고, 검출된 버튼의 동작정보신호가 출력되도록 제어할 수 있다. 이를 위해, 제어부(620)는 버튼 검출부(621), 조작가능 상태 검출부(622) 및 선행버튼 검색부(623)를 포함할 수 있다.
버튼 검출부(621)는 신호 수신부(612)로부터 근접 감지 신호와 반사파에 대한 정보를 수신할 수 있다. 버튼 검출부(621)는 신호 수신부(612)로부터 근접 감지 신호가 수신되면, 수신된 반사파에 대한 정보를 이용하여 버튼을 검출할 수 있다. 이때, 신호 수신부(612)로부터 수신된 반사파에 대한 정보는 디스플레이 장치(510)에 마련된 적어도 3개 이상의 감지 센서(610)에 의해 수신된 반사파 정보를 포함할 수 있다. 버튼 검출부(621)는 적어도 3개 이상의 반사파 정보를 이용하여 디스플레이 장치(510)에 근접하는 사용자의 신체 일부(520)의 위치 정보를 검출할 수 있다. 이때, 디스플레이 장치(510)에 근접하는 사용자의 신체 일부(520)의 위치 정보를 검출하는 것은, 신호 수신부(612)로부터 수신된 적어도 3개 이상의 반사파 정보를 이용하여 사용자의 신체 일부(520)의 위치 정보를 검출할 수 있다. 예를 들어, 초음파 신호는 임의의 물체에 부딪히면 부딪힌 시점에 따른 위치에 신호 변형이 발생하므로 수신된 반사파 신호를 분석하여 사용자의 신체 일부(520)의 위치 정보를 검출할 수 있다. 또는 도 8과 같이 수신된 적어도 3개 이상의 반사파에 삼각측량법을 적용하여 사용자의 신체 일부(520)의 위치 정보를 검출할 수 있다. 또한, 수신된 반사파 신호를 이용하여 사용자의 신체 일부(520)의 위치 정보를 검출할 수 있는 방법이라면 상술한 방식 이외에 다른 위치 검출 방식도 적용될 수 있음은 물론이다. 한편, 검출한, 디스플레이 장치(510)에 근접하는 사용자의 신체 일부(520)의 위치 정보는 (x, y, z) 좌표 정보를 포함할 수 있다.
버튼 검출부(621)는 검출한, 도 10과 같이 디스플레이 장치(510)에서 디스플레이 장치(510)에 근접하는 사용자의 신체 일부(520)의 위치와 대응하는 위치를 검출할 수 있다. 버튼 검출부(621)는 디스플레이 장치(510)에서 대응 위치를 검출한 후, 도 11과 같이 검출된 대응 위치에 가장 근접하는 버튼을 검출할 수 있다. 이때, 검출된 대응 위치에 가장 근접하는 버튼을 검출하는 것은, 각각의 버튼 별로 버튼의 위치 정보가 저장되어 있는 버튼 위치 데이터를 이용하여 검출된 대응 위치에 가장 근접하는 버튼을 검출할 수 있다.
조작가능 상태 검출부(622)는 버튼 검출부(621)에 의해 검출된 버튼(1130)의 현재 조작 가능한 상태인지 여부를 검출할 수 있다. 이때, 해당 버튼(1130)을 사용자가 터치 또는 물리적인 조작을 수행했을 때 해당 버튼(1130)에 대응하는 기능이 바로 실행되는지 여부를 검출하는 것을 의미할 수 있다. 조작가능 상태 검출부(622)는 해당 버튼(1130)이 조작가능 상태이면 출력부(630)를 통해 조작가능 알림신호가 출력될 수 있도록 제어할 수 있다. 예를 들어, 조작가능 상태 검출부(622)는 버튼 검출부(621)에 의해 검출된 버튼(1130)이 인터넷 버튼이고, 현재 네트워크가 연결되어 있어 사용자가 인터넷 버튼을 터치 또는 물리적으로 조작하면 인터넷 창을 열 수 있는 상태인 것으로 검출되면, 조작가능 상태 검출부(622)는 도 12와 같이 디스플레이 장치(510)의 화면에 인터넷 버튼의 조작가능 알림신호를 출력할 수 있다. 이때, 인터넷 버튼의 조작가능 알림신호를 출력하는 것은 도 12와 같이 "인터넷 버튼입니다, 현재 상태: 조작 가능"을 나타내는 팝업창을 출력하는 것일 수 있다. 한편, 조작가능 상태 검출부(622)는 상태정보 검색부(624)에 의해 해당 버튼(1230)에 대한 상태 정보가 검색되면, 조작가능 알림신호와 함께 상태 정보도 출력되도록 제어할 수 있다.
이에 대한 자세한 설명은 상태정보 검색부(624)를 통해 후술하도록 한다.
한편, 조작가능 알림신호는 도 12와 같이 디스플레이 장치(510)의 화면을 통해 볼 수 있는 팝업창으로 출력될 수 있으며, 디스플레이 장치(510)에 마련되어 있는 스피커를 통해 들을 수 있는 음성 메시지로 출력될 수 있다. 또는 디스플레이 장치(510)의 화면을 통해 팝업창이 출력되는 동시에, 스피커를 통해 음성 메시지가 출력될 수 있다.
조작가능 상태 검출부(622)는 버튼 검출부(621)에 의해 검출된 버튼(1230)이 조작 불가능한 상태인 것으로 검출되면 선행버튼 검색부(623)로 검색신호를 전송할 수 있다.
선행버튼 검색부(623)는 조작가능 상태 검출부(622)에 의해 해당 버튼(1230)이 조작 불가능 상태인 것으로 검출되면 해당 버튼(1230) 조작 이전에 조작되어야 할 선행버튼을 검색할 수 있다. 예를 들어, 조작가능 상태 검출부(622)에 의해 조작 불가능한 상태로 검출된 버튼(1230)이 인터넷 버튼이면, 선행버튼 검색부(623)는 인터넷 버튼의 선행버튼으로 네트워크 연결 버튼을 검색할 수 있다. 선행버튼 검색부(623)는 메모리부(640)에 미리 저장된 조작 순서 데이터를 통해 선행버튼을 검색할 수 있다. 이때, 조작 순서 데이터는 버튼(1230) 별로 임의의 버튼(1230)이 조작되기 위해 조작되어야 할 버튼이 순서대로 배열되어 저장된 데이터를 의미할 수 있다. 예를 들어, 상술한 것과 같이 인터넷 버튼을 조작하기 위해서는 먼저 네트워크 연결 버튼이 조작되어야 하므로, 인터넷 조절 버튼에 대한 조작 순서 데이터는 "네트워크 연결 버튼" 일 수 있다.
상술한 것과 다르게 2개 이상의 선행버튼이 조작되어야만 조작 가능한 버튼(1230)이 있을 수 있다. 예를 들어, 다른 장치와의 액세스 버튼을 조작하기 위해서는 가장 먼저 네트워크 연결 버튼이 조작되어야 한다. 그 다음으로 액세스 차단 해제 버튼이 조작되어야 한다. 그 다음으로 다른 장치와의 액세스 버튼이 조작되어야 하므로, 다른 장치와의 액세스 버튼에 대한 조작 순서 데이터는 "다른 장치와의 액세스 버튼" 일 수 있다.
선행버튼 검색부(623)는 조작 순서 데이터를 통해 선행버튼이 검색되면, 검색된 선행버튼에 대한 조작안내신호를 출력할 수 있다. 이때, 검색된 선행버튼에 대한 조작안내신호는, 버튼 검출부(621)에 의해 검출된 사용자의 신체 일부(520)가 근접하는 버튼(1330)에 대해 사용자가 조작시 해당 버튼(1330)을 조작하기 위해 이전에 조작해야 하는 선행버튼에 대한 안내신호이다. 해당 버튼(1330)을 조작하기 위해 사용자가 선행버튼을 조작하는 것을 유도할 수 있도록 선행버튼에 대한 알림신호 또는 선행버튼을 조작하라는 메시지를 포함하는 안내 음성 메시지를 포함할 수 있다. 예를 들어, 사용자의 신체 일부(520)가 근접한 버튼(1330)이 인터넷 버튼이고, 인터넷 버튼이 현재 조작 불가능한 상태로 이에 대한 선행버튼으로 네트워크 연결 버튼이 검색된 경우, 선행버튼 검색부(623)는 도 13과 같이 디스플레이 장치(510)의 화면에 버튼 검출부(621)에 의해 검출된 버튼이 현재 조작 불가능하다는 알림신호와 선행버튼에 대한 조작안내신호를 포함하는 알림 팝업창을 출력할 수 있다.
한편, 선행버튼 검색부(623)는 도 14와 같이 디스플레이 장치(510)의 화면에 버튼 검출부(621)에 의해 검출된 버튼이 현재 조작 불가능하다는 알림신호와 선행버튼에 대한 조작안내신호를 포함하는 알림 팝업창을 출력할 수 있다. 동시에, 사용자가 선행버튼을 보다 용이하게 인식할 수 있도록 하기 위해, 선행버튼을 디스플레이 장치(510) 화면에 표시할 수 있다.
선행버튼 검색부(623)는 선행버튼에 대한 조작안내신호를 출력한 후, 사용자에 의해 선행버튼이 조작되는지 여부를 확인할 수 있다. 선행버튼 검색부(623)는 사용자에 의해 선행버튼이 조작되면, 처음에 사용자의 신체 일부(520)가 근접한 버튼(1430)에 대한 조작가능 알림신호를 출력할 수 있다. 따라서 처음에 사용자의 신체 일부(520)가 근접한 버튼(1430), 즉 사용자가 조작하려고 하는 버튼(1430)에 대한 조작가능 알림신호를 출력하여 사용자가 해당 버튼(1430)을 조작할 수 있도록 가이드할 수 있다.
한편, 선행버튼 검색부(623)는 해당 버튼(1430)에 대한 선행버튼(1430)이 하나인 것으로 검색되면 출력 순서를 정할 필요없이 검색된 선행버튼에 대한 조작안내신호를 출력할 수 있다. 반면, 해당 버튼(1430)에 대한 선행버튼이 2개 이상인 것으로 검색되는 경우, 출력 순서가 중요할 수 있다. 선행버튼 검색부(623)는 선행 버튼(1430)이 2개 이상인 경우 조작 순서 데이터에 저장된 조작 순서에 따라 선행버튼에 대한 조작안내신호를 출력할 수 있다. 예를 들어, 사용자의 신체 일부(520)가 근접한 버튼(1430)이 다른 장치와의 액세스 버튼일 수 있다. 그리고, 다른 장치와의 액세스 버튼에 대한 조작 순서 데이터는 "네트워크 연결 버튼 및 다른 장치와의 액세스 버튼"으로 선행버튼이 2개인 경우, 선행버튼 검색부(623)는 조작 순서 데이터의 조작 순서에 따라 먼저 네트워크 연결 버튼에 대한 조작안내신호를 출력할 수 있다. 네트워크 연결 버튼에 대한 조작안내신호를 출력한 뒤 사용자에 의해 네트워크 연결 버튼이 조작되면, 선행버튼 검색부(623)는 액세스 차단 해제 버튼에 대한 조작안내신호를 출력할 수 있다. 선행버튼 검색부(623)는 사용자에 의해 액세스 차단 해제 버튼이 조작되면, 비로소 다른 장치와의 액세스 버튼에 대한 조작가능 알림신호가 출력되도록 제어할 수 있다.
본 발명의 다른 실시예에 따른 제어부(620)는 사용자의 신체 일부(1520)가 디스플레이 장치(510)에 근접하는 것으로 감지되어 버튼 검출부(621)에 의해 검출된 버튼(1530)의 기능에 대응하는 상태 정보를 출력할 수 있다. 이를 위해, 제어부(620)는 상태정보 검색부(624)를 포함할 수 있다.
상태정보 검색부(624)는 감지 센서(610)에 의해 사용자의 신체 일부(520)가 해당 버튼(1530)에 근접한 것으로 감지될 수 있다. 이 경우 버튼 검출부(621)에 의해 검출된 버튼(1530)의 기능에 대응하여 사용자에게 제공할 수 있는 상태 정보가 존재하는지 여부를 검색할 수 있다. 이때, 버튼(1530)의 기능에 대응하는 상태 정보는 사용자가 해당 버튼(1530)을 조작하기 전에 해당 버튼(1530)의 기능에 대응하여 현재 설정되어 있는 상태에 대한 정보를 의미할 수 있다. 예를들어, 해당 버튼(1530)이 음량 조절 버튼(음량 올림 버튼 또는 음량 내림 버튼)이면 해당 버튼(1530)의 기능에 대응하는 상태 정보는 현재 스피커의 음량 크기 정보일 수 있다.
한편, 각 버튼(1530) 별로 해당버튼(1530)에 대한 정보가 분류되어 있는 버튼 정보 데이터를 이용하여 해당 버튼(1530)의 기능에 대응하는 상태 정보가 존재하는지 여부를 검색할 수 있다. 그리고 이때 버튼 정보 데이터는 버튼(1530)의 기능에 따른 상태 정보가 존재하는 경우, 해당 버튼(1530)에 대응하는 최신 상태 정보를 검출하여 해당 버튼(1530)에 분류된 파트에 저장할 수 있다. 예를 들어, 음량 올림 버튼 및 음량 내림 버튼의 버튼 정보 데이터는 음량 크기 정보를 해당 버튼(1530)의 기능에 대응하는 상태 정보로 저장할 수 있다. 이러한 상태 정보는 최신의 상태 정보를 유지하기 위해, 주기적으로 상태 정보를 업데이트하거나 해당 버튼(1530)에 대한 상태 정보 검출시 상태 정보를 새로 검출할 수 있다.
사용자에게 해당 버튼(1530)의 기능에 대응하는 상태 정보를 제공할 수 있도록, 상태정보 검색부(624)는 버튼 검출부(621)에 의해 검출된 버튼(530)의 기능에 대응하는 상태 정보가 존재하면 해당 버튼(1530)의 기능에 대응하는 상태 정보를 출력부(630)를 통해 출력할 수 있다. 예를 들어, 도 15와 같이 사용자의 신체 일부(520)가 디스플레이 장치(510)에 근접하게 되어 버튼 검출부(621)에 의해 음량 내림 버튼이 검출되면, 현재 스피커에 설정된 음량 크기가 10 이라는 음량 크기 정보를 검색하여 디스플레이 장치(510)의 화면에 출력할 수 있다.
상태정보 검색부(624)는 버튼 검출부(621)에 의해 검출된 버튼(1530)의 기능에 대응하는 상태 정보와 함께 해당 버튼(1530)이 조작 가능한 상태인지 여부에 대한 정보가 출력되도록 제어할 수 있다.
상태정보 검색부(624)는 버튼 검출부(621)에 의해 검출된 버튼(1530)의 기능에 대응하는 상태 정보가 존재하는지 여부를 확인할 수 있다. 그리고, 조작가능 상태 검출부(622)를 통해 해당 버튼(1530)이 조작 가능한 상태인지 여부를 확인할 수 있다. 상태정보 검색부(624)는 해당 버튼(1530)의 기능에 대응하는 상태 정보가 존재하고, 해당 버튼(1530)이 조작 가능한 상태인 것으로 확인되면, 출력부(630)를 통해 해당 버튼(1530)의 기능에 대응하는 상태 정보와 해당 버튼(1530)이 현재 조작 가능하다는 사실을 알리는 조작가능 알림신호를 출력할 수 있다. 예를 들어, 사용자의 신체일부(520)가 근접하여 버튼 검출부(621)에 의해 검출된 버튼(1530)이 음량 내림 버튼이며, 현재 조작 가능한 상태이고, 현재 스피커에 설정된 음량 크기가 10 이라는 상태 정보가 존재하면, 도 16과 같이 디스플레이 장치(510)의 화면에 "음량 내림 버튼입니다, 현재 음량: 10, 현재 상태: 조작 가능" 이라는 메시지 팝업창을 출력할 수 있다.
상태정보 검색부(624)는 사용자의 신체 일부(520)가 근접하여 버튼 검출부(621)에 의해 검출된 버튼(1630)의 기능에 대응하는 상태 정보가 존재하고, 해당 버튼(1630)이 조작 불가능한 상태인 것으로 확인되면, 먼저 선행버튼 검출부(622)를 통해 해당 버튼(1630)을 조작하기 위한 해당 버튼(1630) 이전에 조작되어야 하는 선행버튼이 검색되도록 제어할 수 있다. 상태정보 검색부(624)는 해당 버튼(1630)의 선행버튼이 검색되면, 사용자에게 해당 버튼(1630)이 현재 조작 불가능한 상태이며, 해당 버튼(1630)을 조작하기 위해서는 검색된 선행버튼을 먼저 조작해야 하는 안내 정보를 제공할 수 있는 선행버튼에 대한 조작안내신호 및 해당 버튼(1630)의 기능에 대응하는 상태 정보가 출력되도록 제어할 수 있다. 예를 들어, 해당 버튼(1630)이 음량 내림 버튼이며, 현재 조작 불가능한 상태이고, 현재 스피커에 설정된 음량 크기가 10 이라는 상태 정보가 존재하면, 도 17과 같이 디스플레이 장치(510)의 화면에 "음량 내림 버튼입니다, 현쟁 음량: 10, 현재 상태: 조작 불가능, 스피커 전원 버튼을 먼저 눌러주세요" 라는 메시지 팝업창을 출력할 수 있다.
상태정보 검색부(624)는 사용자의 신체 일부(520)가 근접하여 버튼 검출부(621)에 의해 검출된 버튼(1730)의 기능에 대응하는 상태 정보가 존재하지 않으며, 해당 버튼(1730)이 조작 가능한 상태인 것으로 확인되면, 해당 버튼(1730)의 조작가능 알림신호만 출력되도록 제어할 수 있다.
상태정보 검색부(624)는 사용자의 신체 일부(520)가 근접하여 버튼 검출부(621)에 의해 검출된 버튼(1730)의 기능에 대응하는 상태 정보가 존재하지 않으며, 해당 버튼(1730)이 조작 불가능한 상태인 것으로 확인되면, 먼저 선행버튼 검출부(622)를 통해 해당 버튼(1730)을 조작하기 위한 해당 버튼(1730) 이전에 조작되어야 하는 선행버튼이 검색되도록 제어할 수 있다. 상태정보 검색부(624)는 해당 버튼(1730)의 선행버튼이 검색되면 검색된 선행버튼에 대한 조작안내신호가 출력되도록 제어할 수 있다.
한편, 본 발명의 다른 실시예에 따른 제어부(620)는 검색된 선행버튼에 대한 조작안내신호가 출력된 후, 사용자에 의해 선행버튼이 조작되어 선행버튼에 대응하는 기능이 활성화된 것으로 확인될 수 있다. 이 경우 사용자에 의해 선행버튼이 조작된 것으로 확인되면 해당 버튼(1730)의 조작가능 알림신호가 출력되도록 제어할 수 있다.
한편, 버튼(1730)에 대한 상태 정보 또는 버튼(1730)의 동작정보신호는 디스플레이 장치(610)의 화면을 통해 볼 수 있는 메시지 팝업창으로 출력될 수 있다. 그리고, 디스플레이 장치(510)에 스피커가 마련되어 있는 경우 스피커를 통해 들을 수 있는 음성 메시지로 출력될 수 있다. 또는 디스플레이 장치(510)의 화면을 통해 메시지 팝업창이 출력되는 동시에, 스피커를 통해 음성 메시지가 출력될 수 있다.
출력부(630)는 사용자의 신체 일부(520)가 근접한 것으로 감지되어 버튼 검출부(621)에 의해 검출된 버튼(1730)에 대한 동작정보신호 또는 버튼(1730)의 기능에 대응하는 상태 정보를 출력할 수 있다. 출력부(630)는 디스플레이 장치(510)의 화면을 통해 버튼 검출부(621)에 의해 검출된 버튼(1730)에 대한 동작정보신호 또는 버튼(1730)의 기능에 대응하는 상태 정보를 출력할 수 있다. 출력부(630)는 디스플레이 장치(510)에 스피커가 구비되어 있는 경우, 버튼 검출부(621)에 의해 검출된 버튼(1730)에 대한 동작정보신호 또는 버튼(1730)의 기능에 대응하는 상태 정보를 음성 신호로 출력할 수 있다.
메모리부(640)는 제어부(620)의 처리 및 제어를 위한 프로그램이 저장될 수 있으며, 입/출력되는 데이터들의 임시 저장을 위한 기능을 수행할 수 있다.
본 발명의 일 실시예에 따른 메모리부(640)는 사용자의 신체 일부(520)가 버튼(1730)에 근접했는지 여부를 판단할 수 있는 기준 레벨 데이터를 저장할 수 있다. 그리고, 임의의 버튼(1730)이 조작되기 위해 조작되어야 할 버튼이 순서대로 배열되어 저장된 조작 순서 데이터 및 해당 기능에 대응하는 상태 정보가 존재하는 버튼(1730) 별로 상태 정보가 분류되어 있는 버튼 정보 데이터를 저장할 수 있다.
이하에서는, 도 18을 통하여 본 발명의 일 실시예에 따른 근접 감지를 이용한 표시 제어 방법에 대해 설명한다.
먼저, 감지 센서(610)를 통해 사용자의 신체 일부(520)가 버튼(1130)에 근접하는지 여부를 확인한다(S1810).
이때, 감지 센서(610)를 통해 사용자의 신체 일부(520)가 버튼(1130)에 근접하는지 여부를 확인하는 것은, 버튼 내부에 마련된 신호 송신부(611)를 통해 초음파 및 적외선을 송신할 수 있다. 그리고, 송신된 초음파 및 적외선이 사용자의 신체 일부(520)에 반사되는 반사파를 수신하여, 수신된 반사파의 신호 레벨이 미리 정해진 기준 신호 레벨 이상인지 여부를 확인하여 사용자의 신체 일부(520)가 버튼(1130)에 근접하는지 여부를 확인할 수 있다.
사용자의 신체 일부(520)가 버튼(1130)에 근접하는 것으로 확인(510)되면 수신된 반사파 신호를 분석하여 디스플레이 장치(510)에서 사용자의 신체 일부(520)가 근접하는 위치를 검출할 수 있다(S1820).
이때, 수신된 반사파 신호가 사용자의 신체 일부(520)에 부딪혀 변형되는 것을 분석하여 사용자의 신체 일부(520)가 근접하는 위치를 검출할 수 있다. 또는 적어도 3개 이상의 감지 센서(610)에 의해 수신된 적어도 3개 이상의 반사파 신호에 삼각측량법을 적용하여 사용자의 신체 일부(520)가 근접하는 위치를 검출할 수 있다.
사용자의 신체 일부(520)가 근접하는 위치를 검출(S1820)한 후, 디스플레이 장치(510) 상에서 검출된 위치에 가장 근접한 버튼(1130)을 검출할 수 있다(S1830).
버튼(1130)을 검출(S1830)한 후, 사용자가 해당 버튼(1130)이 현재 사용자에 의해 조작 가능한 상태인지 여부를 알 수 있도록 해당 버튼(1130)이 조작 가능한 상태인지 여부를 확인한다(S1840).
해당 버튼(1130)이 조작 불가능한 상태인 것으로 확인(S1840)되면, 사용자에게 해당 버튼(1130)을 조작하기 위해 해야 할 동작에 대해 가이드하기 위해, 해당 버튼(1130)을 조작하기 위해 이전에 조작되어야 하는 선행버튼을 검색한다(S1850).
해당 버튼(1130)을 조작하기 위한 선행버튼을 검색(S1850)한 후, 검색된 선행버튼에 대한 조작안내신호를 출력(S1860)하여 사용자에게 해당 버튼(1130)을 조작하기 위해 이전에 조작해야 하는 선행버튼(1130)에 대한 가이드 정보를 제공한다.
이때, 선행버튼에 대한 조작안내신호는 사용자가 해당 버튼(1130)을 조작하기 위해서는 선행버튼을 먼저 조작해야 하는 사실을 알 수 있도록, 안내 메시지 및 선행버튼의 위치 정보와 조작 방법 정보를 포함할 수 있다.
선행버튼에 대한 조작안내신호를 출력(S1860)한 후, 사용자에 의해 선행버튼의 기능이 활성화 되었는지, 즉 사용자에 의해 선행버튼이 조작되었는지 여부를 확인한다(S1870).
이때, 사용자에 의해 선행버튼이 조작되지 않은 것으로 확인(S1870)되면 계속 사용자에 의해 선행버튼이 조작되는지 여부를 확인한다.
또한, 사용자에 의해 선행버튼이 조작된 것으로 확인(S1870)되면, 사용자가 해당 버튼(1130)이 즉시 조작 가능한 상태임을 알릴 수 있도록 해당 버튼(1130)에 대한 조작가능 알림신호를 출력한다(S1880).
한편, 해당 버튼(1130)이 조작 가능한 상태인 것으로 확인(S1840)되면, 사용자가 해당 버튼(1130)이 즉시 조작 가능한 상태임을 알릴 수 있도록 해당 버튼(1130)에 대한 조작가능 알림신호를 출력한다(S1880).
이하에서는, 도 19를 통해 본 발명의 다른 실시예에 따른 근접 감지를 이용한 표시 제어 방법에 대해 설명한다.
먼저, 감지 센서(610)를 통해 사용자의 신체 일부(520)가 버튼(1130)에 근접하는지 여부를 확인한다(S1910).
사용자의 신체 일부(520)가 버튼(1130)에 근접하는 것으로 확인(S1910)되면 수신된 반사파 신호를 분석하여 디스플레이 장치(510)에서 사용자의 신체 일부(520)가 근접하는 위치를 검출한다(S1920).
사용자의 신체 일부(520)가 근접하는 위치를 검출(S1920)한 후, 디스플레이 장치(510) 상에서 검출된 위치에 가장 근접한 버튼(1130)을 검출한다(S1930).
디스플레이 장치(510) 상에서 검출된 위치에 가장 근접한 버튼(1130)을 검출(S1930)한 후, 해당 버튼(1130)의 기능에 대응하는 상태 정보가 존재하는지 여부를 확인한다(S1940).
이때, 버튼(1130)의 기능에 대응하는 상태 정보는 사용자가 해당 버튼(1130)을 조작하기 전에 해당 버튼(1130)의 기능에 대응하여 현재 설정되어 있는 상태에 대한 정보를 의미할 수 있다. 버튼(1130)의 기능에 대응하는 상태 정보는 임의의 버튼(1130)에 대해 상태 정보가 존재하면 메모리부(640)에 버튼(1130) 별로 분류되어 저장되어 있다.
해당 버튼(1130)의 기능에 대응하는 상태 정보가 존재하면(S1940), 출력부(630)를 통해 해당 버튼(1130)의 기능에 대응하는 상태 정보를 출력한다(S1950).
이하에서는, 도 20을 통해 본 발명의 또 다른 실시예에 따른 근접 감지를 이용한 표시 제어 방법에 대해 설명한다.
본 발명의 또 다른 실시예에 따른 디스플레이 장치(510)는 버튼(1130)의 기능에 대응하는 상태 정보를 사용자에게 제공할 시, 해당 버튼(1130)이 현재 조작 가능한지에 대한 신호도 함께 제공할 수 있다.
이를 위해, 먼저, 감지 센서(610)를 통해 사용자의 신체 일부(520)가 버튼(1130)에 근접하는지 여부를 확인(S2010)하고, 사용자의 신체 일부(520)가 버튼(1130)에 근접하는 것으로 확인(S2010)되면 수신된 반사파 신호를 분석하여 디스플레이 장치(510)에서 사용자의 신체 일부(520)가 근접하는 위치를 검출(S2015)하고, 디스플레이 장치(510) 상에서 검출된 위치에 가장 근접한 버튼(1130)을 검출(S2020)하고, 해당 버튼(1130)의 기능에 대응하는 상태 정보가 존재하는지 여부를 확인(S2025)하고, 해당 버튼(1130)의 기능에 대응하는 상태 정보가 존재하면 해당 버튼(1130)이 조작 가능한 상태인지 여부를 확인한다(S2030).
이때, 해당 버튼(1130)의 기능에 대응하는 상태 정보가 존재하지 않는 경우에 대해서는 도 21을 통하여 후술하도록 한다.
해당 버튼(1130)이 조작 가능한 상태인 것으로 확인(S2030)되면, 해당 버튼(1130)의 기능에 대응하는 상태 정보와 해당 버튼(1130)의 조작가능 알림신호가 같이 출력한다(S2035).
해당 버튼(1130)이 조작 불가능한 상태인 것으로 확인(S2030)되면, 사용자에게 해당 버튼(1130)을 조작하기 위해 해야 할 동작에 대해 가이드하기 위해, 해당 버튼(1130)을 조작하기 위해 이전에 조작되어야 하는 선행버튼을 검색한다(S2040).
해당 버튼(1130)을 조작하기 위한 선행버튼을 검색(S2040)한 후, 해당 버튼(1130)의 기능에 대응하는 상태 정보와 함께 검색된 선행버튼에 대한 조작안내신호를 출력한다(S2045).
이때, 선행버튼에 대한 조작안내신호는 사용자가 해당 버튼(1130)을 조작하기 위해서는 선행버튼을 먼저 조작해야 하는 사실을 알 수 있도록, 안내 메시지 및 선행버튼의 위치 정보와 조작 방법 정보를 포함할 수 있다.
해당 버튼(1130)의 기능에 대응하는 상태 정보 및 선행버튼에 대한 조작안내신호를 출력(S2045)한 후, 사용자에 의해 선행버튼의 기능이 활성화 되었는지, 즉 사용자에 의해 선행버튼이 조작되었는지 여부를 확인한다(S2050).
이때, 사용자에 의해 선행버튼이 조작되지 않은 것으로 확인(S2050)되면 계속 사용자에 의해 선행버튼이 조작되는지 여부를 확인한다.
또한, 사용자에 의해 선행버튼이 조작된 것으로 확인(S2050)되면, 사용자가 해당 버튼(1130)이 즉시 조작 가능한 상태임을 알릴 수 있도록 해당 버튼(1130)에 대한 조작가능 알림신호를 출력한다(S2055).
이하에서는, 도 20을 통해 버튼의 기능에 대응하는 상태 정보가 존재하지 않는 경우에 대한 근접 감지를 이용한 표시 제어 방법에 대해 설명한다.
먼저, 사용자의 신체 일부(520)가 근접한 것으로 감지되어 버튼 검출부(621)에 의해 검출된 버튼(1130)의 기능에 대응하는 상태 정보가 존재하지 않은 경우, 해당 버튼(1130)이 조작 가능한 상태인지 여부를 확인한다(S2181).
이때, 해당 버튼(1130)이 조작 불가능한 상태인 것으로 확인(S2181)되면, 사용자에게 해당 버튼(1130)을 조작하기 위해 해야 할 동작에 대해 가이드하기 위해, 해당 버튼(1130)을 조작하기 위해 이전에 조작되어야 하는 선행버튼을 검색한다(S2120).
해당 버튼(1130)을 조작하기 위한 선행버튼을 검색(S2120)한 후, 해당 버튼(1130)의 기능에 대응하는 상태 정보와 함께 검색된 선행버튼에 대한 조작안내신호를 출력한다(S2130).
이때, 선행버튼에 대한 조작안내신호는 사용자가 해당 버튼(1130)을 조작하기 위해서는 선행버튼을 먼저 조작해야 하는 사실을 알 수 있도록, 안내 메시지 및 선행버튼의 위치 정보와 조작 방법 정보를 포함할 수 있다.
해당 버튼(1130)의 기능에 대응하는 상태 정보 및 선행버튼에 대한 조작안내신호를 출력(S2130)한 후, 사용자에 의해 선행버튼의 기능이 활성화 되었는지, 즉 사용자에 의해 선행버튼이 조작되었는지 여부를 확인한다(S2140).
이때, 사용자에 의해 선행버튼이 조작되지 않은 것으로 확인(S2140)되면 계속 사용자에 의해 선행버튼이 조작되는지 여부를 확인한다.
또한, 사용자에 의해 선행버튼이 조작된 것으로 확인(S2140)되면, 사용자가 해당 버튼(1130)이 즉시 조작 가능한 상태임을 알릴 수 있도록 해당 버튼(1130)에 대한 조작가능 알림신호를 출력한다(S2150).
한편, 해당 버튼(1130)이 조작 가능한 상태인 것으로 확인(S2110)되면, 사용자가 해당 버튼(1130)이 즉시 조작 가능한 상태임을 알릴 수 있도록 해당 버튼(1130)에 대한 조작가능 알림신호를 출력한다(S2150).
이와 같은, 근접 인식을 이용한 표시 제어 기술은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 공항용 로봇의 AP(150)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
Claims (14)
- 공항용 로봇에 있어서,디스플레이부를 포함하는 디스플레이 장치;인체 및 물체를 센싱하는 사물 인식부; 및상기 공항용 로봇의 동작을 제어하는 제어부를 포함하고,상기 사물 인식부는 상기 디스플레이부에 사용자의 신체 일부가 근접하는지 여부를 감지하는 감지센서를 포함하고,상기 제어부는,상기 감지 센서를 이용하여 상기 디스플레이부에서 상기 사용자의 신체 일부가 근접한 위치를 검출하고, 상기 디스플레이부에서 상기 검출된 위치에 가장 근접한 버튼을 확인하고, 상기 버튼의 동작정보신호를 출력하도록 제어하는,공항용 로봇.
- 제1 항에 있어서,상기 제어부는,상기 사용자의 조작으로 상기 버튼에 대응하는 기능이 사용 가능한 상태인지 여부를 확인하여 그 결과에 따라 상기 버튼에 대한 동작정보신호를 출력하도록 제어하는,공항용 로봇.
- 제2 항에 있어서,상기 제어부는,상기 사용자의 조작으로 상기 버튼에 대응하는 기능이 활성 가능한 상태이면 상기 버튼이 조작가능 상태임을 알리는 상기 버튼의 조작가능 알림신호를 출력하도록 제어하는,공항용 로봇.
- 제2 항에 있어서,상기 제어부는,상기 사용자의 조작으로 상기 버튼에 대응하는 기능이 활성 불가능한 상태이면 상기 사용자의 조작으로 상기 버튼에 대응하는 기능이 활성화되기 위한 필요조건을 검색하여 상기 필요조건에 대한 안내신호를 출력하도록 제어하는,공항용 로봇.
- 제4 항에 있어서,상기 필요조건을 검색하는 것은,상기 사용자의 조작으로 상기 버튼에 대응하는 기능이 활성화되기 위해 상기 버튼 조작 이전에 활성화되어야 하는 기능을 포함하는 선행 버튼을 검색하는 것인,공항용 로봇.
- 제5 항에 있어서,상기 제어부는,상기 사용자가 상기 버튼 조작 이전에 활성화되어야 하는 기능을 포함하는 선행 버튼이 존재하는 것을 인식할 수 있도록 상기 선행 버튼에 대한 조작안내신호를 출력하도록 제어하는,공항용 로봇.
- 제6 항에 있어서,상기 제어부는,상기 선행 버튼이 상기 사용자에 의해 조작되어 상기 선행 버튼에 대응하는 기능이 활성화된 것으로 인식되면 상기 버튼이 조작가능 상태임을 알리는 상기 버튼의 조작가능 알림신호를 출력하는,공항용 로봇.
- 제1항에 있어서,상기 사물 인식부는 적어도 3개의 상기 감지 센서를 포함하는공항용 로봇.
- 제1항에 있어서,상기 사물 인식부는 상기 디스플레이 장치 내에 구비되는공항용 로봇.
- 디스플레이 장치를 포함하는 공항용 로봇의 동작 방법에 있어서,감지 센서를 통해 사용자의 신체 일부가 상기 디스플레이 장치에 근접함을 감지하는 단계;상기 디스플레이 장치에서 상기 신체 일부가 근접하는 위치를 검출하는 단계;검출된 위치에 가장 근접한 버튼을 검출하는 단계; 및검출된 버튼의 동작정보신호를 출력하는 단계를 포함하는 공항용 로봇의 동작 방법.
- 제10항에 있어서,상기 감지 센서는 상기 디스플레이 장치 내에 구비되고, 적어도 3개의 감지 센서를 포함하는 공항용 로봇의 동작 방법.
- 제10항에 있어서,상기 동작정보신호를 출력하는 단계는,상기 검출된 버튼이 조작 가능한 상태인지 여부를 확인하는 단계; 및확인 결과에 기초하여 상기 동작정보신호를 출력하는 단계를 포함하는 공항용 로봇의 동작 방법.
- 제12항에 있어서,상기 동작정보신호를 출력하는 단계는,상기 검출된 버튼이 조작 가능한 상태인 경우, 상기 버튼에 대한 조작가능 알림 신호를 출력하는 단계를 포함하는 공항용 로봇의 동작 방법.
- 제12항에 있어서,상기 동작정보신호를 출력하는 단계는,상기 검출된 버튼이 조작 불가능한 상태인 경우, 상기 버튼을 조작하기 위한 선행버튼을 검색하는 단계;검색된 선행버튼에 대한 조작안내신호를 출력하는 단계; 및상기 조작안내신호에 기초하여 상기 선행버튼이 조작되면, 상기 검출된 버튼에 대한 조작가능 알림 신호를 출력하는 단계를 포함하는 공항용 로봇의 동작 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/473,223 US20190354246A1 (en) | 2016-12-23 | 2017-12-11 | Airport robot and movement method therefor |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160178443A KR20180074403A (ko) | 2016-12-23 | 2016-12-23 | 공항용 로봇 및 그의 동작 방법 |
KR10-2016-0178443 | 2016-12-23 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018117513A1 true WO2018117513A1 (ko) | 2018-06-28 |
Family
ID=62626720
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2017/014491 WO2018117513A1 (ko) | 2016-12-23 | 2017-12-11 | 공항용 로봇 및 그의 동작 방법 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20190354246A1 (ko) |
KR (1) | KR20180074403A (ko) |
WO (1) | WO2018117513A1 (ko) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109333542A (zh) * | 2018-08-16 | 2019-02-15 | 北京云迹科技有限公司 | 机器人语音交互方法及系统 |
US20200033135A1 (en) * | 2019-08-22 | 2020-01-30 | Lg Electronics Inc. | Guidance robot and method for navigation service using the same |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105446350B (zh) * | 2014-09-26 | 2018-05-29 | 科沃斯机器人股份有限公司 | 自移动机器人移动界限划定方法 |
KR102228866B1 (ko) * | 2018-10-18 | 2021-03-17 | 엘지전자 주식회사 | 로봇 및 그의 제어 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080056669A (ko) * | 2006-12-18 | 2008-06-23 | 가부시키가이샤 히타치세이사쿠쇼 | 안내 로봇장치 및 안내시스템 |
KR20080090150A (ko) * | 2007-04-04 | 2008-10-08 | 삼성전자주식회사 | 서비스 로봇과 서비스 로봇을 이용하는 서비스 시스템 및서비스 로봇을 이용하는 서비스 시스템의 제어방법 |
KR100904191B1 (ko) * | 2008-05-29 | 2009-06-22 | (주)다사로봇 | 안내용 로봇 |
KR20100029877A (ko) * | 2008-09-09 | 2010-03-18 | 삼성전자주식회사 | 터치스크린을 이용한 컨텐츠 탐색 및 실행방법과 이를 이용한 장치 |
KR101668031B1 (ko) * | 2015-06-01 | 2016-10-20 | 경북대학교 산학협력단 | 근접 감지를 이용한 버튼 제어 장치 및 방법 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070240057A1 (en) * | 2006-04-11 | 2007-10-11 | Microsoft Corporation | User interface element for displaying contextual information |
KR20100041006A (ko) * | 2008-10-13 | 2010-04-22 | 엘지전자 주식회사 | 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법 |
KR102070276B1 (ko) * | 2012-04-24 | 2020-01-28 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어방법 |
EP3022639B1 (en) * | 2013-07-16 | 2018-10-31 | Pinterest, Inc. | Object based contextual menu controls |
US9329597B2 (en) * | 2014-01-17 | 2016-05-03 | Knightscope, Inc. | Autonomous data machines and systems |
-
2016
- 2016-12-23 KR KR1020160178443A patent/KR20180074403A/ko unknown
-
2017
- 2017-12-11 WO PCT/KR2017/014491 patent/WO2018117513A1/ko active Application Filing
- 2017-12-11 US US16/473,223 patent/US20190354246A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080056669A (ko) * | 2006-12-18 | 2008-06-23 | 가부시키가이샤 히타치세이사쿠쇼 | 안내 로봇장치 및 안내시스템 |
KR20080090150A (ko) * | 2007-04-04 | 2008-10-08 | 삼성전자주식회사 | 서비스 로봇과 서비스 로봇을 이용하는 서비스 시스템 및서비스 로봇을 이용하는 서비스 시스템의 제어방법 |
KR100904191B1 (ko) * | 2008-05-29 | 2009-06-22 | (주)다사로봇 | 안내용 로봇 |
KR20100029877A (ko) * | 2008-09-09 | 2010-03-18 | 삼성전자주식회사 | 터치스크린을 이용한 컨텐츠 탐색 및 실행방법과 이를 이용한 장치 |
KR101668031B1 (ko) * | 2015-06-01 | 2016-10-20 | 경북대학교 산학협력단 | 근접 감지를 이용한 버튼 제어 장치 및 방법 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109333542A (zh) * | 2018-08-16 | 2019-02-15 | 北京云迹科技有限公司 | 机器人语音交互方法及系统 |
US20200033135A1 (en) * | 2019-08-22 | 2020-01-30 | Lg Electronics Inc. | Guidance robot and method for navigation service using the same |
US11686583B2 (en) * | 2019-08-22 | 2023-06-27 | Lg Electronics Inc. | Guidance robot and method for navigation service using the same |
Also Published As
Publication number | Publication date |
---|---|
KR20180074403A (ko) | 2018-07-03 |
US20190354246A1 (en) | 2019-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2018128292A1 (ko) | 공항용 로봇 및 그의 동작 방법 | |
WO2018052204A1 (ko) | 공항 로봇 및 그를 포함하는 공항 로봇 시스템 | |
WO2018070686A1 (ko) | 공항용 안내 로봇 및 그의 동작 방법 | |
WO2018070664A1 (ko) | 공항용 보조 로봇 및 그의 동작 방법 | |
WO2018117513A1 (ko) | 공항용 로봇 및 그의 동작 방법 | |
WO2018070663A1 (ko) | 공항용 로봇 및 그의 동작 방법 | |
WO2018066837A1 (ko) | 공항 로봇 및 이를 포함하는 시스템 | |
AU2014297039B2 (en) | Auto-cleaning system, cleaning robot and method of controlling the cleaning robot | |
WO2018164326A1 (ko) | 청소기 및 그 제어방법 | |
WO2018066816A1 (ko) | 공항용 로봇 및 그의 동작 방법 | |
WO2016200098A1 (ko) | 이동 로봇 및 그 제어방법 | |
WO2019235743A1 (ko) | 장애물 회피에 기반하여 경유 지점을 주행하는 로봇 및 주행하는 방법 | |
KR102559745B1 (ko) | 공항 로봇 및 그를 포함하는 공항 로봇 시스템 | |
WO2018117514A1 (ko) | 공항용 로봇 및 그의 동작 방법 | |
WO2018043957A1 (en) | Robot cleaner | |
WO2020122582A1 (en) | Artificial intelligence moving robot and method for controlling the same | |
WO2017034056A1 (ko) | 이동 로봇 및 이의 제어방법 | |
WO2020241950A1 (ko) | 이동 로봇 및 그 제어방법 | |
WO2020218644A1 (ko) | 인공지능을 이용하여 로봇의 위치를 재정의하는 방법 및 로봇 | |
WO2019212174A1 (ko) | 인공지능 청소기 및 그 제어방법 | |
KR102570164B1 (ko) | 공항 로봇 및 그와 연결되는 서버의 동작 방법 | |
WO2019194415A1 (en) | Mover robot system and controlling method for the same | |
WO2020027611A1 (en) | Moving robot, moving robot system, and method for moving to charging station of moving robot | |
WO2020159277A2 (ko) | 이동 로봇 및 이의 제어 방법 | |
WO2020153628A1 (ko) | 로봇 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17882504 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 17882504 Country of ref document: EP Kind code of ref document: A1 |