WO2019054676A1 - 이동 로봇 시스템 및 그 제어 방법 - Google Patents

이동 로봇 시스템 및 그 제어 방법 Download PDF

Info

Publication number
WO2019054676A1
WO2019054676A1 PCT/KR2018/010127 KR2018010127W WO2019054676A1 WO 2019054676 A1 WO2019054676 A1 WO 2019054676A1 KR 2018010127 W KR2018010127 W KR 2018010127W WO 2019054676 A1 WO2019054676 A1 WO 2019054676A1
Authority
WO
WIPO (PCT)
Prior art keywords
robot
transceiver
terminal
mobile robot
user terminal
Prior art date
Application number
PCT/KR2018/010127
Other languages
English (en)
French (fr)
Inventor
정재영
권영도
류민우
이동현
이동훈
김민재
김신
정우람
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US16/647,846 priority Critical patent/US11465275B2/en
Publication of WO2019054676A1 publication Critical patent/WO2019054676A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2857User input or output elements for control, e.g. buttons, switches or displays
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4063Driving means; Transmission means therefor
    • A47L11/4069Driving or transmission means for the cleaning tools
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/02Nozzles
    • A47L9/04Nozzles with driven brushes or agitators
    • A47L9/0461Dust-loosening tools, e.g. agitators, brushes
    • A47L9/0466Rotating tools
    • A47L9/0477Rolls
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2836Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means characterised by the parts which are controlled
    • A47L9/2852Elements for displacement of the vacuum cleaner or the accessories therefor, e.g. wheels, casters or nozzles
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • A47L9/2894Details related to signal transmission in suction cleaners
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/0085Cleaning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/006Controls for manipulators by means of a wireless system for controlling one or several manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0016Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0022Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement characterised by the communication link
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0033Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by having the operator tracking the vehicle either by direct line of sight or via one or more cameras located remotely from the vehicle
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/02Docking stations; Docking operations
    • A47L2201/022Recharging of batteries
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L2201/00Robotic cleaning machines, i.e. with automatic control of the travelling movement or the cleaning operation
    • A47L2201/04Automatic control of the travelling movement; Automatic obstacle detection

Definitions

  • the present invention relates to a mobile robot, a control method of the mobile robot, and a mobile robot system, and more particularly, to a mobile robot including a mobile robot and a user terminal for controlling the movement of the mobile robot, System.
  • a mobile robot is a device that performs a specific task while traveling in a cleaning space without a user's operation.
  • a mobile robot is a device for automatically cleaning a cleaning space by sucking foreign substances such as dust accumulated on the floor. In other words, the mobile robot can move the cleaning space and clean the cleaning space.
  • the user when the user desires to clean a specific position in the cleaning space first, the user must directly confirm the position of the mobile robot and move the mobile robot to a specific position using the remote controller.
  • One aspect of the disclosed invention is to provide a mobile robot capable of detecting the position of a user terminal, a control method of the mobile robot, and a mobile robot system.
  • Another aspect of the disclosed invention is to provide a mobile robot, a control method of the mobile robot, and a mobile robot system capable of sensing the direction indicated by the user terminal.
  • a mobile robot moves to a target position indicated by a user apparatus, the mobile robot comprising: a driving unit for moving the mobile robot; A communication unit for exchanging radio signals with the first terminal transceiver and the second terminal transceiver included in the user equipment; And a controller for controlling the driving unit to move to the target position after transmission and reception of a radio signal with the first terminal transceiver and transmission and reception of a radio signal with the second terminal transceiver.
  • the control unit may determine the target position based on the communication response time of the first terminal transceiver and the communication response time of the second terminal transceiver and may control the driving unit to move to the target position.
  • the controller determines the location of the user terminal and the direction of the user terminal based on the communication response time of the first terminal transceiver and the communication response time of the second terminal transceiver,
  • the target position can be determined based on the instruction direction of the target position.
  • the controller determines a location of the first terminal transceiver based on a communication response time of the first terminal transceiver and a location of the second terminal transceiver based on a communication response time of the second terminal transceiver,
  • the location of the user terminal and the direction of the user terminal can be determined based on the location of the first terminal transceiver and the location of the second terminal transceiver.
  • the communication unit includes a first robot transceiver, a second robot transceiver, and a third robot transceiver
  • the controller is configured to determine, based on the communication response time between each of the first, second and third robot transceivers and the first terminal transceiver Determine the location of the first terminal transceiver and determine the location of the second terminal transceiver based on the communication response time between each of the first, second and third robot transceivers and the first terminal transceiver
  • the communication unit includes a first robot transceiver and the control unit controls the position of the first terminal transceiver based on the communication response time between the first robot transceiver and the first terminal transceiver while the mobile robot rotates in place And determine the position of the second terminal transceiver based on the communication response time between the first robot transceiver and the second terminal transceiver while the mobile robot rotates in place.
  • the communication unit includes a first robot transceiver, a second robot transceiver, and a third robot transceiver, wherein the control unit controls the communication response time between the first, second and third robot transceivers and the first terminal transceiver, 1, the second and third robot transceivers, and the second terminal transceiver, respectively.
  • the communication unit includes a first robot transceiver and the controller controls the communication response time between the first robot transceiver and the first terminal transceiver and the communication response time between the first robot transceiver and the second terminal transceiver,
  • the target position can be determined based on the communication response time between the transceivers.
  • a method of controlling a mobile robot that moves a mobile robot to a target position indicated by a user terminal, the method comprising: Receiving and transmitting radio signals with each of the terminal transceivers; Determine the target location based on a communication response time of the first terminal transceiver and a communication response time of the second terminal transceiver; And moving the mobile robot to the target position.
  • Determining the target position may include determining a position of the user terminal and an instruction direction of the user terminal based on a communication response time of the first terminal transceiver and a communication response time of the second terminal transceiver; And determining the target position based on the position of the user terminal and the direction of the user terminal.
  • determining the location of the user terminal and the direction of the user terminal comprises determining a location of the first terminal transceiver based on a communication response time of the first terminal transceiver; Determine a location of the second terminal transceiver based on a communication response time of the second terminal transceiver; And determining the location of the user terminal and the direction of the user terminal based on the location of the first terminal transceiver and the location of the second terminal transceiver.
  • determining the location of the first terminal transceiver comprises determining a location of the first terminal transceiver based on a communication response time between each of the first, second and third robot transceivers included in the mobile robot and the first terminal transceiver
  • determining the location of the second terminal transceiver comprises determining a location of the second terminal transceiver based on the communication response time between each of the first, second and third robot transceivers and the first terminal transceiver, To determine the location of the < / RTI >
  • the determining of the position of the first terminal transceiver may include determining a position of the first terminal transceiver based on the communication response time between the first robot transceiver included in the mobile robot and the first terminal transceiver while the mobile robot rotates in place, wherein the determining of the position of the second terminal transceiver comprises determining a position of the second terminal transceiver based on the communication response time between the first robot transceiver and the second terminal transceiver while the mobile robot is rotating in place, And determining the location of the second terminal transceiver.
  • the determination of the target position may include determining a communication response time between each of the first, second and third robot transceivers included in the mobile robot and the first terminal transceiver and the communication response time between each of the first, second and third robot transceivers, And determining the target location based on a communication response time between the second terminal transceiver and the second terminal transceiver.
  • the determining of the target position may include determining a communication response time between the first robot transceiver and the first terminal transceiver included in the mobile robot while the mobile robot rotates in place and the communication response time between the first robot transceiver and the second terminal transceiver And determining the target position based on the communication response time between the target position and the target position.
  • a mobile robot system includes: a user terminal including a first terminal transceiver and a second terminal transceiver, which are arranged in a line toward the target location, the terminal indicating a target location; And a mobile robot moving toward the target position, wherein the mobile robot includes: a driving unit for moving the mobile robot; A communication unit for exchanging radio signals with the first terminal transceiver and the second terminal transceiver, respectively; And a control unit for determining the target position based on the communication response time of the first terminal transceiver and the communication response time of the second terminal transceiver and controlling the driving unit to move to the target position.
  • a mobile robot capable of detecting a position of a user terminal, a control method of the mobile robot, and a mobile robot system.
  • a mobile robot capable of sensing a direction indicated by a user terminal, a control method of the mobile robot, and a mobile robot system.
  • FIG. 1 schematically shows the configuration and operation of a mobile robot system according to an embodiment.
  • FIG. 2 shows a configuration of a mobile robot according to an embodiment.
  • FIG. 3 shows an appearance of a mobile robot according to an embodiment.
  • FIG. 4 shows a bottom view of the mobile robot according to an embodiment.
  • FIG. 5 shows an example of a robot communication unit included in the mobile robot according to an embodiment.
  • FIG 6 shows another example of the robot communication unit included in the mobile robot according to the embodiment.
  • FIG. 7 shows another example of a robot communication unit included in the mobile robot according to an embodiment.
  • FIG. 8 illustrates a configuration of a user terminal according to an embodiment.
  • FIG. 9 illustrates an appearance of a user terminal according to an embodiment.
  • FIG. 10 shows an example of a terminal communication unit included in a user terminal according to an embodiment.
  • FIG. 11 illustrates another example of a terminal communication unit included in a user terminal according to an embodiment.
  • FIG. 12 illustrates an example in which a mobile robot according to an embodiment determines a target position.
  • FIG. 13 illustrates a method of determining a target position of a mobile robot according to an embodiment.
  • FIG. 14 illustrates an example in which a mobile robot according to an embodiment determines a location of a user terminal.
  • FIG. 15 shows another example in which a mobile robot according to an embodiment determines the location of a user terminal.
  • 16 and 17 illustrate an example in which a mobile robot according to an embodiment determines a pointing direction of a user terminal.
  • FIG. 18 shows a method of moving a mobile robot to a target position according to an embodiment.
  • 19 shows a mobile robot system according to an embodiment.
  • FIG. 20 illustrates a method of determining a target position by a mobile robot according to an embodiment.
  • FIG. 21 illustrates an example of determining the location of a user terminal according to an embodiment.
  • FIG. 22 illustrates an example of determining a direction of a user terminal according to an embodiment.
  • connection when a part is referred to as being "connected" to another part, it includes not only the case directly connected but also the case where the connection is indirectly connected, and the indirect connection includes connection through the wireless communication network do.
  • a member when a member is located on another member, it includes not only when a member is in contact with another member but also when another member exists between the two members.
  • first, second, etc. are used to distinguish one element from another, and the elements are not limited by the above-mentioned terms.
  • the identification code is used for convenience of explanation, and the identification code does not describe the order of the steps, and each step may be performed differently from the stated order unless clearly specified in the context. have.
  • FIG. 1 schematically shows the configuration and operation of a mobile robot system according to an embodiment.
  • the mobile robot system 1 may include a mobile robot 100 running on the floor and a user terminal 200 controlling the traveling of the mobile robot 100.
  • the mobile robot 100 can travel on the floor of the traveling space.
  • the mobile robot 100 may automatically and / or manually run the floor of the house of the user U.
  • the mobile robot 100 can automatically recognize the structure of the house and the position of the obstacles and can travel on the floor of the house while avoiding walls and furniture in the house depending on the structure of the house and the location of the obstacles.
  • the obstacle may represent all objects that may interfere with travel of the mobile robot 100, such as furniture, walls, and the like.
  • the mobile robot 100 can manually run the floor of the house by the operation of the user U. [ The user U can control the travel of the mobile robot 100 through the user terminal 200 and the mobile robot 100 can control the travel speed and / Can be adjusted.
  • the user U can indicate the target position T to which the mobile robot 100 moves through the user terminal 200 and the mobile robot 100 can recognize the target position T indicated by the user terminal 200. [ Can be automatically moved to.
  • the mobile robot 100 is not limited to running in the room, and the mobile robot 100 can be driven outdoors.
  • the mobile robot 100 can be driven outdoors while recognizing an obstacle or the like or can be driven outdoors under the control of the user U through the user terminal 200.
  • the mobile robot 100 can perform various operations while driving.
  • the mobile robot 100 may clean the floor of the house while driving the user U's house. Specifically, the mobile robot 100 can automatically sweep and suck the dust on the floor of the house while driving the user U's house. In addition, the mobile robot 100 can suck the dust around the target position T after moving to the target position T indicated by the user terminal 200.
  • the mobile robot 100 is not limited to cleaning the floor during traveling.
  • the mobile robot 100 can carry objects while driving.
  • the user terminal 200 may receive the user input of the user U and may transmit the user control signal corresponding to the user input to the mobile robot 100.
  • the user terminal 200 receives a user input relating to traveling and / or cleaning of the mobile robot 100, and transmits a driving control signal for controlling the traveling of the mobile robot 100 and / To the mobile robot 100, a cleaning control signal for controlling the cleaning of the mobile robot 100.
  • the mobile robot 100 can travel on the floor of the house in response to receiving the driving control signal and / or the cleaning control signal, and can clean the floor of the house.
  • the user terminal 200 can receive a user input for designating the target position T from the user U and transmit the movement signal to the mobile robot 100 at the target position T.
  • the mobile robot 100 can automatically move toward the target position T by determining the position of the target position T in response to the movement signal to the target position T.
  • the mobile robot 100 determines the position of the user terminal 200 in order to calculate the target position T and determines the direction indicated by the user terminal 200 can do.
  • the mobile robot 100 may also communicate with the user terminal 200 to determine the location of the user terminal 200 and / or the direction of the user terminal 200.
  • the mobile robot 100 receives the driving control signal and / or the cleaning control signal from the user terminal 200 through communication with the user terminal 200 and transmits the driving control signal and / You can drive and clean it at home.
  • the mobile robot 100 receives the movement signal to the target position T through communication with the user terminal 200, and determines the position of the target position T through communication with the user terminal 200 .
  • the mobile robot 100 moves to the target position T and then can clean around the target position T.
  • FIG. 2 shows a configuration of a mobile robot according to an embodiment.
  • FIG. 3 shows an appearance of a mobile robot according to an embodiment.
  • 4 shows a bottom view of the mobile robot according to an embodiment.
  • FIG. 5 shows an example of a robot communication unit included in the mobile robot according to an embodiment.
  • 6 shows another example of the robot communication unit included in the mobile robot according to the embodiment.
  • FIG. 7 shows another example of a robot communication unit included in the mobile robot according to an embodiment.
  • the mobile robot 100 includes a robot body 101, and the robot body 101 constitutes a mobile robot 100
  • the components can be accommodated and the components can be protected from external forces.
  • the robot body 101 may include a main body 101a and a sub body 101b.
  • the main body 101a may have a shape of approximately a semicircular column, for example, and the sub body 101b may be, for example, It can have a substantially rectangular parallelepiped shape.
  • the shape of the main body 101a and the shape of the sub body 101b is for optimal cleaning and the shape of the main body 101a and the shape of the sub body 101b are not limited to the substantially semicircular shape and the substantially rectangular shape
  • a robot control panel 110 that interacts with the user U, a robot motion sensing unit 120 that senses the motion of the mobile robot 100, A cleaning unit 150 for cleaning the floor, a robot communication unit 160 for communicating with the user terminal 200, and a control unit 150 for controlling the robot communication unit 160.
  • the robotic obstacle sensing unit 130 senses the robot 130
  • the driving unit 140 moves the mobile robot 100
  • a robot controller 170 for controlling the operation of the mobile robot 100 is provided.
  • the configuration of the mobile robot 100 is not limited to that shown in FIG. 2, and other configurations may be added or a part thereof may be omitted as necessary.
  • the robot control panel 110 may be provided on the upper surface of the robot main body 101 and may display a plurality of robot input buttons 111 for receiving user input from the user U and information about the operations of the mobile robot 100 And a robot display 112 for displaying information.
  • the robot input button 111 may include a plurality of buttons for receiving various user inputs.
  • the robot input button 111 may include a power button for turning the mobile robot 100 on or off, an operation button for starting or stopping the operation of the mobile robot 100, A return button for returning to the charging station, and the like.
  • Each of the plurality of buttons included in the robot input button 111 receives a user input and outputs a user control signal corresponding to the user input to the robot control unit 170.
  • each of the plurality of buttons included in the robot input button 111 may be implemented by various input means such as a push switch, a touch switch, a dial, a slide switch, and a toggle switch.
  • the robot display 112 can display information on the operation of the mobile robot 100 in response to a user input.
  • the robot display 112 may display an operation state of the mobile robot 100, a power supply state, a cleaning mode selected by the user, a return to the charging station, and the like.
  • the robot display 112 may be implemented by various display means such as a liquid crystal display (LCD) panel, a light emitting diode (LED), or an organic light emitting diode (OLED) have.
  • the robot display 112 may employ a touch screen panel (TSP) that receives user input and displays operation information of the mobile robot 100.
  • TSP touch screen panel
  • the robot motion detection unit 120 may sense the motion and the posture of the mobile robot 100 while the mobile robot 100 travels in the traveling space. For example, the robot motion detecting unit 120 may detect the linear motion acceleration, the linear motion velocity, the linear motion displacement, the linear motion direction, the skew, the rotational angular velocity, and the angular velocity of the mobile robot 100 while the mobile robot 100 moves.
  • the rotational angular displacement and / or the rotational direction (the axial direction of the rotational movement), and the like.
  • the robot motion detection unit 120 may include a robot acceleration sensor 121 for sensing a linear movement of the mobile robot 100 and a robot gyro sensor 122 for sensing the rotational movement of the mobile robot 100.
  • the robot acceleration sensor 121 can measure x-axis acceleration, y-axis acceleration, and / or z-axis acceleration (three-axis linear acceleration) due to the linear movement of the mobile robot 100.
  • the robot acceleration sensor 121 can measure the linear movement acceleration of the mobile robot 100 based on acceleration (gravity acceleration) caused by the earth's gravity.
  • the robot acceleration sensor 121 can measure the vector sum of the gravitational acceleration and the linear movement acceleration and determine the linear movement acceleration from the measured value.
  • the robot acceleration sensor 121 can calculate the linear movement velocity of the mobile robot 100 from the linear movement acceleration of the mobile robot 100 and calculate the linear movement velocity of the mobile robot 100 from the preceding movement velocity of the mobile robot 100. [ The displacement can be calculated.
  • the robot acceleration sensor 121 can determine the posture of the mobile robot 100 based on the directional change of the gravitational acceleration.
  • the robot gyro sensor 122 can measure the angular velocity (rotational velocity) around the x axis, the angular velocity around the y axis and / or the angular velocity around the z axis (three axis angular velocity) due to the rotational movement of the mobile robot 100 .
  • the robot gyro sensor 122 can measure the rotational angular velocity of the mobile robot 100 using the Coriolis force due to rotation.
  • the robot gyro sensor 122 measures the force of the Coriolis and can determine the rotational angular velocity of the mobile robot 100 from the force of the coil.
  • the robot gyro sensor 122 can calculate the rotational movement displacement of the mobile robot 100 from the rotational angular velocity of the mobile robot 100.
  • the robot movement detection unit 120 detects the movement of the mobile robot 100 based on the linear movement acceleration, the linear movement velocity, the linear movement displacement, the linear movement direction, the rotational angular velocity, the rotational angular displacement, and / Direction and the like, and the information about the posture such as the inclination of the mobile robot 100, to the robot controller 170.
  • the robot motion detection unit 120 may include an encoder and / or a motor for sensing the rotation of the driving wheel 142 included in the mobile robot 100 together with the robot acceleration sensor 121 and / or the robot gyro sensor 122. [ Sensors, and the like.
  • the robot movement detection unit 120 may determine the linear movement speed, the linear movement displacement, the rotation movement speed and the rotation movement displacement of the mobile robot 100 based on the rotation of the driving wheel 142.
  • the robot obstacle sensing unit 130 can detect an obstacle that obstructs the movement of the mobile robot 100.
  • the obstacle may protrude from the floor of the traveling space to obstruct the movement of the mobile robot 100, or may denote all objects or structures that are embedded in the traveling space and obstruct the movement of the mobile robot 100.
  • the obstacle may include furniture such as a table, a chair, a wall dividing the house, a porch lower than the floor of the house, and the like.
  • the robot obstacle sensing unit 130 includes a sensing unit 131 that emits a sensing medium (for example, light, ultrasonic waves, radio waves, or the like) toward the front of the traveling direction of the mobile robot 100, (Not shown).
  • a sensing medium for example, light, ultrasonic waves, radio waves, or the like
  • the transmitting unit 131 may include a light emitting diode that emits light or an ultrasonic speaker that emits ultrasonic waves or an antenna that emits a radio wave.
  • the moving robot 100 may be moved forward That is, the direction of travel of the mobile robot).
  • the sensing medium transmitted from the transmitting unit 131 can be propagated toward the front of the mobile robot 100.
  • an obstacle is positioned in front of the mobile robot 100, light, ultrasonic waves or radio waves are reflected by the obstacle, and the reflected sensing medium can be propagated toward the mobile robot 100.
  • the receiving unit 132 may include a photodiode for receiving light, a microphone for receiving ultrasonic waves, an antenna for receiving radio waves, and the like.
  • the obstacle 132 may be an obstacle Or ultrasound waves or radio waves.
  • the robot obstacle sensing unit 130 may determine whether the obstacle exists in front of the mobile robot 100 according to whether the reception unit 132 receives the sensing medium. In addition, the robot obstacle sensing unit 130 may determine the position of an obstacle located in front of the mobile robot 100 based on the intensity of the sensing medium sensed by the receiver 132 and / (The distance between the mobile robot and the obstacle).
  • the robot obstacle sensing unit 130 can output to the robot control unit 170 information about obstacles such as whether the obstacle is detected in front of the mobile robot 100 and / or the position of the obstacle.
  • the driving unit 140 can move the mobile robot 100. Specifically, the driving unit 140 can linearly or rotationally move the mobile robot 100 according to the travel control signal of the robot controller 170.
  • the driving unit 140 may include a wheel driving motor 141, a driving wheel 142, and a caster wheel 143.
  • the driving wheels 142 may be provided on both left and right ends of the robot main body 101 and include a left driving wheel 142a provided at the left end of the robot main body 101 and a left driving wheel 142b provided at the right end of the robot main body 101 And may include a driving wheel 142b.
  • the wheel driving motor 141 generates a rotational force for rotating the driving wheel 142 and includes a left driving motor 141a for rotating the left driving wheel 142a and a right driving motor 142b for rotating the right driving wheel 142b 141b.
  • the left drive motor 141a and the right drive motor 141b receive the drive control signal from the robot controller 170 and can independently rotate the left drive wheel 142a and the right drive wheel 142b. As a result, the left driving wheel 142a and the right driving wheel 142b can rotate independently of each other.
  • the mobile robot 100 can travel in various patterns such as straight running, curved running, and in-situ rotation.
  • the mobile robot 100 can travel straight.
  • the mobile robot 100 can curve.
  • the left driving wheel 142a and the right driving wheel 142b The mobile robot 100 can rotate in the same direction.
  • the caster wheel 143 is installed on the bottom surface of the robot main body 101 and can support the mobile robot 100 so that the mobile robot 100 moves smoothly.
  • the caster wheel 143 can rotate around a rotation axis that is perpendicular to the bottom surface, as well as rotate about a rotation axis that is parallel to the bottom surface. Therefore, the direction of the rotation axis of the caster wheel 143 may change according to the moving direction of the mobile robot 100.
  • the drive unit 140 includes a motor drive circuit for supplying a drive current to the wheel drive motor 141 in accordance with the drive control signal of the robot control unit 170 and a motor drive circuit for driving the rotation drive force of the wheel drive motor 141 to the drive wheels 142 And a rotation sensing sensor for sensing the rotational displacement and / or the rotational angular velocity of the wheel driving motor 141 or the driving wheel 142.
  • the cleaning unit 150 includes a drum brush 152 for scattering dust at the bottom of the cleaning area, a brush driving motor 151 for rotating the drum brush 152, a dust suction fan 154 for sucking scattered dust, And a fan drive motor 153 for rotating the fan 154.
  • the drum brush 152 is provided at a dust suction port 103 formed on the bottom surface of the robot main body 101 (for example, a sub-body) and rotates around a rotation axis horizontally provided on the floor, (103) to the inside.
  • the brush driving motor 151 is provided adjacent to the drum brush 152 and rotates the drum brush 152 in accordance with a cleaning control signal of the robot controller 170.
  • the cleaning unit 150 includes a motor driving circuit for supplying a driving current to the brush driving motor 151 in accordance with a cleaning control signal of the robot control unit 170 and a motor driving circuit for supplying the rotational force of the brush driving motor 151 to the drum brush 152 And a power transmission device for transmitting the power.
  • the dust suction fan 154 is provided inside the robot main body 101 (for example, the main body) and is capable of sucking dust scattered by the drum brush 152.
  • the fan drive motor 153 is provided at a position adjacent to the dust suction fan 154 and can rotate the dust suction fan 154 according to the cleaning control signal of the robot controller 170.
  • the cleaning unit 150 includes a motor driving circuit for supplying a driving current to the fan driving motor 153 in accordance with the cleaning control signal of the robot control unit 170 and a motor driving circuit for transmitting the rotational force of the fan driving motor 153 to the dust suction fan 154 And a dust box for storing the dust sucked by the dust suction fan 154.
  • the robot communication unit 160 can exchange communication data with the user terminal 200.
  • the communication data may be transmitted by various media.
  • the communication data may be transmitted through optical or ultrasonic waves or radio waves.
  • the robot communication unit 160 can exchange communication data with the user terminal 200 using an Ultra Wide Band (UWB) communication method.
  • UWB Ultra Wide Band
  • the UWB communication method is a communication method in which the bandwidth of the wireless signal is 25% or more of the center frequency of the wireless signal or the communication method in which the bandwidth of the wireless signal is 500 MHz (mega-hertz) or more.
  • a wireless signal (hereinafter, referred to as 'UWB radio signal') according to the UWB communication method may be a short impulse signal having a pulse width of 1 nano-second or less.
  • the UWB radio signal can carry data (e.g., digital data of '0' and '1').
  • the robot communication unit 160 includes a robot transceiver 161 for transmitting and receiving an UWB radio signal and a robot communication processor 162 for generating an UWB radio signal to be transmitted and processing the received UWB radio signal .
  • the robot transceiver 161 may receive the UWB radio signal from the free space or transmit the UWB radio signal to the free space.
  • the robot transceiver 161 may include an antenna for transmitting an UWB radio signal from a free space or receiving an UWB radio signal in a free space, and an amplifier for amplifying the received UWB radio signal.
  • the robot communication processor 162 may generate an UWB radio signal according to the communication control signal of the robot controller 170. For example, the robot communication processor 162 may generate an UWB radio signal corresponding to the communication data to be transmitted.
  • the robot communication processor 162 may process the UWB radio signal received by the robot transceiver 161. [ For example, the robot communication processor 162 may extract the communication data from the UWB radio signal and output the extracted communication data to the robot controller 170.
  • the robot communication unit 160 may include one or more robot transceivers 161 and one or more robot communication processors 162.
  • the robot communication unit 160 may include three robot transceivers 161 and three robot communication processors 162.
  • the robot communication unit 160 may include a first robot transceiver 161a, a second robot transceiver 161b, and a third robot transceiver 161c.
  • the first robot transceiver 161a is located on the front left side of the robot body 101 and the second robot transceiver 161b is located on the front right side of the robot body 101 and the third robot transceiver 161c is located on the robot body 101 As shown in FIG.
  • the first robot transceiver 161a, the second robot transceiver 161b, and the third robot transceiver 161c may be spaced apart from each other by a predetermined distance a.
  • the robot communication unit 160 may further include a first robot communication processor 162a, a second robot communication processor 162b and a third robot communication processor 162c.
  • the first robot communication processor 162a, The robot communication processor 162b and the third robot communication processor 162c may be installed adjacent to the first robot transceiver 161a, the second robot transceiver 161b and the third robot transceiver 161c, respectively.
  • the first robot communication processor 162a processes the UWB radio signals transmitted and received via the first robot transceiver 161a and the second robot communication processor 162b processes the UWB signals transmitted and received through the second robot transceiver 161b And can process radio signals.
  • the third robot communication processor 162c can process the UWB radio signal transmitted / received through the third robot transceiver 161c.
  • the robot communication unit 160 may include three robot transceivers 161 and one robot communication processor 162. In the example of FIG. 6
  • the robot communication unit 160 may include a first robot transceiver 161a, a second robot transceiver 161b, and a third robot transceiver 161c.
  • the first robot transceiver 161a is located on the front left side of the robot body 101 and the second robot transceiver 161b is located on the front right side of the robot body 101 and the third robot transceiver 161c is located on the robot body 101 As shown in FIG.
  • the first robot transceiver 161a, the second robot transceiver 161b, and the third robot transceiver 161c may be spaced apart from each other by a predetermined distance a.
  • the robot communication unit 160 may further include a first robot communication processor 162a, and the first robot communication processor 162a may be installed in any position.
  • the first robot communication processor 162a transmits the UWB radio signals transmitted and received via the first robot transceiver 161a and the UWB radio signals transmitted and received via the second robot transceiver 161b and the third UWB wireless signal via the third robot transceiver 161c It is possible to sequentially process the UWB radio signals transmitted and received.
  • the robot communication unit 160 may include one robot transceiver 161 and one robot communication processor 162.
  • the robot communication unit 160 may include a first robot transceiver 161a and a first robot communication processor 162a.
  • the first robot transceiver 161a may be installed at the front center of the robot body 101,
  • the communication processor 162a may be installed adjacent to the first robot transceiver 161a.
  • the first robot communication processor 162a can process the UWB radio signals transmitted and received through the first robot transceiver 161a.
  • the robot communication unit 160 can transmit and receive communication data to and from the user terminal 200 using the UWB communication method and the robot communication unit 160 can calculate the distance between the user terminal 200 and the robot transceiver 161 And transmit and receive UWB radio signals to and from the user terminal 200 for measurement.
  • the robot communication unit 160 may transmit a sensing signal through the robot transceiver 161 and may receive a response signal from the user terminal 200.
  • the robot communication unit 160 may measure the response time interval between the transmission of the sensing signal and the reception of the response signal in response to the reception of the response signal of the user terminal 200.
  • the robot communication unit 160 can calculate the radio signal propagation time obtained by subtracting the detection signal processing time of the user terminal 200 from the response time interval and calculate the radio signal propagation time from the radio signal propagation time to the time between the user terminal 200 and the robot transceiver 161 Distance can be judged.
  • the robot communication unit 160 may output information on the distance between the user terminal 200 and the robot transceiver 161 to the robot controller 170.
  • the robot communication unit 160 when the robot communication unit 160 includes three robot transceivers 161, the robot communication unit 160 transmits a detection signal through the first robot transceiver 161a and transmits the detection signals to the first robot transceiver 161a A first distance between the first robot transceiver 161a and the user terminal 200 based on the difference between the transmission time of the sensing signal and the reception time of the response signal, Can be calculated. In the same manner, the robot communication unit 160 calculates a second distance between the second robot transceiver 161b and the user terminal 200 and a third distance between the third robot transceiver 161c and the user terminal 200 .
  • the robot communication unit 160 When the robot communication unit 160 includes one robot transceiver 161, the robot communication unit 160 performs a communication between the first robot transceiver 161a and the user terminal 200, which are measured during movement of the mobile robot 100, Can be output to the robot controller 170.
  • the robot controller 170 processes the user input of the robot control panel 110, the motion information of the robot motion sensing unit 120 and the obstacle information of the robot obstacle sensing unit 130 and outputs a driving control signal to the driving unit 140 Outputs a cleaning control signal to the cleaning unit 150, and outputs a communication control signal and / or communication data to the robot communication unit 160.
  • the robot control unit 170 may determine the target position T indicated by the user terminal 200 and control the driving unit 140 to move toward the target position T. [ More specifically, the robot controller 170 controls the robot communication unit 160 to measure the distance between the robot transceiver 161 and the user terminal 200, and calculates the distance between the robot transceiver 161 and the user terminal 200 The location of the user terminal 200 can be determined based on the location information.
  • the robot controller 170 may include a memory 172 and a microprocessor 171.
  • the memory 172 may store programs and data for controlling the operation of the mobile robot 100.
  • the memory 172 may include a program for processing motion information output from the robot motion sensing unit 120, a program for processing obstacle information output from the robot obstacle sensing unit 130, And a program for processing the communication data output from the communication device.
  • the memory 172 can temporarily store data generated during the processing operation of the microprocessor 171. [ For example, the memory 172 may store temporary data generated while the microprocessor 171 processes motion information or obstacle information or communication data.
  • the memory 172 includes a volatile memory such as an S-RAM (Static Random Access Memory) or a D-RAM (Dynamic Random Access Memory) for temporarily storing data, and a ROM Volatile memory such as a read only memory (EPROM), an erasable programmable read only memory (EPROM), an electrically erasable programmable read only memory (EEPROM), and a flash memory.
  • a volatile memory such as an S-RAM (Static Random Access Memory) or a D-RAM (Dynamic Random Access Memory) for temporarily storing data
  • ROM Volatile memory such as a read only memory (EPROM), an erasable programmable read only memory (EPROM), an electrically erasable programmable read only memory (EEPROM), and a flash memory.
  • the microprocessor 171 controls the robot 172 based on the motion information output from the robot motion sensing unit 120 and the obstacle information output from the robot obstacle sensing unit 130 according to the program stored in the memory 172, Data can be processed.
  • the microprocessor 171 may generate a control signal for controlling the driving unit 140, the cleaning unit 150, and the robot communication unit 160 according to the processing result of the motion information, the obstacle information, and the communication data.
  • the microprocessor 171 may generate a drive control signal to bypass or avoid the obstacle based on the obstacle information output from the robot obstacle sensing unit 130.
  • the microprocessor 171 may generate a map indicating a traveling space based on the motion information output from the robot motion sensing unit 120, and may store information about the map in the memory 172.
  • the microprocessor 171 may output a communication control signal for determining the position of the user terminal 200 and the direction of the user terminal 200.
  • the microprocessor 171 receives information on the position of the user terminal 200 and information on the direction of the user terminal 200 based on the result of communication with the user terminal 200 (time difference between the sensing signal and the response signal) Lt; / RTI >
  • the microprocessor 171 can also determine the target position T indicated by the user terminal 200 based on the information about the position of the user terminal 200 and the information about the direction of the user terminal 200 have.
  • the microprocessor 171 can generate the drive control signal so that the mobile robot 100 moves to the target position T.
  • the microprocessor 171 may include an arithmetic circuit for performing a logical operation and an arithmetic operation, a storage circuit for storing the arithmetic data, and a control circuit for controlling the arithmetic circuit and the storage circuit.
  • the mobile robot 100 determines the position of the user terminal 200 and the direction of the user terminal 200, and determines the direction of the user terminal 200 and the direction of the user terminal 200 It is possible to determine the target position T indicated by the user terminal 200 as a basis. In addition, the mobile robot 100 can move toward the target position T indicated by the user terminal 200.
  • FIG. 8 illustrates a configuration of a user terminal according to an embodiment.
  • FIG. 9 illustrates an appearance of a user terminal according to an embodiment.
  • 10 shows an example of a terminal communication unit included in a user terminal according to an embodiment.
  • FIG. 11 illustrates another example of a terminal communication unit included in a user terminal according to an embodiment.
  • a user terminal 200 includes a terminal body 201, a terminal body 201 accommodates components constituting the user terminal 200, Parts can be protected from external forces.
  • a terminal control panel 210 interacting with the user U in the terminal body 201 or the inside or outside of the terminal body 201, a terminal movement detection unit 220 detecting the movement of the user terminal 200, A terminal communication unit 230 for communicating with the mobile robot 100 and a terminal control unit 240 for controlling the operation of the user terminal 200.
  • the configuration of the user terminal 200 is not limited to that shown in FIG. 8, and other configurations may be added or a part thereof may be omitted as necessary.
  • the terminal control panel 210 may include a plurality of terminal input buttons 211 for receiving a user input from the user U,
  • the terminal input button 211 may include a plurality of buttons for receiving various user inputs related to the operation of the mobile robot 100.
  • the terminal input button 211 may be operated by a power button of the mobile robot 100, an operation button of the mobile robot 100, a return button of the mobile robot 100, T, < / RTI >
  • Each of the plurality of buttons included in the terminal input button 211 receives the user input and outputs the user control signal corresponding to the user input to the robot control unit 170.
  • Each of the plurality of buttons included in the terminal input button 211 may be implemented by various input means such as a push switch, a touch switch, a dial, a slide switch, and a toggle switch.
  • the terminal motion detection unit 220 can sense the motion and the posture of the user terminal 200 when the user U indicates the target position T using the user terminal 200.
  • the terminal motion detection unit 220 may detect the linear motion acceleration, the linear motion velocity, the linear motion displacement, the linear motion direction, the tilt, the rotational angular velocity, the rotational angular displacement, and / (Axial direction of rotational movement), and the like.
  • the terminal motion detection unit 220 may include a terminal acceleration sensor 221 for sensing a linear movement of the user terminal 200 and an terminal gyro sensor 222 for sensing the rotational movement of the user terminal 200.
  • the terminal acceleration sensor 221 can measure x-axis acceleration, y-axis acceleration, and / or z-axis acceleration (3-axis linear acceleration) due to the linear movement of the user terminal 200.
  • the terminal acceleration sensor 221 can measure the linear movement acceleration of the user terminal 200 based on the acceleration due to the earth's gravity (gravity acceleration).
  • the terminal acceleration sensor 221 can determine the posture of the user terminal 200 based on the directional change of the gravitational acceleration.
  • the terminal gyro sensor 222 can measure the angular velocity (rotational velocity) around the x axis, the angular velocity around the y axis, and / or the angular velocity around the z axis (three axis angular velocity) due to the rotational movement of the user terminal 200 .
  • the terminal gyro sensor 222 can calculate the rotational movement displacement of the user terminal 200 from the rotational angular velocity of the mobile robot 100.
  • the terminal movement detection unit 220 may detect the linear movement acceleration, the linear movement velocity, the linear movement displacement, the linear movement direction, the rotational angular velocity, the rotational angular displacement, and / Direction and the like of the user terminal 200 and the information about the posture such as inclination of the user terminal 200 to the terminal control unit 240.
  • the distance sensing unit 250 may sense the distance between the user terminal 200 and the target position T.
  • the distance sensing unit 250 includes a transmitter 251 for transmitting a sensing medium (for example, light, ultrasonic waves, radio waves, or the like) toward a direction indicated by the user terminal 200, (Not shown).
  • a sensing medium for example, light, ultrasonic waves, radio waves, or the like
  • the transmitting unit 251 may include a light emitting diode that emits light, an ultrasonic speaker that emits ultrasonic waves, an antenna that emits a radio wave, and the like, and may transmit light, ultrasonic waves, or radio waves in a direction indicated by the user terminal 200 can do.
  • the sensing medium emitted from the transmitting portion 251 When the sensing medium emitted from the transmitting portion 251 reaches the bottom surface, the sensing medium may be reflected from the bottom surface. Further, the position of the bottom surface reached by the detection medium may be the target position T.
  • the receiving unit 252 can receive light reflected from the bottom surface, ultrasonic waves, radio waves, or the like.
  • the distance detecting unit 250 detects a position (target position) of the user terminal 200 and the sensing medium reflected from the intensity of the sensing medium sensed by the receiver 252 and / Can be determined.
  • the distance detector 250 may output the information on the distance between the user terminal 200 and the target position T to the terminal controller 240.
  • the terminal communication unit 230 can exchange communication data with the mobile robot 100.
  • the communication data may be transmitted by various media.
  • the communication data may be transmitted through optical or ultrasonic waves or radio waves.
  • the terminal communication unit 230 can exchange communication data with the mobile robot 100 by using an Ultra Wide Band (UWB) communication method.
  • UWB Ultra Wide Band
  • the terminal communication unit 230 includes a terminal transceiver 231 for transmitting and receiving an UWB radio signal and a terminal communication processor 232 for generating an UWB radio signal to be transmitted and processing the received UWB radio signal .
  • the terminal transceiver 231 may receive an UWB radio signal from a free space or transmit an UWB radio signal in a free space, and may include an antenna and an amplifier.
  • the terminal communication processor 232 may generate an UWB radio signal according to the communication control signal of the terminal control unit 240 and may process the UWB radio signal received by the terminal transceiver 231.
  • the terminal communication unit 230 may include one or more terminal transceivers 231 and one or more terminal communication processors 232.
  • the terminal communication unit 230 may include two terminal transceivers 231 and two terminal communication processors 232.
  • the terminal communication unit 230 may include a first terminal transceiver 231a and a second terminal transceiver 231b.
  • the first terminal transceiver 231a and the second terminal transceiver 231b may be longitudinally disposed on the user terminal 200.
  • a virtual straight line is formed and the direction indicated by the virtual straight line may be the same as the direction indicated by the user terminal 200 .
  • the terminal communication unit 230 may further include a first terminal communication processor 232a and a second terminal communication processor 232.
  • the first terminal communication processor 232a and the second terminal communication processor 232 may respectively receive 1 terminal transceiver 231a and the second terminal transceiver 231b.
  • the first terminal communication processor 232a processes the UWB radio signals transmitted and received through the first terminal transceiver 231a and the second terminal communication processor 232 processes the UWB signals transmitted and received through the second terminal transceiver 231b And can process radio signals.
  • the terminal communication unit 230 may include two terminal transceivers 231 and one terminal communication processor 232.
  • the terminal communication unit 230 may include a first terminal transceiver 231a and a second terminal transceiver 231b.
  • the first terminal transceiver 231a and the second terminal transceiver 231b may be longitudinally disposed on the user terminal 200.
  • a virtual straight line is formed and the direction indicated by the virtual straight line may be the same as the direction indicated by the user terminal 200 .
  • the terminal communication unit 230 may further include a first terminal communication processor 232a, and the first terminal communication processor 232a may be installed at an arbitrary position.
  • the first terminal communication processor 232a may process the UWB radio signals transmitted and received through the first terminal transceiver 231a and the UWB radio signals transmitted and received through the second terminal transceiver 231b alternately.
  • the terminal communication unit 230 not only can exchange communication data with the mobile robot 100 using the UWB communication system but also the distance between the mobile robot 100 and the terminal transceiver 231 It is possible to exchange UWB radio signals with the mobile robot 100 for measurement.
  • the user terminal 200 may receive the detection signal of the mobile robot 100 through the terminal transceiver 231, and may transmit a response signal to the mobile robot 100 in response to the reception of the detection signal.
  • the user terminal 200 receives the detection signal of the mobile robot 100 through the first terminal transceiver 231a and then transmits a response signal to the mobile robot 100 through the first terminal transceiver 231a .
  • the user terminal 200 may receive the detection signal of the mobile robot 100 through the second terminal transceiver 231b and then transmit a response signal to the mobile robot 100 through the second terminal transceiver 231b have.
  • the mobile robot 100 calculates the distance between the first terminal transceiver 231a and the robot transceiver 161 and the distance between the second terminal transceiver 231b and the robot transceiver 231b based on the time difference between the transmission of the sensing signal and the reception of the response signal 161 can be determined.
  • the mobile robot 100 can determine the position of the first terminal transceiver 231a based on the distances between the first terminal transceiver 231a and the robot transceivers 161a, 161b and 161c, and the second terminal transceiver
  • the position of the second terminal transceiver 231b can be determined based on distances between the robot transceivers 161a, 161b, 161c and the robot transceivers 161a, 161b, 161c.
  • the mobile robot 100 can determine the direction of the user terminal 200 based on the position of the first terminal transceiver 231a and the position of the second terminal transceiver 231b.
  • the terminal control unit 240 processes a user input of the terminal control panel 210 and outputs a communication control signal and / or communication data to the terminal communication unit 230.
  • the terminal control unit 240 may transmit the target position movement command to the mobile robot 100 through the terminal communication unit 230 in response to the reception of the target position movement command by the user.
  • the terminal control unit 240 may control the terminal communication unit 230 so that the terminal communication unit 230 transmits a response signal in response to the detection signal of the mobile robot 100.
  • the terminal control unit 240 may include a microcontroller 241.
  • the microcontroller 241 may process the user input according to the program stored therein and may generate the communication control signal and / or communication data corresponding to the user input. For example, in response to the user's target position movement command, the microcontroller 241 outputs a communication control signal for allowing the mobile robot 100 to determine the position of the user terminal 200 and the direction of the user terminal 200 can do.
  • the microcontroller 241 may include an operation circuit for performing a logical operation and an arithmetic operation, a memory circuit for storing the computed data, and a control circuit for controlling the operation circuit and the memory circuit.
  • the user terminal 200 receives the user input and controls the mobile robot 100 so that the mobile robot 100 can determine the position of the user terminal 200 and the direction of the user terminal 200 ). ≪ / RTI >
  • FIG. 12 illustrates an example in which a mobile robot according to an embodiment determines a target position.
  • the user U can designate the target position T using the user terminal 200. [ 12, the user U grasps the user terminal 200 to indicate the target position T, and presses the move button provided on the terminal control panel 210, for example, . When the move button of the terminal control panel 210 is pressed, a target position move command is inputted and the user terminal 200 can transmit a target position move command to the mobile robot 100.
  • the mobile robot 100 may determine the position P1 of the user terminal 200. [ Specifically, the mobile robot 100 can determine the relative position of the user terminal 200 from the mobile robot 100.
  • the mobile robot 100 can set a relative coordinate system as shown in FIG.
  • the relative coordinate system of the mobile robot 100 is such that the position P0 of the mobile robot 100 is the origin (0,0,0), the forward direction F of the mobile robot 100 is the + y axis direction, The right side direction of the mobile robot 100 may be the + x axis direction, and the upper side of the mobile robot 100 may be the + z axis direction.
  • the mobile robot 100 can determine coordinates (x1, y1, z1) of the user terminal 200 in the relative coordinate system of the mobile robot 100. [ For example, the mobile robot 100 calculates the coordinates (x1, x2) of the user terminal 200 based on the distance between the robot transceivers 161a, 161b, and 161c included in the mobile robot 100 and the user terminal 200, y1, z1).
  • the mobile robot 100 determines the direction D1 of the user terminal 200 and the distance L1 between the target position T and the user terminal 200 .
  • the mobile robot 100 can determine the first angle? 1 between the pointing direction D1 and the perpendicular direction G1 of the user terminal 200 to determine the pointing direction D1 of the user terminal 200 have.
  • the user terminal 200 can determine the first angle? 1 based on the output of the terminal motion detection unit 220, and the information about the first angle? 1 to the mobile robot 100 Lt; / RTI >
  • the mobile robot 100 also includes a direction D2 in which the direction D1 of the user terminal 200 is projected on the floor (xy plane) (hereinafter referred to as a 'pointing direction on the floor') and a mobile robot The second angle? 2 between the forward directions F of the first and second light sources 100a and 100b.
  • the mobile robot 100 transmits the coordinates (x1, y1, z1) of the first terminal transceiver 231a of the user terminal 200 and the coordinates (x2, y2, z2) of the second terminal transceiver 231b And determine the second angle? 2 based on the coordinates (x1, y1, z1) of the first terminal transceiver 231a and the coordinates (x2, y2, z2) of the second terminal transceiver 231b .
  • the user terminal 200 may determine the distance L1 between the target position T and the user terminal 200 based on the output of the distance sensing unit 250 and may determine the distance L1 between the target position T and the user terminal 200. [ To the mobile robot 100, information on the distance L1 between the mobile robot 100 and the mobile robot 100. [
  • the mobile robot 100 transmits the coordinates (x1, y1, z1) of the user terminal 200, the instruction direction (first angle and second angle) of the user terminal 200, the target position T,
  • the coordinates (xT, yT, 0) of the target position T can be determined from the distance L1 between them.
  • the x-axis coordinate (xT) and the y-axis coordinate (yT) of the target position T can be calculated by Equations (1) and (2), respectively.
  • the mobile robot 100 can determine the target position T based on the position P1 of the user terminal 200 and the instruction directions D1 and D2 of the user terminal 200 .
  • FIG. 13 illustrates a method of determining a target position of a mobile robot according to an embodiment.
  • FIG. 14 illustrates an example in which a mobile robot according to an embodiment determines a location of a user terminal.
  • FIG. 15 shows another example in which a mobile robot according to an embodiment determines the location of a user terminal.
  • 16 and 17 illustrate an example in which a mobile robot according to an embodiment determines a pointing direction of a user terminal.
  • the mobile robot 100 acquires the position P1 of the user terminal 200 (1010).
  • the mobile robot 100 can determine the position P1 of the user terminal 200 by using the communication with the user terminal 200.
  • the mobile robot 100 can transmit and receive UWB radio signals to and from the user terminal 200 through the robot transceiver 161.
  • the mobile robot 100 can communicate with the user terminal 200 based on the propagation time of the UWB radio signal, Can be determined.
  • the mobile robot 100 may determine the position P1 of the user terminal 200 based on the distance between the robot transceiver 161 and the user terminal 200.
  • the mobile robot 100 may include a first robot transceiver 161a, a second robot transceiver 161b, and a third robot transceiver 161c.
  • the first robot transceiver 161a, The first robot transceiver 161a, the second robot transceiver 161b, and the third robot transceiver 161c may be spaced apart from each other by a predetermined distance a.
  • the user terminal 200 may include a first terminal transceiver 231a, and the location P1 of the first terminal transceiver 231a may be assumed to be the location of the user terminal 200.
  • the mobile robot 100 transmits a sensing signal through the first robot transceiver 161a and the user terminal 200 can receive the sensing signal through the first terminal transceiver 231a.
  • the user terminal 200 can transmit a response signal through the first terminal transceiver 231a in response to the sensing signal and the mobile robot 100 can receive the response signal through the first robot transceiver 161a.
  • the mobile robot 100 can measure the response time interval between the transmission of the detection signal and the reception of the response signal.
  • the mobile robot 100 can calculate a radio signal propagation time obtained by subtracting the detection signal processing time of the user terminal 200 from the response time interval and calculate the radio signal propagation time from the radio signal propagation time to the first terminal transceiver of the user terminal 200 231a and the first robot transceiver 161a can be determined.
  • the mobile robot 100 transmits a detection signal through the second robot transceiver 161b and the user terminal 200 may transmit a response signal through the first terminal transceiver 231a in response to the reception of the detection signal.
  • the mobile robot 100 can receive a response signal through the second robot transceiver 161b.
  • the mobile robot 100 can measure the response time interval between the transmission of the sensing signal and the reception of the response signal and the first and second terminal transceivers 231a and 231b of the user terminal 200, And the second distance d2 between the first and second end portions 161b.
  • the mobile robot 100 transmits the detection signal through the third robot transceiver 161c and the user terminal 200 can transmit the response signal through the first terminal transceiver 231a in response to the reception of the detection signal.
  • the mobile robot 100 can receive a response signal through the third robot transceiver 161c.
  • the mobile robot 100 can measure the response time interval between the transmission of the sensing signal and the reception of the response signal and the first and second robot transceivers 231a and 231b of the user terminal 200, And the third distance d3 between the first and second end portions 161c.
  • the mobile robot 100 is configured to receive the first distance d1, the second distance d2, the third distance d3, the coordinates of the first terminal transceiver 231a, the coordinates of the second terminal transceiver 231b,
  • the coordinates (x1, y1, z1) (precisely, the coordinates of the first terminal transceiver) of the user terminal 200 can be determined based on the coordinates of the transceiver 231c.
  • the coordinates of the first terminal transceiver 231a are (0, , 0)
  • the coordinates of the second terminal transceiver 231b are ( , , 0)
  • the coordinates of the third terminal transceiver 231c are ( , , 0).
  • the coordinates (x1, y1, z1) of the user terminal 200 and the coordinates of the first terminal transceiver 231a and the first distance d1 have the relationship of (3).
  • x1 is the x axis coordinate of the user terminal
  • y1 is the y axis coordinate of the user terminal
  • z1 is the x axis coordinate of the user terminal
  • a is the distance between the first terminal transceiver and the second terminal transceiver and the third terminal transceiver
  • d1 represents the first distance.
  • the coordinates (x1, y1, z1) of the user terminal 200 and the coordinates of the second terminal transceiver 231b and the second distance d2 have the relationship of (4).
  • x1 is the x-axis coordinate of the user terminal
  • y1 is the y-axis coordinate of the user terminal
  • z1 is the x-axis coordinate of the user terminal
  • a is the distance between the terminal transceivers
  • d2 is the second distance
  • the coordinates (x1, y1, z1) of the user terminal 200, the coordinates of the third terminal transceiver 231c, and the third distance d3 have the relationship of (Equation 5).
  • x1 is the x-axis coordinate of the user terminal
  • y1 is the y-axis coordinate of the user terminal
  • z1 is the x-axis coordinate of the user terminal
  • a is the distance between the terminal transceivers
  • d3 is the third distance
  • the mobile robot 100 can calculate the approximate solutions x1, y1 and z1 of Equations 3, 4 and 5 using the Gauss-Newton method have.
  • the mobile robot 100 may include a first robot transceiver 161a.
  • the mobile robot 100 may rotate in place to determine coordinates (x1, y1, z1) of the user terminal 200 and may determine the coordinates of the first robot transceiver 161a and the coordinates of the user terminal 200 And the first robot transceiver 161a can be determined.
  • the mobile robot 100 calculates the first distance between the user terminal 200 and the first robot transceiver 161a based on the response time interval (d1).
  • the mobile robot 100 calculates the second distance between the user terminal 200 and the first robot transceiver 161a based on the response time interval, (d2).
  • the mobile robot 100 rotates 240 degrees from its home position, the mobile robot 100 moves the first robot transceiver 161a between the user terminal 200 and the first robot transceiver 161a based on the response time interval. 3 distance d3.
  • the mobile robot 100 calculates the coordinates (x1, y1, z1) of the user terminal 200 (exactly, x1, y1, z1) using the triangulation method based on the first distance d1, the second distance d2 and the third distance d3 The coordinates of the first terminal transceiver).
  • the mobile robot 100 can calculate the approximate solutions (x1, y1, z1) of Equations (3), (4) and (5) using the Gauss-Newton method.
  • the point at which the mobile robot 100 determines the distance between the user terminal 200 and the first robot transceiver 161a to determine the coordinates (x1, y1, z1) of the user terminal 200 is not limited to three Do not.
  • the mobile robot 100 can determine the distance between the user terminal 200 and the first robot transceiver 161a at dozens of points while rotating in place, and the coordinates of the user terminal 200, It is possible to obtain dozens of equations between the coordinates of one robot transceiver 161a.
  • the mobile robot 100 can calculate solutions of dozens of simultaneous equations using the Gauss-Newton method.
  • the mobile robot 100 may include a first robot transceiver 161a and may move to determine coordinates (x1, y1, z1) of the user terminal 200.
  • the mobile robot 100 can determine the coordinates of the first robot transceiver 161a and the distance between the user terminal 200 and the first robot transceiver 161a while the mobile robot 100 moves, It is possible to obtain dozens of equations between the coordinates of one robot transceiver 161a.
  • the mobile robot 100 can calculate solutions of dozens of simultaneous equations using the Gauss-Newton method.
  • the coordinates of the mobile robot 100 and the direction (forward direction, output value of the robot gyro sensor) of the mobile robot 100 may change during the movement of the mobile robot 100.
  • the coordinates (Xr, Yr, 0) of the first robot transceiver 161a may also change due to the change of the coordinates and the forward direction of the mobile robot 100.
  • the distance d between the first robot transceiver 161a and the user terminal 200 may also change.
  • the mobile robot 100 receives the coordinates (Xr1, Yr2, 0), (Xr2, Yr2,0), (Xr3, Yr3, 0) ... of the first robot transceiver 161a and the coordinates (D1, d2, d3, ...) between the user terminal 200 and the mobile terminal 161a.
  • the mobile robot 100 also receives the coordinates (Xr1, Yr2, 0), (Xr2, Yr2,0), (Xr3, Yr3, 0) ... of the first robot transceiver 161a and the first robot transceiver
  • the distances d1, d2, d3, ... between the user terminals 200a and 161a and the user terminal 200 have the relationship of Equation (6).
  • x1 is the x-axis coordinate of the user terminal
  • y1 is the y-axis coordinate of the user terminal
  • Xr1 is the x-axis coordinate of the first robotic transceiver at the first position
  • Yr1 is the y-coordinate of the first robot transceiver at the first position
  • Axis coordinate d1 is the distance between the first robot transceiver and the user terminal at the first position
  • Xr2 is the x-axis coordinate of the first robot transceiver at the second position
  • Yr2 is the y coordinate of the first robot transceiver at the second position
  • Axis coordinates is the distance between the first robot transceiver and the user terminal at the second position
  • Xr3 is the x-axis coordinate of the first robot transceiver at the third position
  • Yr3 is the y coordinate of the first robot transceiver at the third position
  • Axis coordinate d3 represents the distance between the first robot transcei
  • the mobile robot 100 can calculate the approximate solution (x1, y1, 0) of [Equation 6] using the Gauss-Newton method.
  • Equation (6) three simultaneous equations are described, but the present invention is not limited thereto, and several to hundreds of simultaneous equations can be obtained.
  • the z-axis coordinate z1 of the user terminal 200 corresponds to the coordinates (Xr1, Yr2, 0), (Xr2, Yr2, 0), (Xr3, Yr3, 0) ... of the first robot transceiver 161a.
  • the distance between the first robot transceiver 161a and the user terminal 200 or the distance d1 from the target position detected by the distance sensing unit 250 of the user terminal 200 (L1) between the user terminal (T) and the user terminal (200).
  • the mobile robot 100 acquires a first angle? 1 between the pointing direction D1 and the perpendicular direction G1 of the user terminal 200 (1020).
  • the user terminal 200 can determine the posture of the user terminal 200 using the terminal acceleration sensor 221.
  • the terminal acceleration sensor 221 can determine the linear movement acceleration of the user terminal 200 and / or the posture of the user terminal 200 based on the acceleration due to the earth's gravity (gravity acceleration). For example, the terminal acceleration sensor 221 can determine the posture of the user terminal 200 based on the directional change of the gravitational acceleration.
  • the user terminal 200 detects the inclination of the user terminal 200 from the output of the terminal acceleration sensor 221, that is, the first angle? 1 between the instruction direction D1 and the vertical direction G1 of the user terminal 200, Can be determined. Also, the user terminal 200 can transmit information on the first angle? 1 to the mobile robot 100 through the terminal communication unit 230.
  • the mobile robot 100 can receive the information on the first angle? 1 through the robot communication unit 160 and can obtain the first angle? 1 from the information on the first angle? 1.
  • the mobile robot 100 acquires a second angle? 2 between the pointing direction D2 on the floor and the forward direction F of the mobile robot 100 (1030).
  • the mobile robot 100 may determine an instruction line indicating a direction indicated by the user terminal 200.
  • the mobile robot 100 may determine the positions of the first terminal transceiver 231a and the second terminal transceiver 231b located on the instruction line of the user terminal 200 in order to determine the instruction line.
  • the position P1 of the first terminal transceiver 231a is calculated to determine the coordinates (x1, y1, z1) of the user terminal 200 at operation 1010. [ Therefore, the position of the first terminal transceiver 231a may be the same as the coordinates (x1, y1, z1) of the user terminal 200. [
  • the mobile robot 100 can determine the position P2 of the second terminal transceiver 231b through communication with the user terminal 200.
  • the mobile robot 100 transmits a sensing signal through the robot transceiver 161, and the user terminal 200 can receive a sensing signal through the second terminal transceiver 231b.
  • the user terminal 200 may transmit a response signal through the second terminal transceiver 231b in response to the detection signal and the mobile robot 100 may receive a response signal through the robot transceiver 161.
  • the mobile robot 100 can measure the response time interval between the transmission of the sensing signal and the reception of the response signal. As shown in FIG. 16, the fourth distance d4, the fifth distance d5, (d6).
  • the mobile robot 100 calculates the coordinates (x2, y2, z2) of the second terminal transceiver 231b using the triangulation method based on the fourth distance d4, the fifth distance d5 and the sixth distance d6, Can be determined.
  • the mobile robot 100 moves the bottom surface xy (x1, y1) of the two-terminal transceiver 231 based on the xy coordinates (x1, y1) of the first terminal transceiver 231a and the xy coordinates
  • the second angle between the pointing direction D2 on the floor and the forward direction F of the mobile robot 100 can be calculated based on the slope of the instruction line, (? 2) can be calculated.
  • the mobile robot 100 can calculate the second angle? 2 using Equation (7).
  • X2 is the second angle
  • x1 is the x axis coordinate of the first terminal transceiver
  • y1 is the y axis coordinate of the first terminal transceiver
  • x2 is the x axis coordinate of the second terminal transceiver
  • y2 is y Indicates axis coordinates.
  • the mobile robot 100 determines a target position T indicated by the user terminal 200 (1040).
  • the mobile robot 100 calculates a first angle? 1 between the coordinates (x1, y1, z1) of the user terminal 200 and the instruction direction D1 and the vertical direction G1 of the user terminal 200,
  • the coordinates (xT, yT, 0) of the target position T can be determined based on the second angle? 2 between the pointing direction D2 on the plane and the forward direction F of the mobile robot 100.
  • the x-axis coordinate (xT) and the y-axis coordinate (yT) of the target position T can be calculated by the above-described equations (1) and (2), respectively.
  • the mobile robot 100 After determining the target position T, the mobile robot 100 can move toward the target position T.
  • the mobile robot 100 determines the position P1 of the user terminal 200 and the instruction directions D1 and D2 of the user terminal 200 through communication with the user terminal 200 And can determine the target position T based on the position P1 of the user terminal 200 and the indicating direction D1 of the user terminal 200.
  • the mobile robot 100 may include three or one robot transceivers 161.
  • the mobile robot 100 moves the first robot transceiver 161a and the second robot transceiver 161c, It is possible to determine the position P1 of the user terminal 200 based on the distance between the robot transceiver 161b and the third robot transceiver 161c and the user terminal 200, respectively.
  • the mobile robot 100 may move based on the distance between the first robot transceiver 161a and the user terminal 200 during in- The position P1 of the user terminal 200 can be determined.
  • the user terminal 200 may include a first terminal transceiver 231a and a second terminal transceiver 231b capable of exchanging data with the mobile robot 100.
  • the mobile robot 100 may include a first terminal transceiver 231a and a second terminal transceiver 231b,
  • the direction directions D1 and D2 of the user terminal 200 can be determined based on the position P1 of the transceiver 231a and the position P2 of the second terminal transceiver 231b.
  • FIG. 18 shows a method of moving a mobile robot to a target position according to an embodiment.
  • the mobile robot 100 receives the mobile robot call signal from the user terminal 200 (1210).
  • the user U can call the mobile robot 100 using the user terminal 200 before designating the target position T.
  • the mobile robot 100 For example, when an obstacle is located between the mobile robot 100 and the user terminal 200, it is difficult for the mobile robot 100 to determine an accurate target position T. [
  • the user U calls the mobile robot 100 using the user terminal 200 so that the mobile robot 100 can move to a position close to the user terminal 200 before the target position T is specified And the mobile robot 100 can receive the paging signal.
  • the mobile robot 100 determines the position of the user terminal 200 (1220).
  • the mobile robot 100 can determine the position of the user terminal 200 by using the communication with the user terminal 200.
  • the mobile robot 100 may exchange UWB radio signals with the user terminal 200 through the robot transceiver 161 and may transmit the UWB signals to the robot transceiver 161 and the user terminal 200 based on the propagation time of the UWB radio signals.
  • the distance between the terminals 200 can be determined.
  • the mobile robot 100 may determine the position of the user terminal 200 based on the distance between the robot transceiver 161 and the user terminal 200.
  • the mobile robot 100 moves toward the user terminal 200 (1230).
  • the mobile robot 100 may control the driving unit 140 to move toward the position of the user terminal 200 or the direction of the user terminal 200.
  • an obstacle e.g., wall or furniture
  • the mobile robot 100 can avoid the obstacle or travel along the outer line of the obstacle.
  • the mobile robot 100 can generate a route from the mobile robot 100 to the location of the user terminal 200 based on the map indicating the traveling space and move toward the user terminal 200 along the generated route.
  • the mobile robot 100 periodically updates the position of the user terminal 200 while moving toward the user terminal 200, and moves toward the position of the updated user terminal 200.
  • the mobile robot 100 can determine the distances between the mobile robot 100 and the user terminal 200 while moving toward the user terminal 200, and the mobile robot 100 can determine the distances between the mobile terminal 100 and the user terminal 200
  • the number of distance data between the mobile robot 100 and the user terminal 200 increases. Also, as the number of distance data between the mobile robot 100 and the user terminal 200 increases, the mobile robot 100 can determine the position of the user terminal 200 more accurately.
  • the mobile robot 100 obtains at least a few tens of data such as the distance between the robot transceiver, the user terminal 200 and the mobile robot 100 mounted on the robot while the position value of the mobile robot 100 changes while moving, (I.e., the coordinates of the user terminal 200) by using the Gauss-Newton method after expressing it by the simultaneous equations of the circles.
  • the mobile robot 100 receives a target position designation signal from the user terminal 200 (1240).
  • the user U inputs a user input for designating the target position T using the user terminal 200 when the position of the mobile robot 100 is confirmed or when the mobile robot 100 approaches the user terminal 200 can do.
  • the user terminal 200 may transmit a target position designation signal to the mobile robot 100 in response to a user input for designating the target position T.
  • the mobile robot 100 determines the position P1 of the user terminal 200 (1250).
  • the mobile robot 100 can determine the position P1 of the user terminal 200 by using the communication with the user terminal 200.
  • the method of determining the position P1 of the user terminal 200 may be the same as the operation 1010 shown in Fig.
  • the mobile robot 100 determines the direction D1 of the user terminal 200 (1260).
  • the mobile robot 100 has a first angle? 1 between the instruction direction D1 and the vertical direction G1 of the user terminal 200 to determine the instruction direction D1 of the user terminal 200, 2 between the pointing direction D2 on the mobile robot 100 and the forward direction F of the mobile robot 100 can be determined.
  • the method of determining the first angle? 1 may be the same as the operation 1020 shown in FIG. 13, and the method of determining the second angle? 2 may be the same as the operation 1030 shown in FIG.
  • the mobile robot 100 determines a target position T (1270).
  • the mobile robot 100 calculates the coordinates (xT, yT) of the target position T on the basis of the coordinates (x1, y1, z1) of the user terminal 200, the first angle? 1 and the second angle? , 0).
  • the method of determining the target position T may be the same as the operation 1040 shown in Fig.
  • the mobile robot 100 moves toward the target position T (1280).
  • the mobile robot 100 can generate a path up to the target position T and control the driving unit 140 to move along the generated path.
  • the user U can call the mobile robot 100 to designate the target position T so that the mobile robot 100 can more accurately determine the target position T.
  • the mobile robot 100 moves toward the user terminal 200, and when the target position designation signal is received, the mobile robot 100 can move toward the target position T.
  • FIG. 19 shows a mobile robot system according to an embodiment.
  • the mobile robot system 2 includes a mobile robot 100 running on the floor, a user terminal 200 controlling the traveling of the mobile robot 100, a charging device 200 for charging the mobile robot 100, A station 300 and a first beacon 400 and a second beacon 500 that communicate with the mobile robot 100 and the user terminal 200.
  • the mobile robot 100 can travel on the floor of the traveling space.
  • the mobile robot 100 may be the same as the mobile robot 100 described with reference to FIG.
  • the user terminal 200 may receive the user input of the user U and may transmit the user control signal corresponding to the user input to the mobile robot 100.
  • the user terminal 200 may be the same as the user terminal 200 described in conjunction with FIG.
  • the charging station 300 can charge the battery supplying power to the components of the mobile robot 100 and can empty the dust bin storing the dust.
  • the charging station 300 can be installed at any position in the traveling space.
  • the charging station 300 can exchange data with the mobile robot 100 and the user terminal 200.
  • the charging station 300 can exchange ultra-wideband radio signals with the mobile robot 100 to determine the position of the mobile robot 100.
  • the position of the mobile terminal 100 It is possible to transmit and receive ultra-wideband radio signals to and from the base station 200.
  • the first beacon 400 and the second beacon 500 can exchange data with the mobile robot 100 and the user terminal 200, respectively.
  • the first beacon 400 and the second beacon 500 can exchange ultra-wideband radio signals with the mobile robot 100 to determine the position of the mobile robot 100
  • the user terminal 200 can exchange the UWB radio signal with the user terminal 200 to determine the location of the UWB radio signal.
  • the mobile robot 100 may communicate with the charging station 300, the first beacon 400 and the second beacon 500 to determine the position of the mobile robot 100.
  • the user terminal 200 also communicates with the charging station 300, the first beacon 400 and the second beacon 500 to determine the location of the user terminal 200 and the direction of the user terminal 200 .
  • the mobile robot 100 can determine the target position T indicated by the user terminal 200 based on the position of the mobile robot 100, the position of the user terminal 200, and the direction of the user terminal 200 have.
  • FIG. 20 illustrates a method of determining a target position by a mobile robot according to an embodiment.
  • FIG. 21 illustrates an example of determining the location of a user terminal according to an embodiment.
  • FIG. 22 illustrates an example of determining a direction of a user terminal according to an embodiment.
  • a target position determination method 1100 of the mobile robot 100 will be described with reference to FIGS. 20, 21, and 22.
  • FIG. 1 A target position determination method 1100 of the mobile robot 100 will be described with reference to FIGS. 20, 21, and 22.
  • the mobile robot 100 acquires the position P1 of the user terminal 200 (1110).
  • the position P1 of the user terminal 200 may indicate the coordinates in the coordinate system having the reference point (e.g., the position of the charging station) as the origin.
  • the coordinate system may be an absolute coordinate system that is not changed by the position or movement of the mobile robot 100.
  • the user terminal 200 may communicate with the charging station 300, the first beacon 400 and the second beacon 500 via the first terminal transceiver 231a and may communicate with the charging station 300,
  • the position P1 of the user terminal 200 can be determined using the communication with the beacon 400 and the second beacon 500, respectively.
  • the user terminal 200 can transmit and receive UWB radio signals to and from the charging station 300, the first beacon 400 and the second beacon 500 through the first terminal transceiver 231a,
  • the distance between the charging station 300, the first beacon 400 and the second beacon 500 and the first terminal transceiver 231a may be determined based on the propagation time of the first terminal transceiver 231a.
  • the user terminal 200 may also determine the location of the user terminal 200 based on the distance between the charging station 300, the first beacon 400 and the second beacon 500 and the first terminal transceiver 231a P1).
  • the user terminal 200 transmits a sensing signal through the first terminal transceiver 231a, and the charging station 300 may transmit a response signal in response to a sensing signal.
  • the user terminal 200 receives the response signal of the charging station 300 through the first terminal transceiver 231a and transmits the response signal to the first terminal transceiver 231a (D1) between the charging station 300 and the charging station 300.
  • the user terminal 200 determines a second distance d2 between the first terminal transceiver 231a and the first beacon 400 through the communication of the first beacon 400,
  • the third distance d3 between the first terminal transceiver 231a and the second beacon 500 can be determined through communication of the first terminal transceiver 231a and the second beacon terminal 500.
  • the user terminal 200 can receive the user terminal 200 from the distances d1, d2 and d3 between the charging station 300, the first beacon 400 and the second beacon 500 and the first terminal transceiver 231a,
  • the mobile robot 100 can determine the coordinates x1, y1 and z1 of the user terminal 200 (precisely, the coordinates of the first terminal transceiver) of the user terminal 200 and transmit information on the position P1 of the user terminal 200 to the mobile robot 100.
  • the mobile robot 100 may determine the position P1 of the user terminal 200 from the information about the position P1 of the user terminal 200.
  • the user terminal 200 may also receive information about distances d1, d2 and d3 between the charging station 300, the first beacon 400 and the second beacon 500 and the first terminal transceiver 231a, To the mobile robot (100).
  • the mobile robot 100 transmits data to the user terminal 300 based on the distances d1, d2 and d3 between the charging station 300, the first beacon 400 and the second beacon 500 and the first terminal transceiver 231a, 200 can be determined.
  • the mobile robot 100 acquires the instruction direction D1 of the user terminal 200 (1120).
  • the instruction direction D1 of the user terminal 200 corresponds to the first angle? 1 between the instruction direction D1 and the vertical direction G1 of the user terminal 200, the direction D2 on the floor surface and + y And the second angle? 2 between the axial directions.
  • the user terminal 200 may determine the posture of the user terminal 200 using the terminal acceleration sensor 221 in order to determine the first angle? 1.
  • the terminal acceleration sensor 221 can determine the posture of the user terminal 200 based on the directional change of the gravitational acceleration.
  • the user terminal 200 detects the inclination of the user terminal 200 from the output of the terminal acceleration sensor 221, that is, the first angle? 1 between the instruction direction D1 and the vertical direction G1 of the user terminal 200, Can be determined. Also, the user terminal 200 can transmit information on the first angle? 1 to the mobile robot 100 through the terminal communication unit 230.
  • the user terminal 200 may determine the position P2 of the second terminal transceiver 231b as shown in FIG. 22 to determine the second angle? 2.
  • the position P2 of the second terminal transceiver 231b may indicate the coordinates in the coordinate system with the reference point (e.g., the position of the charging station) as the origin.
  • the user terminal 200 may communicate with the charging station 300, the first beacon 400 and the second beacon 500 via the second terminal transceiver 231b and may communicate with the charging station 300, It is possible to determine the distance between each of the beacon 400 and the second beacon 500 and the second terminal transceiver 231b
  • the user terminal 200 may receive the coordinates of the second terminal transceiver 231b based on the distance between the charging station 300, the first beacon 400 and the second beacon 500 and the second terminal transceiver 231b (x2, y2, z2) based on the coordinates (x1, y1, z1) of the first terminal transceiver 231a and the coordinates (x2, y2, z2) of the second terminal transceiver 231b,
  • the angle? 2 can be determined.
  • the user terminal 200 can transmit information on the second angle? 2 to the mobile robot 100 through the terminal communication unit 230 and the mobile robot 100 can transmit information on the first angle? 1 1 indicating the indicating direction D1 of the user terminal 200 and the second angle? 2 can be determined from the information about the second angle? 2 and the information about the second angle? 2.
  • the user terminal 200 transmits information on the distance between the charging station 300, the first beacon 400 and the second beacon 500 and the second terminal transceiver 231b to the mobile robot 100 Lt; / RTI >
  • the mobile robot 100 moves the coordinates of the second terminal transceiver 231b based on the distance between the charging station 300, the first beacon 400 and the second beacon 500 and the second terminal transceiver 231b (x2, y2, z2) based on the coordinates (x1, y1, z1) of the first terminal transceiver 231a and the coordinates (x2, y2, z2) of the second terminal transceiver 231b,
  • the angle? 2 can be determined.
  • the mobile robot 100 determines a target position T indicated by the user terminal 200 (1130).
  • the mobile robot 100 calculates the coordinates (xT, yT) of the target position T on the basis of the coordinates (x1, y1, z1) of the user terminal 200, the first angle? 1 and the second angle? , 0).
  • the x-axis coordinate (xT) and the y-axis coordinate (yT) of the target position T can be calculated by the above-described equations (1) and (2), respectively.
  • the mobile robot 100 acquires the position P0 of the mobile robot 100 (1140).
  • the position P0 of the mobile robot 100 may indicate coordinates in a coordinate system having a reference point (for example, the position of the charging station) as the origin.
  • the mobile robot 100 can communicate with the charging station 300, the first beacon 400 and the second beacon 500 through the robot transceiver 161 and can communicate with the charging station 300, 400 and the second beacon 500 can be used to determine the position P0 of the mobile robot 100.
  • the mobile robot 100 can transmit and receive UWB radio signals to and from the charging station 300, the first beacon 400 and the second beacon 500 through the robot transceiver 161, The distance between the charging station 300, the first beacon 400 and the second beacon 500 and the robot transceiver 161 can be determined based on the time.
  • the mobile robot 100 calculates the coordinates (x0, y0) of the mobile robot 100 based on the distance between the charging station 300, the first beacon 400 and the second beacon 500 and the robot transceiver 161, y0, 0).
  • the mobile robot 100 moves toward the target position T (1150).
  • the mobile robot 100 can generate a path up to the target position T based on the position P0 and the target position T and move the target position T along the generated path . ≪ / RTI >
  • the mobile robot 100 can update the position of the mobile robot 100 while moving toward the target position T.
  • the mobile robot 100 and the user terminal 200 communicate with the mobile robot 100 through the communication with the charging station 300, the first beacon 400 and the second beacon 500,
  • the position P1 of the user terminal 200 and the instruction direction D1 of the user terminal 200 can be determined.
  • the mobile robot 100 can determine the target position T based on the position P1 of the user terminal 200 and the instruction direction D1 of the user terminal 200.
  • the disclosed embodiments may be embodied in the form of a recording medium storing instructions executable by a computer.
  • the instructions may be stored in the form of program code and, when executed by a processor, may generate a program module to perform the operations of the disclosed embodiments.
  • the recording medium may be embodied as a computer-readable recording medium.
  • the computer-readable recording medium includes all kinds of recording media in which instructions that can be decoded by a computer are stored.
  • it may be a ROM (Read Only Memory), a RAM (Random Access Memory), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, or the like.

Abstract

이동 로봇은 사용자 장치에 의하여 지시된 목표 위치로 이동하는 이동 로봇에 있어서, 상기 이동 로봇을 이동시키는 구동부; 상기 사용자 장치에 포함된 제1 단말 송수신기와 제2 단말 송수신기 각각과 무선 신호를 주고 받는 통신부; 및 상기 제1 단말 송수신기와의 무선 신호의 송수신과 상기 제2 단말 송수신기와의 무선 신호의 송수신 이후 상기 목표 위치로 이동하도록 상기 구동부를 제어하는 제어부를 포함할 수 있다.

Description

이동 로봇 시스템 및 그 제어 방법
개시된 발명은 이동 로봇, 이동 로봇의 제어 방법 및 이동 로봇 시스템에 관한 것으로써, 더욱 상세하게는 이동 로봇과 이동 로봇의 이동을 제어하는 사용자 단말을 포함하는 이동 로봇, 이동 로봇의 제어 방법 및 이동 로봇 시스템에 관한 발명이다.
일반적으로 이동 로봇은 사용자의 조작 없이 청소 공간을 주행하면서 특정한 작업을 수행하는 장치이다. 예를 들어, 이동 로봇은 바닥에 쌓인 먼지 등의 이물질을 흡입함으로써 청소 공간을 자동으로 청소하는 장치이다. 다시 말해, 이동 로봇은 청소 공간을 주행하며 청소 공간을 청소할 수 있다.
종래 이동 로봇은 사용자가 청소 공간 가운데 특정 위치를 먼저 청소하기를 원하는 경우 사용자가 직접 이동 로봇의 위치를 확인하고 리모트 컨트롤러를 이용하여 이동 로봇을 특정 위치로 이동시켜야 했다.
그러나, 사용자가 이동 로봇의 위치를 알지 못하는 경우에는 사용자가 이동 로봇을 찾아야만 했고, 사용자가 이동 로봇을 찾기 어려움이 있었다.
또한, 이동 로봇을 특정 위치를 이동시키기 위하여 리모트 컨트롤러를 이용하여 사용자가 이동 로봇의 주행을 조작하여야 하는 불편함이 있었다.
개시된 발명의 일 측면은 이동 로봇이 사용자 단말의 위치를 감지할 수 있는 이동 로봇, 이동 로봇의 제어 방법 및 이동 로봇 시스템을 제공하고자 한다.
개시된 발명의 다른 일 측면은 이동 로봇이 사용자 단말이 지시하는 방향을 감지할 수 있는 이동 로봇, 이동 로봇의 제어 방법 및 이동 로봇 시스템을 제공하고자 한다.
개시된 발명의 일 측면에 따른 이동 로봇은 사용자 장치에 의하여 지시된 목표 위치로 이동하는 이동 로봇에 있어서, 상기 이동 로봇을 이동시키는 구동부; 상기 사용자 장치에 포함된 제1 단말 송수신기와 제2 단말 송수신기 각각과 무선 신호를 주고 받는 통신부; 및 상기 제1 단말 송수신기와의 무선 신호의 송수신과 상기 제2 단말 송수신기와의 무선 신호의 송수신 이후 상기 목표 위치로 이동하도록 상기 구동부를 제어하는 제어부를 포함할 수 있다.
상기 제어부는 상기 제1 단말 송수신기의 통신 응답 시간과 상기 제2 단말 송수신기의 통신 응답 시간을 기초로 상기 목표 위치를 판단하고, 상기 목표 위치로 이동하도록 상기 구동부를 제어할 수 있다.
상기 제어부는 상기 제1 단말 송수신기의 통신 응답 시간과 상기 제2 단말 송수신기의 통신 응답 시간을 기초로 상기 사용자 단말의 위치와 상기 사용자 단말의 지시 방향을 판단하고, 상기 사용자 단말의 위치와 상기 사용자 단말의 지시 방향을 기초로 상기 목표 위치를 판단할 수 있다.
상기 제어부는 상기 제1 단말 송수신기의 통신 응답 시간을 기초로 상기 제1 단말 송수신기의 위치를 판단하고, 상기 제2 단말 송수신기의 통신 응답 시간을 기초로 상기 제2 단말 송수신기의 위치를 판단하고, 상기 제1 단말 송수신기의 위치와 상기 제2 단말 송수신기의 위치를 기초로 상기 사용자 단말의 위치와 상기 사용자 단말의 지시 방향을 판단할 수 있다.
상기 통신부는 제1 로봇 송수신기, 제2 로봇 송수신기 및 제3 로봇 송수신기를 포함하고, 상기 제어부는 상기 제1, 제2 및 제3 로봇 송수신기 각각과 상기 제1 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 제1 단말 송수신기의 위치를 판단하고, 상기 제1, 제2 및 제3 로봇 송수신기 각각과 상기 제1 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 제2 단말 송수신기의 위치를 판단할 수 있다
상기 통신부는 제1 로봇 송수신기를 포함하고, 상기 제어부는 상기 이동 로봇이 제자리에서 회전하는 동안 상기 제1 로봇 송수신기와 상기 제1 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 제1 단말 송수신기의 위치를 판단하고, 상기 이동 로봇이 제자리에서 회전하는 동안 상기 제1 로봇 송수신기와 상기 제2 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 제2 단말 송수신기의 위치를 판단할 수 있다.
상기 통신부는 제1 로봇 송수신기, 제2 로봇 송수신기 및 제3 로봇 송수신기를 포함하고, 상기 제어부는 상기 제1, 제2 및 제3 로봇 송수신기 각각과 상기 제1 단말 송수신기 사이의 통신 응답 시간과 상기 제1, 제2 및 제3 로봇 송수신기 각각과 상기 제2 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 목표 위치를 판단할 수 있다.
상기 통신부는 제1 로봇 송수신기를 포함하고, 상기 이동 로봇이 제자리에서 회전하는 동안 상기 제어부는 상기 제1 로봇 송수신기와 상기 제1 단말 송수신기 사이의 통신 응답 시간과 상기 제1 로봇 송수신기와 상기 제2 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 목표 위치를 판단할 수 있다.
개시된 발명의 일 측면에 따른 이동 로봇의 제어 방법은, 사용자 단말에 의하여 지시된 상기 목표 위치로 이동 로봇을 이동시키는 이동 로봇의 제어 방법에 있어서, 상기 사용자 장치에 포함된 제1 단말 송수신기와 제2 단말 송수신기 각각과 무선 신호를 주고 받고; 상기 제1 단말 송수신기의 통신 응답 시간과 상기 제2 단말 송수신기의 통신 응답 시간을 기초로 상기 목표 위치를 판단하고; 상기 이동 로봇을 상기 목표 위치로 이동시키는 것을 포함할 수 있다.
상기 목표 위치를 판단하는 것은, 상기 제1 단말 송수신기의 통신 응답 시간과 상기 제2 단말 송수신기의 통신 응답 시간을 기초로 상기 사용자 단말의 위치와 상기 사용자 단말의 지시 방향을 판단하고; 상기 사용자 단말의 위치와 상기 사용자 단말의 지시 방향을 기초로 상기 목표 위치를 판단하는 것을 포함할 수 있다.
상기 사용자 단말의 위치와 상기 사용자 단말의 지시 방향을 판단하는 것은, 상기 제1 단말 송수신기의 통신 응답 시간을 기초로 상기 제1 단말 송수신기의 위치를 판단하고; 상기 제2 단말 송수신기의 통신 응답 시간을 기초로 상기 제2 단말 송수신기의 위치를 판단하고; 상기 제1 단말 송수신기의 위치와 상기 제2 단말 송수신기의 위치를 기초로 상기 사용자 단말의 위치와 상기 사용자 단말의 지시 방향을 판단하는 것을 포함할 수 있다.
상기 제1 단말 송수신기의 위치를 판단하는 것은, 상기 이동 로봇에 포함된 제1, 제2 및 제3 로봇 송수신기 각각과 상기 제1 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 제1 단말 송수신기의 위치를 판단하는 것을 포함하고, 상기 제2 단말 송수신기의 위치를 판단하는 것은, 상기 제1, 제2 및 제3 로봇 송수신기 각각과 상기 제1 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 제2 단말 송수신기의 위치를 판단하는 것을 포함할 수 있다.
상기 제1 단말 송수신기의 위치를 판단하는 것은, 상기 이동 로봇이 제자리에서 회전하는 동안 상기 이동 로봇에 포함된 제1 로봇 송수신기와 상기 제1 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 제1 단말 송수신기의 위치를 판단하는 것을 포함하고, 상기 제2 단말 송수신기의 위치를 판단하는 것은, 상기 이동 로봇이 제자리에서 회전하는 동안 상기 제1 로봇 송수신기와 상기 제2 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 제2 단말 송수신기의 위치를 판단하는 것을 포함할 수 있다.
상기 목표 위치를 판단하는 것은, 상기 이동 로봇에 포함된 제1, 제2 및 제3 로봇 송수신기 각각과 상기 제1 단말 송수신기 사이의 통신 응답 시간과 상기 제1, 제2 및 제3 로봇 송수신기 각각과 상기 제2 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 목표 위치를 판단하는 것을 포함할 수 있다.
상기 목표 위치를 판단하는 것은, 상기 이동 로봇이 제자리에서 회전하는 동안 상기 이동 로봇에 포함된 제1 로봇 송수신기와 상기 제1 단말 송수신기 사이의 통신 응답 시간과 상기 제1 로봇 송수신기와 상기 제2 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 목표 위치를 판단하는 것을 포함할 수 있다.
개시된 발명의 일 측면에 따른 이동 로봇 시스템은 목표 위치를 지시하고, 상기 목표 위치를 향하여 일렬로 배치된 제1 단말 송수신기와 제2 단말 송수신기를 포함하는 사용자 단말; 및 상기 목표 위치를 향하여 이동하는 이동 로봇을 포함하고, 상기 이동 로봇은, 상기 이동 로봇을 이동시키는 구동부; 상기 제1 단말 송수신기와 상기 제2 단말 송수신기 각각과 무선 신호를 주고 받는 통신부; 및 상기 제1 단말 송수신기의 통신 응답 시간과 상기 제2 단말 송수신기의 통신 응답 시간을 기초로 상기 목표 위치를 판단하고, 상기 목표 위치로 이동하도록 상기 구동부를 제어하는 제어부를 포함할 수 있다.
개시된 발명의 일 측면에 따르면, 이동 로봇이 사용자 단말의 위치를 감지할 수 있는 이동 로봇, 이동 로봇의 제어 방법 및 이동 로봇 시스템을 제공할 수 있다.
개시된 발명의 다른 일 측면에 따르면, 이동 로봇이 사용자 단말이 지시하는 방향을 감지할 수 있는 이동 로봇, 이동 로봇의 제어 방법 및 이동 로봇 시스템을 제공할 수 있다.
도 1은 일 실시예에 의한 이동 로봇 시스템의 구성 및 동작을 개략적으로 도시한다.
도 2는 일 실시예에 의한 이동 로봇의 구성을 도시한다.
도 3은 일 실시예에 의한 이동 로봇의 외관을 도시한다.
도 4는 일 실시예에 의한 이동 로봇의 저면을 도시한다.
도 5는 일 실시예에 의한 이동 로봇에 포함된 로봇 통신부의 일 예를 도시한다.
도 6은 일 실시예에 의한 이동 로봇에 포함된 로봇 통신부의 다른 일 예를 도시한다.
도 7은 일 실시예에 의한 이동 로봇에 포함된 로봇 통신부의 또 다른 일 예를 도시한다.
도 8은 일 실시예에 의한 사용자 단말의 구성을 도시한다.
도 9는 일 실시예에 의한 사용자 단말의 외관을 도시한다.
도 10은 일 실시예에 의한 사용자 단말에 포함된 단말 통신부의 일 예를 도시한다.
도 11은 일 실시예에 의한 사용자 단말에 포함된 단말 통신부의 다른 일 예를 도시한다.
도 12는 일 실시예에 의한 이동 로봇이 목표 위치를 판단하는 일 예를 도시한다.
도 13은 일 실시예에 의한 이동 로봇의 목표 위치 판단 방법을 도시한다.
도 14는 일 실시예에 의한 이동 로봇이 사용자 단말의 위치를 판단하는 일 예를 도시한다.
도 15는 일 실시예에 의한 이동 로봇이 사용자 단말의 위치를 판단하는 다른 일 예를 도시한다.
도 16 및 도 17은 일 실시예에 의한 이동 로봇이 사용자 단말의 지시 방향을 판단하는 일 예를 도시한다.
도 18는 일 실시예에 의한 이동 로봇이 목표 위치로 이동하는 방법을 도시한다.
도 19은 일 실시예에 의한 이동 로봇 시스템을 도시한다.
도 20는 일 실시예에 의한 이동 로봇이 목표 위치를 판단하는 방법을 도시한다.
도 21은 일 실시예에 의한 사용자 단말의 위치를 판단하는 일 예를 도시한다.
도 22은 일 실시예에 의한 사용자 단말의 지시 방향을 판단하는 일 예를 도시한다.
명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다. 본 명세서가 실시예들의 모든 요소들을 설명하는 것은 아니며, 본 발명이 속하는 기술분야에서 일반적인 내용 또는 실시예들 간에 중복되는 내용은 생략한다. 명세서에서 사용되는 ‘부, 모듈, 부재, 블록’이라는 용어는 소프트웨어 또는 하드웨어로 구현될 수 있으며, 실시예들에 따라 복수의 '부, 모듈, 부재, 블록'이 하나의 구성요소로 구현되거나, 하나의 '부, 모듈, 부재, 블록'이 복수의 구성요소들을 포함하는 것도 가능하다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 직접적으로 연결되어 있는 경우뿐 아니라, 간접적으로 연결되어 있는 경우를 포함하고, 간접적인 연결은 무선 통신망을 통해 연결되는 것을 포함한다.
또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.
명세서 전체에서, 어떤 부재가 다른 부재 "상에" 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.
제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 전술된 용어들에 의해 제한되는 것은 아니다.
단수의 표현은 문맥상 명백하게 예외가 있지 않는 한, 복수의 표현을 포함한다.
각 단계들에 있어 식별부호는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 실시될 수 있다.
이하 첨부된 도면들을 참고하여 본 발명의 작용 원리 및 실시예들에 대해 설명한다.
도 1은 일 실시예에 의한 이동 로봇 시스템의 구성 및 동작을 개략적으로 도시한다.
도 1을 참조하면, 이동 로봇 시스템(1)은 바닥을 주행하는 이동 로봇(100)과, 이동 로봇(100)의 주행을 제어하는 사용자 단말(200)을 포함할 수 있다.
이동 로봇(100)은 주행 공간의 바닥을 주행할 수 있다.
예를 들어, 이동 로봇(100)은 자동 및/또는 수동으로 사용자(U)의 집안의 바닥을 주행할 수 있다. 이동 로봇(100)은 자동으로 집안의 구조 및 장애물들의 위치를 인식하고, 집 안의 구조 및 장애물들의 위치에 따라 집 안의 벽, 가구 등을 회피하면서 집안의 바닥을 주행할 수 있다. 여기서, 장애물은 가구, 벽 등 이동 로봇(100)의 주행을 방해할 수 있는 모든 물건을 나타낼 수 있다.
이동 로봇(100)은 사용자(U)의 조작에 의하여 수동으로 집안의 바닥을 주행할 수 있다. 사용자(U)는 사용자 단말(200)을 통하여 이동 로봇(100)의 주행을 제어할 수 있으며, 이동 로봇(100)은 사용자 단말(200)로부터의 주행 제어 신호에 따라 주행 속도 및/또는 주행 방향을 조절할 수 있다.
사용자(U)는 사용자 단말(200)을 통하여 이동 로봇(100)이 이동할 목표 위치(T)를 지시할 수 있으며, 이동 로봇(100)은 사용자 단말(200)에 의하여 지시된 목표 위치(T)로 자동으로 이동할 수 있다.
이동 로봇(100)은 실내에서 주행하는 것에 한정되지 아니하며, 이동 로봇(100)은 실외에서 주행할 수 있다. 이동 로봇(100)은 자동으로 장애물 등을 인식하면서 실외를 주행하거나, 사용자 단말(200)을 통한 사용자(U)의 제어에 따라 실외를 주행할 수 있다.
이동 로봇(100)은 주행하는 동안 다양한 작업을 수행할 수 있다.
예를 들어, 이동 로봇(100)은 사용자(U)의 집안을 주행하는 동안 집안의 바닥을 청소할 수 있다. 구체적으로, 이동 로봇(100)은 자동으로 사용자(U)의 집안을 주행하면서, 집안 바닥의 먼지를 쓸고 흡입할 수 있다. 또한, 이동 로봇(100)은 사용자 단말(200)에 의하여 지시된 목표 위치(T)로 이동한 이후 목표 위치(T) 주변의 먼지를 흡입할 수 있다.
이동 로봇(100)은 주행하는 동안 바닥을 청소하는 것에 한정되지 아니한다. 예를 들어, 이동 로봇(100)은 주행하는 동안 물건을 나를 수 있다.
사용자 단말(200)은 사용자(U)의 사용자 입력을 수신하고, 사용자 입력에 대응하는 사용자 제어 신호를 이동 로봇(100)으로 전송할 수 있다.
예를 들어, 사용자 단말(200)은 이동 로봇(100)의 주행 및/또는 청소에 관한 사용자 입력을 수신하고, 이동 로봇(100)의 주행을 제어하기 위한 주행 제어 신호 및/또는 이동 로봇(100)의 청소를 제어하기 위한 청소 제어 신호를 이동 로봇(100)으로 전송할 수 있다. 이동 로봇(100)은 주행 제어 신호 및/또는 청소 제어 신호의 수신에 응답하여 집안의 바닥을 주행하고, 집안의 바닥을 청소할 수 있다.
사용자 단말(200)은 사용자(U)로부터 목표 위치(T)를 지정하기 위한 사용자 입력을 수신하고, 목표 위치(T)로 이동 신호를 이동 로봇(100)으로 전송할 수 있다. 이동 로봇(100)은 목표 위치(T)로 이동 신호에 응답하여 목표 위치(T)의 위치를 판단하고, 목표 위치(T)를 향하여 자동으로 이동할 수 있다.
이동 로봇(100)은 목표 위치(T)를 산출하기 위하여 사용자 단말(200)의 위치를 판단하고, 사용자 단말(200)이 지시하는 방향(이하 '이상 사용자 단말의 지시 방향'이라 한다)을 판단할 수 있다. 또한, 이동 로봇(100)은 사용자 단말(200)의 위치 및/또는 사용자 단말(200)의 지시 방향을 판단하기 위하여 사용자 단말(200)과 통신할 수 있다.
이처럼, 이동 로봇(100)는 사용자 단말(200)과의 통신을 통하여 사용자 단말(200)로부터 주행 제어 신호 및/또는 청소 제어 신호를 수신하고, 주행 제어 신호 및/또는 청소 제어 신호에 따라 집안을 주행하고, 집안에서 청소할 수 있다.
특히, 이동 로봇(100)은 사용자 단말(200)과의 통신을 통하여 목표 위치(T)로 이동 신호를 수신하고, 사용자 단말(200)과의 통신을 통하여 목표 위치(T)의 위치를 판단할 수 있다. 이동 로봇(100)은 목표 위치(T)로 이동하고, 이후 목표 위치(T) 주변을 청소할 수 있다.
이하에서는, 이동 로봇(100)과 사용자 단말(200)의 각각의 구성과 각 구성들의 기능이 설명된다.
도 2는 일 실시예에 의한 이동 로봇의 구성을 도시한다. 도 3은 일 실시예에 의한 이동 로봇의 외관을 도시한다. 도 4는 일 실시예에 의한 이동 로봇의 저면을 도시한다. 도 5는 일 실시예에 의한 이동 로봇에 포함된 로봇 통신부의 일 예를 도시한다. 도 6은 일 실시예에 의한 이동 로봇에 포함된 로봇 통신부의 다른 일 예를 도시한다. 도 7은 일 실시예에 의한 이동 로봇에 포함된 로봇 통신부의 또 다른 일 예를 도시한다.
도 2, 도 3, 도 4, 도 5, 도 6 및 도 7을 참조하면, 이동 로봇(100)은 로봇 본체(101)를 포함하며, 로봇 본체(101)는 이동 로봇(100)을 구성하는 구성 부품들을 수용하고 구성 부품들을 외력으로부터 보호할 수 있다.
로봇 본체(101)는 메인 바디(101a)와 서브 바디(101b)를 포함할 수 있으며, 메인 바디(101a)는 예를 들어 대략 반원 기둥의 형태를 가질 수 있고 서브 바디(101b)는 예를 들어 대략 직육면체의 형태를 가질 수 있다. 메인 바디(101a)와 서브 바디(101b)의 형상은 최적의 청소를 위한 것이며, 메인 바디(101a)와 서브 바디(101b)의 형상이 각각 대략 반원의 형태 및 대략 직사각형의 형태에 한정되는 것은 아니다
로봇 본체(101)의 내부 또는 외부에는 사용자(U)와 상호 작용하는 로봇 컨트롤 패널(110)과, 이동 로봇(100)의 움직임을 감지하는 로봇 움직임 감지부(120)와, 바닥에 놓여진 장애물을 감지하는 로봇 장애물 감지부(130)와, 이동 로봇(100)을 이동시키는 구동부(140)와, 바닥을 청소하는 청소부(150)와, 사용자 단말(200)과 통신하는 로봇 통신부(160)와, 이동 로봇(100)의 동작을 제어하는 로봇 제어부(170)가 마련된다. 다만, 이동 로봇(100)의 구성은 도 2에 도시된 바에 한정되는 것은 아니며, 필요에 따라 다른 구성이 추가되거나 그 일부가 생략될 수도 있다.
로봇 컨트롤 패널(110)은 로봇 본체(101) 상면에 마련될 수 있으며, 사용자(U)로부터 사용자 입력을 수신하는 복수의 로봇 입력 버튼(111)과 이동 로봇(100)의 동작에 관한 정보를 표시하는 로봇 디스플레이(112)를 포함할 수 있다.
로봇 입력 버튼(111)은 다양한 사용자 입력을 수신하기 위한 복수의 버튼들을 포함할 수 있다. 예를 들어, 로봇 입력 버튼(111)은 이동 로봇(100)을 턴온 또는 턴오프시키는 전원 버튼과, 이동 로봇(100)의 동작을 시작하거나 동작을 중지시키기 위한 동작 버튼과, 이동 로봇(100)을 충전 스테이션으로 복귀시키기 위한 복귀 버튼 등을 포함할 수 있다.
로봇 입력 버튼(111)에 포함된 복수의 버튼들 각각은 사용자 입력을 수신하고, 사용자 입력에 대응하는 사용자 제어 신호를 로봇 제어부(170)로 출력할 수 있다. 또한, 로봇 입력 버튼(111)에 포함된 복수의 버튼들 각각은 푸시 스위치, 터치 스위치, 다이얼, 슬라이드 스위치, 토글 스위치 등 다양한 입력 수단에 의하여 구현될 수 있다.
로봇 디스플레이(112)는 사용자 입력에 응답하여 이동 로봇(100)의 동작에 관한 정보를 표시할 수 있다. 예를 들어, 로봇 디스플레이(112)는 이동 로봇(100)의 동작 상태, 전원의 상태, 사용자가 선택한 청소 모드, 충전 스테이션으로의 복귀 여부 등을 표시할 수 있다.
로봇 디스플레이(112)는 액정 디스플레이(Liquid Crystal Display, LCD) 패널, 또는 발광 다이오드(Light Emitting Diode, LED), 또는 유기 발광 다이오드(Organic Light Emitting Diode, OLED) 패널 등 다양한 표시 수단에 의하여 구현될 수 있다. 또한, 로봇 디스플레이(112)는 사용자 입력을 수신하고, 이동 로봇(100)의 동작 정보를 표시하는 터치 스크린 패널(Touch Screen Panel, TSP)을 채용할 수도 있다.
로봇 움직임 감지부(120)는 이동 로봇(100)이 주행 공간을 주행하는 동안 이동 로봇(100)의 움직임 및 자세를 감지할 수 있다. 예를 들어, 로봇 움직임 감지부(120)는 이동 로봇(100)이 이동하는 동안 이동 로봇(100)의 선형 이동 가속도, 선형 이동 속도, 선형 이동 변위, 선형 이동 방향, 기울어짐, 회전 이동 각속도, 회전 이동 각변위 및/또는 회전 방향(회전 이동의 축 방향) 등을 감지할 수 있다.
로봇 움직임 감지부(120)는 이동 로봇(100)의 선형 이동을 감지하는 로봇 가속도 센서(121)와, 이동 로봇(100)의 회전 이동을 감지하는 로봇 자이로 센서(122)를 포함할 수 있다.
로봇 가속도 센서(121)는 이동 로봇(100)의 선형 이동에 의한 x축 가속도, y축 가속도 및/또는 z축 가속도(3축 선형 가속도)를 측정할 수 있다.
예를 들어, 로봇 가속도 센서(121)는 지구 중력에 의한 가속도(중력 가속도)를 기준으로 이동 로봇(100)의 선형 이동 가속도를 측정할 수 있다. 로봇 가속도 센서(121)는 중력 가속도와 선형 이동 가속도의 벡터 합을 측정하고, 측정 값으로부터 선형 이동 가속도를 판단할 수 있다. 로봇 가속도 센서(121)는 이동 로봇(100)의 선형 이동 가속도로부터 이동 로봇(100)의 선형 이동 속도를 산출할 수 있으며, 이동 로봇(100)의 선행 이동 속도로부터 이동 로봇(100)의 선형 이동 변위를 산출할 수 있다.
또한, 로봇 가속도 센서(121)는 중력 가속도의 방향 변화를 기초로 이동 로봇(100)의 자세를 판단할 수 있다.
로봇 자이로 센서(122)는 이동 로봇(100)의 회전 이동에 의한 x축 중심의 각속도(회전 속도), y축 중심의 각속도 및/또는 z축 중심의 각속도(3축 각속도)를 측정할 수 있다.
예를 들어, 로봇 자이로 센서(122)는 회전에 의한 코리올리의 힘(Coriolis force)을 이용하여 이동 로봇(100)의 회전 이동 각속도를 측정할 수 있다. 로봇 자이로 센서(122)는 코리올리의 힘을 측정하고, 코이올리의 힘으로부터 이동 로봇(100)의 회전 이동 각속도를 판단할 수 있다.
로봇 자이로 센서(122)는 이동 로봇(100)의 회전 이동 각속도로부터 이동 로봇(100)의 회전 이동 변위를 산출할 수 있다.
이처럼, 로봇 움직임 감지부(120)는 이동 로봇(100)의 선형 이동 가속도, 선형 이동 속도, 선형 이동 변위, 선형 이동 방향, 회전 이동 각속도, 회전 이동 각변위 및/또는 회전 방향(회전 이동의 축 방향) 등 움직임에 관한 정보와 이동 로봇(100)의 기울어짐 등 자세에 관한 정보를 로봇 제어부(170)로 출력할 수 있다.
또한, 로봇 움직임 감지부(120)는 로봇 가속도 센서(121) 및/또는 로봇 자이로 센서(122)와 함께 이동 로봇(100)에 포함된 구동 바퀴(142)의 회전을 감지하는 엔코더 및/또는 홀 센서 등을 더 포함할 수 있다. 또한, 로봇 움직임 감지부(120)는 구동 바퀴(142)의 회전을 기초로 이동 로봇(100)의 선형 이동 속도, 선형 이동 변위, 회전 이동 속도 및 회전 이동 변위 등을 판단할 수 있다.
로봇 장애물 감지부(130)는 이동 로봇(100)의 이동을 방해하는 장애물을 검출할 수 있다. 여기서, 장애물은 주행 공간의 바닥으로 돌출되어 이동 로봇(100)의 이동을 방해하거나, 주행 공간으로부터 함몰되어 이동 로봇(100)의 이동을 방해하는 모든 물건 또는 구조를 나타낼 수 있다. 예를 들어, 장애물은 테이블, 의자 등의 가구와, 집안을 구획하는 벽과, 집안의 바닥보다 낮은 현관 등을 포함할 수 있다.
로봇 장애물 감지부(130)는 이동 로봇(100)이 주행하는 전방을 향하여 감지 매체(예를 들어, 광 또는 초음파 또는 전파 등)를 발신하는 발신부(131)와, 장애물로부터 반사되는 감지 매체를 수신하는 수신부(132)를 포함할 수 있다.
발신부(131)는 광을 발신하는 발광 다이오드 또는 초음파를 발신하는 초음파 스피커 또는 전파를 발신하는 안테나 등을 포함할 수 있으며, 이동 로봇(100)이 주행하는 동안 이동 로봇(100)의 전방(다시 말해, 이동 로봇의 주행 방향)을 향하여 광 또는 초음파 또는 전파 등을 발신할 수 있다.
발신부(131)로부터 발신된 감지 매체는 이동 로봇(100)의 전방을 향하여 전파될 수 있다. 이동 로봇(100)의 전방에 장애물이 위치하면 광 또는 초음파 또는 전파는 장애물에 반사되며, 반사된 감지 매체는 이동 로봇(100)을 향하여 전파될 수 있다.
수신부(132)는 광을 수신하는 포토 다이오드 또는 초음파를 수신하는 마이크 또는 전파를 수신하는 안테나 등을 포함할 수 있으며, 이동 로봇(100)이 주행하는 동안 이동 로봇(100)의 전방에 위치하는 장애물로부터 반사된 광 또는 초음파 또는 전파 등을 수신할 수 있다.
로봇 장애물 감지부(130)는 수신부(132)의 감지 매체의 수신 여부에 따라 이동 로봇(100)의 전방에 위치하는 장애물의 존부를 판단할 수 있다. 또한, 로봇 장애물 감지부(130)는 수신부(132)에 의한 감지된 감지 매체의 세기 및/또는 감지 매체의 발신과 수신 사이의 시간 차이 등으로부터 이동 로봇(100)의 전방에 위치하는 장애물의 위치(이동 로봇과 장애물 사이의 거리)를 판단할 수 있다.
이처럼, 로봇 장애물 감지부(130)는 이동 로봇(100)의 전방에 위치하는 장애물의 검출 여부 및/또는 장애물의 위치 등 장애물에 관한 정보를 로봇 제어부(170)로 출력할 수 있다.
구동부(140)는 이동 로봇(100)을 이동시킬 수 있다. 구체적으로, 구동부(140)는 로봇 제어부(170)의 주행 제어 신호에 따라 이동 로봇(100)을 선형 이동시키거나 회전 이동시킬 수 있다.
구동부(140)는 바퀴 구동 모터(141)와, 구동 바퀴(142)와, 캐스터 바퀴(143)를 포함할 수 있다.
구동 바퀴(142)는 로봇 본체(101)의 좌우 양단에 마련될 수 있으며, 로봇 본체(101)의 좌측단에 마련되는 좌측 구동 바퀴(142a)와 로봇 본체(101)의 우측단에 마련되는 우측 구동 바퀴(142b)를 포함할 수 있다.
바퀴 구동 모터(141)는 구동 바퀴(142)를 회전시키기 위한 회전력을 생성하고, 좌측 구동 바퀴(142a)를 회전시키는 좌측 구동 모터(141a)와 우측 구동 바퀴(142b)를 회전시키는 우측 구동 모터(141b)를 포함할 수 있다.
좌측 구동 모터(141a)와 우측 구동 모터(141b)는 각각 로봇 제어부(170)로부터 주행 제어 신호를 수신하고, 독립적으로 좌측 구동 바퀴(142a)와 우측 구동 바퀴(142b)를 회전시킬 수 있다. 그 결과, 좌측 구동 바퀴(142a)와 우측 구동 바퀴(142b)는 서로 독립적으로 회전할 수 있다.
좌측 구동 바퀴(142a)와 우측 구동 바퀴(142b)의 회전에 의하면, 이동 로봇(100)은 직선 주행, 곡선 주행 및 제자리 회전 등 다양한 패턴의 주행이 가능하다.
예를 들어, 좌측 구동 바퀴(142a)와 우측 구동 바퀴(142b)가 동일한 방향 및 동일한 속도로 회전하면, 이동 로봇(100)은 직선 주행이 가능하다. 좌측 구동 바퀴(142a)와 우측 구동 바퀴(142b)가 동일한 방향 및 상이한 속도로 회전하면, 이동 로봇(100)은 곡선 주행이 가능하다, 또한, 좌측 구동 바퀴(142a)와 우측 구동 바퀴(142b)가 상이한 방향 및 동일한 속도로 회전하면, 이동 로봇(100)은 제자리 회전이 가능하다.
캐스터 바퀴(143)는 로봇 본체(101)의 저면에 설치되며, 이동 로봇(100)이 원활하게 이동하도록 이동 로봇(100)을 지지할 수 있다. 캐스터 바퀴(143)는 바닥면과 수평한 회전축을 중심으로 회전할 수 있을 뿐만 아니라, 바닥면과 수직한 회전축을 중심으로 회전할 수 도 있다. 따라서, 캐스터 바퀴(143)는 이동 로봇(100)의 이동 방향에 따라 회전축의 방향이 변화할 수 있다.
또한, 구동부(140)는 로봇 제어부(170)의 주행 제어 신호에 따라 바퀴 구동 모터(141)에 구동 전류를 공급하는 모터 구동 회로와, 바퀴 구동 모터(141)의 회전력을 구동 바퀴(142)로 전달하는 동력 전달 장치와, 바퀴 구동 모터(141) 또는 구동 바퀴(142)의 회전 변위 및/또는 회전 각속도를 감지하는 회전 감지 센서 등을 더 포함할 수 있다.
청소부(150)는 청소 영역의 바닥의 먼지를 비산시키는 드럼 브러시(152), 드럼 브러시(152)를 회전시키는 브러시 구동 모터(151), 비산된 먼지를 흡입하는 먼지 흡입 팬(154), 먼지 흡입 팬(154)을 회전시키는 팬 구동 모터(153)를 포함한다.
드럼 브러시(152)는 로봇 본체(101) (예를 들어, 서브 바디)의 저면에 형성된 먼지 흡입구(103)에 마련되며, 바닥과 수평하게 마련된 회전축을 중심으로 회전하며, 바닥의 먼지를 먼지 흡입구(103)를 내부로 비산시킨다.
브러시 구동 모터(151)는 드럼 브러시(152)에 인접하게 마련되어 로봇 제어부(170)의 청소 제어 신호에 따라 드럼 브러시(152)를 회전시킨다.
또한, 청소부(150)는 로봇 제어부(170)의 청소 제어 신호에 따라 브러시 구동 모터(151)에 구동 전류를 공급하는 모터 구동 회로와, 브러시 구동 모터(151)의 회전력을 드럼 브러시(152)에 전달하는 동력 전달 장치를 더 포함할 수 있다.
먼지 흡입 팬(154)은 로봇 본체(101) (예를 들어, 메인 바디) 내부에 마련되어, 드럼 브러시(152)에 의하여 비산된 먼지를 흡입할 수 있다.
팬 구동 모터(153)는 먼지 흡입 팬(154)과 인접한 위치에 마련되며, 로봇 제어부(170)의 청소 제어 신호에 따라 먼지 흡입 팬(154)을 회전시킬 수 있다.
청소부(150)는 로봇 제어부(170)의 청소 제어 신호에 따라 팬 구동 모터(153)에 구동 전류를 공급하는 모터 구동 회로와, 팬 구동 모터(153)의 회전력을 먼지 흡입 팬(154)에 전달하는 동력 전달 장치와 먼지 흡입 팬(154)에 의하여 흡입된 먼지를 저장하는 먼지함을 더 포함할 수 있다.
로봇 통신부(160)는 사용자 단말(200)와 통신 데이터를 주고 받을 수 있다. 통신 데이터는 다양한 매체에 의하여 전송될 수 있다. 예를 들어, 통신 데이터는 광 또는 초음파 또는 전파를 통하여 전송될 수 있다.
이하에서는 이해를 돕기 위하여 통신 데이터가 전파를 통하여 전송됨이 가정된다. 특히, 로봇 통신부(160)는 초광대역(Ultra Wide Band, UWB) 통신 방식을 이용하여 사용자 단말(200)와 통신 데이터를 주고 받을 수 있다.
초광대역 통신 방식은 무선 신호의 대역폭이 무선 신호의 중심 주파수의 25% 이상인 통신 방식 또는 무선 신호의 대역폭이 500MHz (mega-hertz) 이상인 통신 방식을 나타낸다. 초광대역 통신 방식에 의한 무선 신호(이하 '초광대역 무선 신호'라 한다)는 1ns (nano-second) 이하의 펄스 폭을 가지는 짧은 임펄스 신호일 수 있다. 임펄스 신호의 형태(예를 들어, 양의 임펄스 신호와 음의 임펄스 신호)를 변경함으로써 초광대역 무선 신호는 데이터(예를 들어, '0'과 '1'의 디지털 데이터)를 전달할 수 있다.
로봇 통신부(160)는 초광대역 무선 신호를 송신 및 수신하기 위한 로봇 송수신기(161)와, 송신할 초광대역 무선 신호를 생성하고 수신된 초광대역 무선 신호를 처리하는 로봇 통신 프로세서(162)를 포함할 수 있다.
로봇 송수신기(161)는 자유 공간으로부터 초광대역 무선 신호를 수신하거나 자유 공간으로 초광대역 무선 신호를 송신할 수 있다. 예를 들어, 로봇 송수신기(161)는 자유 공간으로부터 초광대역 무선 신호를 송신하거나 자유 공간으로 초광대역 무선 신호를 수신하는 안테나와, 수신된 초광대역 무선 신호를 증폭하는 증폭기를 포함할 수 있다.
로봇 통신 프로세서(162)는 로봇 제어부(170)의 통신 제어 신호에 따라 초광대역 무선 신호를 생성할 수 있다. 예를 들어, 로봇 통신 프로세서(162)는 전송하고자 하는 통신 데이터에 대응하는 초광대역 무선 신호를 생성할 수 있다.
로봇 통신 프로세서(162)는 로봇 송수신기(161)에 의하여 수신된 초광대역 무선 신호를 처리할 수 있다. 예를 들어, 로봇 통신 프로세서(162)는 초광대역 무선 신호로부터 통신 데이터를 추출하고, 추출된 통신 데이터를 로봇 제어부(170)로 출력할 수 있다.
로봇 통신부(160)는 1개 이상의 로봇 송수신기(161)와 1개 이상의 로봇 통신 프로세서(162)를 포함할 수 있다.
예를 들어, 도 5에 도시된 바와 같이, 로봇 통신부(160)는 3개의 로봇 송수신기(161)와 3개의 로봇 통신 프로세서(162)를 포함할 수 있다.
로봇 통신부(160)는 제1 로봇 송수신기(161a)와 제2 로봇 송수신기(161b)와 제3 로봇 송수신기(161c)를 포함할 수 있다. 제1 로봇 송수신기(161a)는 로봇 본체(101)의 전방 좌측에 위치하고, 제2 로봇 송수신기(161b)는 로봇 본체(101)의 전방 우측에 위치하고, 제3 로봇 송수신기(161c)는 로봇 본체(101)의 후방 중앙에 위치할 수 있다. 또한, 제1 로봇 송수신기(161a)와 제2 로봇 송수신기(161b)와 제3 로봇 송수신기(161c)은 서로 미리 정해진 거리(a)만큼 이격될 수 있다.
로봇 통신부(160)는 제1 로봇 통신 프로세서(162a)와 제2 로봇 통신 프로세서(162b)와 제3 로봇 통신 프로세서(162c)를 더 포함할 수 있으며, 제1 로봇 통신 프로세서(162a)와 제2 로봇 통신 프로세서(162b)와 제3 로봇 통신 프로세서(162c)는 각각 제1 로봇 송수신기(161a)와 제2 로봇 송수신기(161b)와 제3 로봇 송수신기(161c)와 인접한 위치에 설치될 수 있다.
제1 로봇 통신 프로세서(162a)는 제1 로봇 송수신기(161a)를 통하여 송수신되는 초광대역 무선 신호를 처리하며, 제2 로봇 통신 프로세서(162b)는 제2 로봇 송수신기(161b)를 통하여 송수신되는 초광대역 무선 신호를 처리할 수 있다. 또한, 제3 로봇 통신 프로세서(162c)는 제3 로봇 송수신기(161c)를 통하여 송수신되는 초광대역 무선 신호를 처리할 수 있다.
다른 예로, 도 6에 도시된 바와 같이, 로봇 통신부(160)는 3개의 로봇 송수신기(161)와 1개의 로봇 통신 프로세서(162)를 포함할 수 있다.
로봇 통신부(160)는 제1 로봇 송수신기(161a)와 제2 로봇 송수신기(161b)와 제3 로봇 송수신기(161c)를 포함할 수 있다. 제1 로봇 송수신기(161a)는 로봇 본체(101)의 전방 좌측에 위치하고, 제2 로봇 송수신기(161b)는 로봇 본체(101)의 전방 우측에 위치하고, 제3 로봇 송수신기(161c)는 로봇 본체(101)의 후방 중앙에 위치할 수 있다. 또한, 제1 로봇 송수신기(161a)와 제2 로봇 송수신기(161b)와 제3 로봇 송수신기(161c)은 서로 미리 정해진 거리(a)만큼 이격될 수 있다.
로봇 통신부(160)는 제1 로봇 통신 프로세서(162a)를 더 포함할 수 있으며, 제1 로봇 통신 프로세서(162a)는 임의의 위치에 설치될 수 있다.
제1 로봇 통신 프로세서(162a)는 제1 로봇 송수신기(161a)를 통하여 송수신되는 초광대역 무선 신호와 제2 로봇 송수신기(161b)를 통하여 송수신되는 초광대역 무선 신호와 제3 로봇 송수신기(161c)를 통하여 송수신되는 초광대역 무선 신호를 순차적으로 처리할 수 있다.
또 다른 예로, 도 7에 도시된 바와 같이, 로봇 통신부(160)는 1개의 로봇 송수신기(161)와 1개의 로봇 통신 프로세서(162)를 포함할 수 있다.
로봇 통신부(160)는 제1 로봇 송수신기(161a)와 제1 로봇 통신 프로세서(162a)를 포함할 수 있으며, 제1 로봇 송수신기(161a)는 로봇 본체(101)의 전방 중앙에 설치되고 제1 로봇 통신 프로세서(162a)는 제1 로봇 송수신기(161a)와 인접한 위치에 설치될 수 있다.
제1 로봇 통신 프로세서(162a)는 제1 로봇 송수신기(161a)를 통하여 송수신되는 초광대역 무선 신호를 처리할 수 있다.
로봇 통신부(160)는 초광대역 통신 방식을 이용하여 사용자 단말(200)과 통신 데이터를 주고 받을 수 있을 뿐만 아니라, 로봇 통신부(160)는 사용자 단말(200)과 로봇 송수신기(161) 사이의 거리를 측정하기 위하여 사용자 단말(200)과 초광대역 무선 신호를 주고 받을 수 있다.
예를 들어, 로봇 통신부(160)는 로봇 송수신기(161)를 통하여 감지 신호를 전송하고, 사용자 단말(200)로부터 응답 신호를 수신할 수 있다. 로봇 통신부(160)는 사용자 단말(200)의 응답 신호의 수신에 응답하여 감지 신호의 전송과 응답 신호의 수신 사이의 응답 시간 간격을 측정할 수 있다.
로봇 통신부(160)는 응답 시간 간격으로부터 사용자 단말(200)의 감지 신호 처리 시간을 뺀 무선 신호 전파 시간을 산출할 수 있으며, 무선 신호 전파 시간으로부터 사용자 단말(200)과 로봇 송수신기(161) 사이의 거리를 판단할 수 있다. 또한, 로봇 통신부(160)는 사용자 단말(200)과 로봇 송수신기(161) 사이의 거리에 관한 정보를 로봇 제어부(170)로 출력할 수 있다.
예를 들어, 로봇 통신부(160)가 3개의 로봇 송수신기(161)를 포함하는 경우, 로봇 통신부(160)는 제1 로봇 송수신기(161a)를 통하여 감지 신호를 전송하고 제1 로봇 송수신기(161a)를 통하여 사용자 단말(200)의 응답 신호를 수신할 수 있으며, 감지 신호의 전송 시간과 응답 신호의 수신 시간 사이의 차이를 기초로 제1 로봇 송수신기(161a)와 사용자 단말(200) 사이의 제1 거리를 산출할 수 있다. 같은 방식으로,로봇 통신부(160)는 제2 로봇 송수신기(161b)와 사용자 단말(200) 사이의 제2 거리 및 제3 로봇 송수신기(161c)와 사용자 단말(200) 사이의 제3 거리를 산출할 수 있다.
또한, 로봇 통신부(160)가 1개의 로봇 송수신기(161)를 포함하는 경우, 로봇 통신부(160)는 이동 로봇(100)의 이동 중에 측정된 제1 로봇 송수신기(161a)와 사용자 단말(200) 사이의 거리들을 로봇 제어부(170)로 출력할 수 있다.
로봇 제어부(170)는 로봇 컨트롤 패널(110)의 사용자 입력, 로봇 움직임 감지부(120)의 움직임 정보 및 로봇 장애물 감지부(130)의 장애물 정보를 처리하고, 구동부(140)로 주행 제어 신호를 출력하고 청소부(150)로 청소 제어 신호를 출력하고 로봇 통신부(160)로 통신 제어 신호 및/또는 통신 데이터를 출력할 수 있다.
또한, 로봇 제어부(170)는 사용자 단말(200)이 지시하는 목표 위치(T)를 판단하고, 목표 위치(T)를 향하여 이동하도록 구동부(140)를 제어할 수 있다. 구체적으로, 로봇 제어부(170)는 로봇 송수신기(161)와 사용자 단말(200) 사이의 거리를 측정하도록 로봇 통신부(160)를 제어하고, 로봇 송수신기(161)와 사용자 단말(200) 사이의 거리를 기초로 사용자 단말(200)의 위치를 판단할 수 있다.
로봇 제어부(170)는 메모리(172)와 마이크로프로세서(171)를 포함할 수 있다.
메모리(172)는 이동 로봇(100)의 동작을 제어하기 위한 프로그램 및 데이터를 저장할 수 있다. 예를 들어, 메모리(172)는 로봇 움직임 감지부(120)로부터 출력되는 움직임 정보를 처리하기 위한 프로그램, 로봇 장애물 감지부(130)로부터 출력되는 장애물 정보를 처리하기 위한 프로그램 및 로봇 통신부(160)로부터 출력되는 통신 데이터를 처리하기 위한 프로그램을 저장할 수 있다.
또한, 메모리(172)는 마이크로프로세서(171)의 처리 동작 중에 발생하는 데이터를 임시로 기억할 수 있다. 예를 들어, 메모리(172)는 마이크로프로세서(171)가 움직임 정보 또는 장애물 정보 또는 통신 데이터를 처리하는 중에 발생되는 임시 데이터를 기억할 수 있다.
이러한 메모리(172)는 데이터를 일시적으로 기억하기 위한 S-램(Static Random Access Memory, S-RAM), D-램(Dynamic Random Access Memory) 등의 휘발성 메모리와, 데이터를 장기간 저장하기 위한 롬(Read Only Memory), 이피롬(Erasable Programmable Read Only Memory: EPROM), 이이피롬(Electrically Erasable Programmable Read Only Memory: EEPROM), 플래시 메모리 등의 비휘발성 메모리를 포함할 수 있다.
마이크로프로세서(171)는 메모리(172)에 저장된 프로그램에 따라 로봇 움직임 감지부(120)로부터 출력되는 움직임 정보와 로봇 장애물 감지부(130)로부터 출력되는 장애물 정보와 로봇 통신부(160)로부터 출력되는 통신 데이터를 처리할 수 있다. 또한, 마이크로프로세서(171)는 움직임 정보와 장애물 정보와 통신 데이터의 처리 결과에 따라 구동부(140)와 청소부(150)와 로봇 통신부(160)를 제어하기 위한 제어 신호를 생성할 수 있다. 예를 들어, 마이크로프로세서(171)는 로봇 장애물 감지부(130)로부터 출력되는 장애물 정보를 기초로 장애물을 우회하거나 회피하도록 구동 제어 신호를 생성할 수 있다.
마이크로프로세서(171)는 로봇 움직임 감지부(120)로부터 출력되는 움직임 정보를 기초로 주행 공간을 나타내는 지도를 생성하고, 지도에 관한 정보를 메모리(172)에 저장할 수 있다.
마이크로프로세서(171)는 사용자 단말(200)의 위치와 사용자 단말(200)의 지시 방향을 판단하기 위한 통신 제어 신호를 출력할 수 있다. 마이크로프로세서(171)는 사용자 단말(200)과의 통신 결과(감지 신호와 응답 신호의 시간 차이)를 기초로 사용자 단말(200)의 위치에 관한 정보와 사용자 단말(200)의 지시 방향에 관한 정보를 생성할 수 있다. 또한, 마이크로프로세서(171)는 사용자 단말(200)의 위치에 관한 정보와 사용자 단말(200)의 지시 방향에 관한 정보를 기초로 사용자 단말(200)이 지시하는 목표 위치(T)를 판단할 수 있다.
마이크로프로세서(171)는 이동 로봇(100)이 목표 위치(T)로 이동하도록 구동 제어 신호를 생성할 수 있다.
이러한 마이크로프로세서(171)는 논리 연산 및 산술 연산 등을 수행하는 연산 회로와, 연산된 데이터를 기억하는 기억 회로와, 연산 회로 및 기억 회로를 제어하는 제어 회로 등을 포함할 수 있다.
이상에서 설명된 바와 같이, 이동 로봇(100)은 사용자 단말(200)의 위치와 사용자 단말(200)의 지시 방향을 판단하고, 사용자 단말(200)의 위치와 사용자 단말(200)의 지시 방향을 기초로 사용자 단말(200)이 지시하는 목표 위치(T)를 판단할 수 있다. 또한, 이동 로봇(100)은 사용자 단말(200)이 지시하는 목표 위치(T)를 향하여 이동할 수 있다.
도 8은 일 실시예에 의한 사용자 단말의 구성을 도시한다. 도 9는 일 실시예에 의한 사용자 단말의 외관을 도시한다. 도 10은 일 실시예에 의한 사용자 단말에 포함된 단말 통신부의 일 예를 도시한다. 도 11은 일 실시예에 의한 사용자 단말에 포함된 단말 통신부의 다른 일 예를 도시한다.
도 8, 도 9, 도 10 및 도 11을 참조하면, 사용자 단말(200)은 단말 본체(201)를 포함하며, 단말 본체(201)는 사용자 단말(200)을 구성하는 구성 부품들을 수용하고 구성 부품들을 외력으로부터 보호할 수 있다.
단말 본체(201)의 내부 또는 외부에는 사용자(U)와 상호 작용하는 단말 컨트롤 패널(210)과, 사용자 단말(200)의 움직임을 감지하는 단말 움직임 감지부(220)와, 사용자 단말(200)과 목표 위치(T) 사이의 거리를 감지하는 거리 감지부(250)와, 이동 로봇(100)과 통신하는 단말 통신부(230)와, 사용자 단말(200)의 동작을 제어하는 단말 제어부(240)가 마련된다. 다만, 사용자 단말(200)의 구성은 도 8에 도시된 바에 한정되는 것은 아니며, 필요에 따라 다른 구성이 추가되거나 그 일부가 생략될 수도 있다.
단말 컨트롤 패널(210)은 단말 본체(201) 상면에 마련될 수 있으며, 사용자(U)로부터 사용자 입력을 수신하는 복수의 단말 입력 버튼(211)을 포함할 수 있다.
단말 입력 버튼(211)은 이동 로봇(100)의 동작에 관한 다양한 사용자 입력을 수신하기 위한 복수의 버튼들을 포함할 수 있다. 예를 들어, 단말 입력 버튼(211)은 이동 로봇(100)의 전원 버튼과, 이동 로봇(100)의 동작 버튼과, 이동 로봇(100)의 복귀 버튼과, 이동 로봇(100)을 목표 위치(T)로 이동시키기 위한 이동 버튼 등을 포함할 수 있다.
단말 입력 버튼(211)에 포함된 복수의 버튼들 각각은 사용자 입력을 수신하고, 사용자 입력에 대응하는 사용자 제어 신호를 로봇 제어부(170)로 출력할 수 있다. 또한, 단말 입력 버튼(211)에 포함된 복수의 버튼들 각각은 푸시 스위치, 터치 스위치, 다이얼, 슬라이드 스위치, 토글 스위치 등 다양한 입력 수단에 의하여 구현될 수 있다.
단말 움직임 감지부(220)는 사용자(U)가 사용자 단말(200)을 이용하여 목표 위치(T)를 지시할 때 사용자 단말(200)의 움직임 및 자세를 감지할 수 있다. 예를 들어, 단말 움직임 감지부(220)는 사용자 단말(200)의 선형 이동 가속도, 선형 이동 속도, 선형 이동 변위, 선형 이동 방향, 기울어짐, 회전 이동 각속도, 회전 이동 각변위 및/또는 회전 방향(회전 이동의 축 방향) 등을 감지할 수 있다.
단말 움직임 감지부(220)는 사용자 단말(200)의 선형 이동을 감지하는 단말 가속도 센서(221)와, 사용자 단말(200)의 회전 이동을 감지하는 단말 자이로 센서(222)를 포함할 수 있다.
단말 가속도 센서(221)는 사용자 단말(200)의 선형 이동에 의한 x축 가속도, y축 가속도 및/또는 z축 가속도(3축 선형 가속도)를 측정할 수 있다. 예를 들어, 단말 가속도 센서(221)는 지구 중력에 의한 가속도(중력 가속도)를 기준으로 사용자 단말(200)의 선형 이동 가속도를 측정할 수 있다. 또한, 단말 가속도 센서(221)는 중력 가속도의 방향 변화를 기초로 사용자 단말(200)의 자세를 판단할 수 있다.
단말 자이로 센서(222)는 사용자 단말(200)의 회전 이동에 의한 x축 중심의 각속도(회전 속도), y축 중심의 각속도 및/또는 z축 중심의 각속도(3축 각속도)를 측정할 수 있다. 또한, 단말 자이로 센서(222)는 이동 로봇(100)의 회전 이동 각속도로부터 사용자 단말(200)의 회전 이동 변위를 산출할 수 있다.
이처럼, 단말 움직임 감지부(220)는 사용자 단말(200)의 선형 이동 가속도, 선형 이동 속도, 선형 이동 변위, 선형 이동 방향, 회전 이동 각속도, 회전 이동 각변위 및/또는 회전 방향(회전 이동의 축 방향) 등 움직임에 관한 정보와 사용자 단말(200)의 기울어짐 등 자세에 관한 정보를 단말 제어부(240)로 출력할 수 있다.
거리 감지부(250)는 사용자 단말(200)과 목표 위치(T) 사이의 거리를 감지할 수 있다.
거리 감지부(250)는 사용자 단말(200)이 지시하는 방향을 향하여 감지 매체(예를 들어, 광 또는 초음파 또는 전파 등)을 발신하는 발신부(251)와, 바닥 면으로부터 반사되는 감지 매체를 수신하는 수신부(252)를 포함할 수 있다.
발신부(251)는 광을 발신하는 발광 다이오드 또는 초음파를 발신하는 초음파 스피커 또는 전파를 발신하는 안테나 등을 포함할 수 있으며, 사용자 단말(200)이 지시하는 방향으로 광 또는 초음파 또는 전파 등을 발신할 수 있다.
발신부(251)로부터 발신된 감지 매체가 바닥 면에 도달하면, 감지 매체는 바닥 면으로부터 반사될 수 있다. 또한, 감지 매체가 도달한 바닥 면의 위치가 목표 위치(T)가 될 수 있다.
수신부(252)는 바닥 면으로부터 반사된 광 또는 초음파 또는 전파 등을 수신할 수 있다.
거리 감지부(250)는 수신부(252)에 의한 감지된 감지 매체의 세기 및/또는 감지 매체의 발신과 수신 사이의 시간 차이 등으로부터 사용자 단말(200)과 감지 매체가 반사된 위치(목표 위치) 사이의 거리를 판단할 수 있다.
이처럼, 거리 감지부(250)는 사용자 단말(200)과 목표 위치(T) 사이의 거리에 관한 정보를 단말 제어부(240)로 출력할 수 있다.
단말 통신부(230)는 이동 로봇(100)과 통신 데이터를 주고 받을 수 있다. 통신 데이터는 다양한 매체에 의하여 전송될 수 있다. 예를 들어, 통신 데이터는 광 또는 초음파 또는 전파를 통하여 전송될 수 있다.
이하에서는 이해를 돕기 위하여 통신 데이터가 전파를 통하여 전송됨이 가정된다. 특히, 단말 통신부(230)는 초광대역(Ultra Wide Band, UWB) 통신 방식을 이용하여 이동 로봇(100)과 통신 데이터를 주고 받을 수 있다.
단말 통신부(230)는 초광대역 무선 신호를 송신 및 수신하기 위한 단말 송수신기(231)와, 송신할 초광대역 무선 신호를 생성하고 수신된 초광대역 무선 신호를 처리하는 단말 통신 프로세서(232)를 포함할 수 있다.
단말 송수신기(231)는 자유 공간으로부터 초광대역 무선 신호를 수신하거나 자유 공간으로 초광대역 무선 신호를 송신할 수 있으며, 안테나 및 증폭기를 포함할 수 있다.
단말 통신 프로세서(232)는 단말 제어부(240)의 통신 제어 신호에 따라 초광대역 무선 신호를 생성하고, 단말 송수신기(231)에 의하여 수신된 초광대역 무선 신호를 처리할 수 있다.
단말 통신부(230)는 1개 이상의 단말 송수신기(231)와 1개 이상의 단말 통신 프로세서(232)를 포함할 수 있다.
예를 들어, 도 10에 도시된 바와 같이, 단말 통신부(230)는 2개의 단말 송수신기(231)와 2개의 단말 통신 프로세서(232)를 포함할 수 있다.
단말 통신부(230)는 제1 단말 송수신기(231a)와 제2 단말 송수신기(231b)를 포함할 수 있다. 제1 단말 송수신기(231a)와 제2 단말 송수신기(231b)는 사용자 단말(200) 상에 길이 방향을 배치될 수 있다. 다시 말해, 제1 단말 송수신기(231a)와 제2 단말 송수신기(231b)을 연결하면 가상의 직선이 형성되며, 가상의 직선이 지시하는 방향은 사용자 단말(200)이 지시하는 방향과 동일할 수 있다.
단말 통신부(230)는 제1 단말 통신 프로세서(232a)와 제2 단말 통신 프로세서(232)를 더 포함할 수 있으며, 제1 단말 통신 프로세서(232a)와 제2 단말 통신 프로세서(232)는 각각 제1 단말 송수신기(231a)와 제2 단말 송수신기(231b)와 인접한 위치에 설치될 수 있다.
제1 단말 통신 프로세서(232a)는 제1 단말 송수신기(231a)를 통하여 송수신되는 초광대역 무선 신호를 처리하며, 제2 단말 통신 프로세서(232)는 제2 단말 송수신기(231b)를 통하여 송수신되는 초광대역 무선 신호를 처리할 수 있다.
다른 예로, 도 11에 도시된 바와 같이, 단말 통신부(230)는 2개의 단말 송수신기(231)와 1개의 단말 통신 프로세서(232)를 포함할 수 있다.
단말 통신부(230)는 제1 단말 송수신기(231a)와 제2 단말 송수신기(231b)를 포함할 수 있다. 제1 단말 송수신기(231a)와 제2 단말 송수신기(231b)는 사용자 단말(200) 상에 길이 방향을 배치될 수 있다. 다시 말해, 제1 단말 송수신기(231a)와 제2 단말 송수신기(231b)을 연결하면 가상의 직선이 형성되며, 가상의 직선이 지시하는 방향은 사용자 단말(200)이 지시하는 방향과 동일할 수 있다. 또한, 단말 통신부(230)는 제1 단말 통신 프로세서(232a)를 더 포함할 수 있으며, 제1 단말 통신 프로세서(232a)는 임의의 위치에 설치될 수 있다.
제1 단말 통신 프로세서(232a)는 제1 단말 송수신기(231a)를 통하여 송수신되는 초광대역 무선 신호와 제2 단말 송수신기(231b)를 통하여 송수신되는 초광대역 무선 신호를 교대로 처리할 수 있다.
단말 통신부(230)는 초광대역 통신 방식을 이용하여 이동 로봇(100)과 통신 데이터를 주고 받을 수 있을 뿐만 아니라, 단말 통신부(230)는 이동 로봇(100)과 단말 송수신기(231) 사이의 거리를 측정하기 위하여 이동 로봇(100)과 초광대역 무선 신호를 주고 받을 수 있다.
예를 들어, 사용자 단말(200)은 단말 송수신기(231)를 통하여 이동 로봇(100)의 감지 신호를 수신하고, 감지 신호의 수신에 응답하여 이동 로봇(100)으로 응답 신호를 전송할 수 있다.
구체적으로, 사용자 단말(200)은 제1 단말 송수신기(231a)를 통하여 이동 로봇(100)의 감지 신호를 수신하고, 이후 제1 단말 송수신기(231a)를 통하여 이동 로봇(100)으로 응답 신호를 전송할 수 있다. 또한, 사용자 단말(200)은 제2 단말 송수신기(231b)를 통하여 이동 로봇(100)의 감지 신호를 수신하고, 이후 제2 단말 송수신기(231b)를 통하여 이동 로봇(100)으로 응답 신호를 전송할 수 있다.
이동 로봇(100)은 감지 신호의 전송과 응답 신호의 수신 사이의 시간 차이를 기초로 제1 단말 송수신기(231a)와 로봇 송수신기(161) 사이의 거리 및 제2 단말 송수신기(231b)와 로봇 송수신기(161) 사이의 거리를 판단할 수 있다. 이동 로봇(100)은 제1 단말 송수신기(231a)와 로봇 송수신기들(161a, 161b, 161c) 사이의 거리들을 기초로 제1 단말 송수신기(231a)의 위치를 판단할 수 있으며, 제2 단말 송수신기(231b)와 로봇 송수신기들(161a, 161b, 161c) 사이의 거리들을 기초로 제2 단말 송수신기(231b)의 위치를 판단할 수 있다. 또한, 이동 로봇(100)은 제1 단말 송수신기(231a)의 위치와 제2 단말 송수신기(231b)의 위치를 기초로 사용자 단말(200)의 지시 방향을 판단할 수 있다.
단말 제어부(240)는 단말 컨트롤 패널(210)의 사용자 입력을 처리하고, 단말 통신부(230)로 통신 제어 신호 및/또는 통신 데이터를 출력할 수 있다.
단말 제어부(240)는 사용자의 목표 위치 이동 명령의 수신에 응답하여 단말 통신부(230)를 통하여 이동 로봇(100)에 목표 위치 이동 명령을 전송할 수 있다. 또한, 단말 제어부(240)는 단말 통신부(230)가 이동 로봇(100)의 감지 신호에 응답하여 응답 신호를 전송하도록 단말 통신부(230)를 제어할 수 있다.
단말 제어부(240)는 마이크로 컨트롤러(241)를 포함할 수 있다.
마이크로 컨트롤러(241)는 내부에 저장된 프로그램에 따라 사용자 입력을 처리하고, 사용자 입력에 대응하는 통신 제어 신호 및/또는 통신 데이터를 생성할 수 있다. 예를 들어, 사용자의 목표 위치 이동 명령에 응답하여 마이크로 컨트롤러(241)는 이동 로봇(100)이 사용자 단말(200)의 위치와 사용자 단말(200)의 지시 방향을 판단하도록 하는 통신 제어 신호를 출력할 수 있다.
이러한 마이크로 컨트롤러(241)는 논리 연산 및 산술 연산 등을 수행하는 연산 회로와, 연산된 데이터를 기억하는 기억 회로와, 연산 회로 및 기억 회로를 제어하는 제어 회로 등을 포함할 수 있다.
이상에서 설명된 바와 같이, 사용자 단말(200)은 사용자 입력을 수신하고, 이동 로봇(100)이 사용자 단말(200)의 위치와 사용자 단말(200)의 지시 방향을 판단할 수 있도록 이동 로봇(100)과 통신할 수 있다.
이하에서는 이동 로봇(100)과 사용자 단말(200)의 동작이 설명된다.
도 12는 일 실시예에 의한 이동 로봇이 목표 위치를 판단하는 일 예를 도시한다.
도 12와 함께, 이동 로봇(100)이 사용자 단말(200)이 지시하는 목표 위치(T)를 판단하는 방법이 설명된다.
사용자(U)는 사용자 단말(200)을 이용하여 목표 위치(T)를 지정할 수 있다. 예를 들어, 도 12에 도시된 바와 같이 사용자(U)는 사용자 단말(200)이 목표 위치(T)를 지시하도록 사용자 단말(200)을 쥐고, 단말 컨트롤 패널(210)에 마련된 이동 버튼을 누를 수 있다. 단말 컨트롤 패널(210)의 이동 버튼이 눌려지면 목표 위치 이동 명령이 입력되며, 사용자 단말(200)은 이동 로봇(100)에 목표 위치 이동 명령을 전송할 수 있다.
목표 위치(T)를 판단하기 위하여, 이동 로봇(100)은 사용자 단말(200)의 위치(P1)의를 판단할 수 있다. 구체적으로, 이동 로봇(100)은 이동 로봇(100)으로부터 사용자 단말(200)의 상대적인 위치를 판단할 수 있다.
이동 로봇(100)은 도 12에 도시된 바와 같이 상대 좌표계를 설정할 수 있다. 이동 로봇(100)의 상대 좌표계는 이동 로봇(100)의 위치(P0)를 원점(0, 0, 0)으로 하며, 이동 로봇(100)의 전방 방향(F)을 +y축 방향으로 하고, 이동 로봇(100)의 우측 방향을 +x축 방향으로 하고, 이동 로봇(100)의 상방을 +z축 방향으로 할 수 있다.
이동 로봇(100)은 이동 로봇(100)의 상대 좌표계에서 사용자 단말(200)의 좌표(x1, y1, z1)를 판단할 수 있다. 예를 들어, 이동 로봇(100)은 이동 로봇(100)에 포함된 로봇 송수신기들(161a, 161b, 161c)과 사용자 단말(200) 사이의 거리를 기초로 사용자 단말(200)의 좌표(x1, y1, z1)를 판단할 수 있다.
또한, 목표 위치(T)를 판단하기 위하여 이동 로봇(100)은 사용자 단말(200)의 지시 방향(D1)과, 목표 위치(T)와 사용자 단말(200) 사이의 거리(L1)를 판단할 수 있다.
사용자 단말(200)의 지시 방향(D1)을 판단하기 위하여 이동 로봇(100)은 사용자 단말(200)의 지시 방향(D1)과 수직 방향(G1) 사이의 제1 각도(Θ1)를 판단할 수 있다. 예를 들어, 사용자 단말(200)은 단말 움직임 감지부(220)의 출력을 기초로 제1 각도(Θ1)를 판단할 수 있으며, 제1 각도(Θ1)에 관한 정보를 이동 로봇(100)으로 전송할 수 있다.
또한, 이동 로봇(100)은 사용자 단말(200)의 지시 방향(D1)이 바닥 면(xy평면)에 투영된 방향(D2) (이하, '바닥 면 상의 지시 방향'이라 한다)과 이동 로봇(100)의 전방 방향(F) 사이의 제2 각도(Θ2)를 판단할 수 있다. 예를 들어, 이동 로봇(100)은 사용자 단말(200)의 제1 단말 송수신기(231a)의 좌표(x1, y1, z1)와 제2 단말 송수신기(231b)의 좌표(x2, y2, z2)를 판단하고, 제1 단말 송수신기(231a)의 좌표(x1, y1, z1)와 제2 단말 송수신기(231b)의 좌표(x2, y2, z2)를 기초로 제2 각도(Θ2)를 판단할 수 있다.
또한, 사용자 단말(200)은 거리 감지부(250)의 출력을 기초로 목표 위치(T)와 사용자 단말(200) 사이의 거리(L1)를 판단할 수 있으며, 목표 위치(T)와 사용자 단말(200) 사이의 거리(L1)에 관한 정보를 이동 로봇(100)으로 전송할 수 있다.
이동 로봇(100)은 사용자 단말(200)의 좌표(x1, y1, z1)와 사용자 단말(200)의 지시 방향(제1 각도 및 제2 각도)과 목표 위치(T)와 사용자 단말(200) 사이의 거리(L1)로부터 목표 위치(T)의 좌표(xT, yT, 0)를 판단할 수 있다.
목표 위치(T)의 x축 좌표(xT) 및 y축 좌표(yT)는 각각 [수학식 1] 및 [수학식 2]에 의하여 산출될 수 있다.
[수학식 1]
Figure PCTKR2018010127-appb-I000001
[수학식 2]
Figure PCTKR2018010127-appb-I000002
(단, xT는 목표 위치의 x축 좌표, yT는 목표 위치의 y축 좌표, x1은 사용자 단말 위치의 x축 좌표, y1은 사용자 단말 위치의 y축 좌표, L1은 목표 위치와 사용자 단말 사이의 거리, Θ1은 제1 각도, Θ2는 제2 각도를 나타낸다.)
이상에서 설명된 바와 같이, 이동 로봇(100)는 사용자 단말(200)의 위치(P1)와 사용자 단말(200)의 지시 방향(D1, D2)을 기초로 목표 위치(T)를 판단할 수 있다.
이하에서는 이동 로봇(100)의 목표 위치 판단 방법이 보다 상세하게 설명된다.
도 13은 일 실시예에 의한 이동 로봇의 목표 위치 판단 방법을 도시한다. 도 14는 일 실시예에 의한 이동 로봇이 사용자 단말의 위치를 판단하는 일 예를 도시한다. 도 15는 일 실시예에 의한 이동 로봇이 사용자 단말의 위치를 판단하는 다른 일 예를 도시한다. 도 16 및 도 17은 일 실시예에 의한 이동 로봇이 사용자 단말의 지시 방향을 판단하는 일 예를 도시한다.
도 13, 도 14, 도 15, 도 16 및 도 17과 함께, 이동 로봇(100)의 목표 위치 판단 방법(1000)이 설명된다.
이동 로봇(100)은 사용자 단말(200)의 위치(P1)을 획득한다(1010).
이동 로봇(100)은 사용자 단말(200)과의 통신을 이용하여 사용자 단말(200)의 위치(P1)를 판단할 수 있다.
이동 로봇(100)은 로봇 송수신기(161)를 통하여 사용자 단말(200)과 초광대역 무선 신호를 주고 받을 수 있으며, 초광대역 무선 신호의 전파 시간을 기초로 로봇 송수신기(161)와 사용자 단말(200) 사이의 거리를 판단할 수 있다. 또한, 이동 로봇(100)은 로봇 송수신기(161)와 사용자 단말(200) 사이의 거리를 기초로 사용자 단말(200)의 위치(P1)를 판단할 수 있다.
예를 들어, 도 14에 도시된 바와 같이 이동 로봇(100)은 제1 로봇 송수신기(161a)와 제2 로봇 송수신기(161b)와 제3 로봇 송수신기(161c)를 포함할 수 있으며, 제1 로봇 송수신기(161a)와 제2 로봇 송수신기(161b)와 제3 로봇 송수신기(161c)은 서로 미리 정해진 거리(a)만큼 이격될 수 있다. 또한, 사용자 단말(200)은 제1 단말 송수신기(231a)를 포함할 수 있으며, 제1 단말 송수신기(231a)의 위치(P1)는 사용자 단말(200)의 위치로 가정할 수 있다.
이동 로봇(100)은 제1 로봇 송수신기(161a)을 통하여 감지 신호를 전송하고, 사용자 단말(200)은 제1 단말 송수신기(231a)를 통하여 감지 신호를 수신할 수 있다. 사용자 단말(200)은 감지 신호에 응답하여 제1 단말 송수신기(231a)를 통하여 응답 신호를 전송할 수 있으며, 이동 로봇(100)은 제1 로봇 송수신기(161a)을 통하여 응답 신호를 수신할 수 있다. 이동 로봇(100)은 감지 신호의 전송과 응답 신호의 수신 사이의 응답 시간 간격을 측정할 수 있다. 또한, 이동 로봇(100)은 응답 시간 간격으로부터 사용자 단말(200)의 감지 신호 처리 시간을 뺀 무선 신호 전파 시간을 산출할 수 있으며, 무선 신호 전파 시간으로부터 사용자 단말(200)의 제1 단말 송수신기(231a)과 제1 로봇 송수신기(161a) 사이의 제1 거리(d1)를 판단할 수 있다.
이동 로봇(100)은 제2 로봇 송수신기(161b)을 통하여 감지 신호를 전송하고, 사용자 단말(200)은 감지 신호의 수신에 응답하여 제1 단말 송수신기(231a)를 통하여 응답 신호를 전송할 수 있다. 이동 로봇(100)은 제2 로봇 송수신기(161b)을 통하여 응답 신호를 수신할 수 있다. 이동 로봇(100)은 감지 신호의 전송과 응답 신호의 수신 사이의 응답 시간 간격을 측정할 수 있으며, 응답 시간 간격을 기초로 사용자 단말(200)의 제1 단말 송수신기(231a)과 제2 로봇 송수신기(161b) 사이의 제2 거리(d2)를 판단할 수 있다.
이동 로봇(100)은 제3 로봇 송수신기(161c)을 통하여 감지 신호를 전송하고, 사용자 단말(200)은 감지 신호의 수신에 응답하여 제1 단말 송수신기(231a)를 통하여 응답 신호를 전송할 수 있다. 이동 로봇(100)은 제3 로봇 송수신기(161c)을 통하여 응답 신호를 수신할 수 있다. 이동 로봇(100)은 감지 신호의 전송과 응답 신호의 수신 사이의 응답 시간 간격을 측정할 수 있으며, 응답 시간 간격을 기초로 사용자 단말(200)의 제1 단말 송수신기(231a)과 제3 로봇 송수신기(161c) 사이의 제3 거리(d3)를 판단할 수 있다.
이동 로봇(100)은 제1 거리(d1), 제2 거리(d2), 제3 거리(d3), 제1 단말 송수신기(231a)의 좌표, 제2 단말 송수신기(231b)의 좌표 및 제3 단말 송수신기(231c)의 좌표를 기초로 사용자 단말(200)의 좌표(x1, y1, z1) (정확히는 제1 단말 송수신기의 좌표)를 판단할 수 있다. 이때, 제1 단말 송수신기(231a)의 좌표는 (0,
Figure PCTKR2018010127-appb-I000003
,0)이며, 제2 단말 송수신기(231b)의 좌표는 (
Figure PCTKR2018010127-appb-I000004
,
Figure PCTKR2018010127-appb-I000005
,0 )이며, 제3 단말 송수신기(231c)의 좌표는 (
Figure PCTKR2018010127-appb-I000006
,
Figure PCTKR2018010127-appb-I000007
,0 )일 수 있다.사용자 단말(200)의 좌표(x1, y1, z1)와 제1 단말 송수신기(231a)의 좌표와 제1 거리(d1)는 [수학식 3]의 관계를 갖는다.
[수학식 3]
Figure PCTKR2018010127-appb-I000008
(단, x1은 사용자 단말의 x축 좌표, y1은 사용자 단말의 y축 좌표, z1은 사용자 단말의 x축 좌표, a는 제1 단말 송수신기와 제2 단말 송수신기와 제3 단말 송수신기 사이의 거리, d1은 제1 거리를 나타낸다.)
사용자 단말(200)의 좌표(x1, y1, z1)와 제2 단말 송수신기(231b)의 좌표와 제2 거리(d2)는 [수학식 4]의 관계를 갖는다.
[수학식 4]
Figure PCTKR2018010127-appb-I000009
(단, x1은 사용자 단말의 x축 좌표, y1은 사용자 단말의 y축 좌표, z1은 사용자 단말의 x축 좌표, a는 단말 송수신기 사이의 거리, d2은 제2 거리를 나타낸다.)
사용자 단말(200)의 좌표(x1, y1, z1)와 제3 단말 송수신기(231c)의 좌표와 제3 거리(d3)는 [수학식 5]의 관계를 갖는다.
[수학식 5]
Figure PCTKR2018010127-appb-I000010
(단, x1은 사용자 단말의 x축 좌표, y1은 사용자 단말의 y축 좌표, z1은 사용자 단말의 x축 좌표, a는 단말 송수신기 사이의 거리, d3은 제3 거리를 나타낸다.)
이동 로봇(100)은 가우스-뉴턴법(Gauss-Newton Method)을 이용하여 [수학식 3], [수학식 4] 및 [수학식 5]의 연립 근사해(x1, y1, z1)를 산출할 수 있다.
다른 예로, 도 15에 도시된 바와 같이 이동 로봇(100)은 제1 로봇 송수신기(161a)를 포함할 수 있다.
이동 로봇(100)은 사용자 단말(200)의 좌표(x1, y1, z1)를 판단하기 위하여 제자리에서 회전할 수 있으며, 제자리에 회전하는 동안 제1 로봇 송수신기(161a)의 좌표와 사용자 단말(200)과 제1 로봇 송수신기(161a) 사이의 거리를 판단할 수 있다.
도 15의 (a)에 도시된 바와 같이 제자리에서 '0'도 회전한 때 이동 로봇(100)는 응답 시간 간격을 기초로 사용자 단말(200)과 제1 로봇 송수신기(161a) 사이의 제1 거리(d1)를 판단할 수 있다. 도 15의 (b)에 도시된 바와 같이 제자리에서 '120'도 회전한 때 이동 로봇(100)는 응답 시간 간격을 기초로 사용자 단말(200)과 제1 로봇 송수신기(161a) 사이의 제2 거리(d2)를 판단할 수 있다. 또한, 도 15의 (c)에 도시된 바와 같이 제자리에서 '240'도 회전한 때 이동 로봇(100)는 응답 시간 간격을 기초로 사용자 단말(200)과 제1 로봇 송수신기(161a) 사이의 제3 거리(d3)를 판단할 수 있다.
이동 로봇(100)은 제1 거리(d1), 제2 거리(d2) 및 제3 거리(d3)를 기초로 삼각 측량법을 이용하여 사용자 단말(200)의 좌표(x1, y1, z1) (정확히는 제1 단말 송수신기의 좌표)를 판단할 수 있다.
이동 로봇(100)은 가우스-뉴턴법을 이용하여 [수학식 3], [수학식 4] 및 [수학식 5]의 연립 근사해(x1, y1, z1)를 산출할 수 있다.
사용자 단말(200)의 좌표(x1, y1, z1)를 판단하기 위하여 이동 로봇(100)이 사용자 단말(200)과 제1 로봇 송수신기(161a) 사이의 거리를 판단하는 지점은 3개에 한정되지 않는다. 예를 들어, 이동 로봇(100)은 제자리에서 회전하는 동안 수십 개의 지점에서 사용자 단말(200)과 제1 로봇 송수신기(161a) 사이의 거리를 판단할 수 있으며, 사용자 단말(200)의 좌표와 제1 로봇 송수신기(161a)의 좌표 사이의 수십 개의 방정식을 획득할 수 있다. 또한, 이동 로봇(100)은 가우스-뉴턴법을 이용하여 수십 개의 연립 방정식의 해를 산출할 수 있다.
또 다른 예로, 이동 로봇(100)은 제1 로봇 송수신기(161a)를 포함할 수 있으며, 사용자 단말(200)의 좌표(x1, y1, z1)를 판단하기 위하여 이동할 수 있다. 이동하는 동안 이동 로봇(100)은 제1 로봇 송수신기(161a)의 좌표와 사용자 단말(200)과 제1 로봇 송수신기(161a) 사이의 거리를 판단할 수 있으며, 사용자 단말(200)의 좌표와 제1 로봇 송수신기(161a)의 좌표 사이의 수십 개의 방정식을 획득할 수 있다. 이동 로봇(100)은 가우스-뉴턴법을 이용하여 수십 개의 연립 방정식의 해를 산출할 수 있다.
구체적으로, 이동 로봇(100)의 이동 중에 이동 로봇(100)의 좌표와 이동 로봇(100)이 향하는 방향(전방 방향, 로봇 자이로 센서의 출력 값)이 변화할 수 있다. 이동 로봇(100)의 좌표와 전방 방향이 변화함으로 인하여 제1 로봇 송수신기(161a)의 좌표(Xr, Yr, 0) 역시 함께 변화할 수 있다. 뿐만 아니라, 이동 로봇(100)의 이동으로 인하여 제1 로봇 송수신기(161a)과 사용자 단말(200) 사이의 거리(d) 역시 함께 변화할 수 있다.
이동 중에 이동 로봇(100)은 제1 로봇 송수신기(161a)의 좌표들((Xr1, Yr2, 0), (Xr2, Yr2, 0), (Xr3, Yr3, 0) … )과 제1 로봇 송수신기(161a)과 사용자 단말(200) 사이의 거리들(d1, d2, d3, …)를 측정할 수 있다. 제1 위치에서의 제1 로봇 송수신기(161a)의 좌표(Xr1, Yr1, 0)와 제1 로봇 송수신기(161a)과 사용자 단말(200) 사이의 거리(d1), 제2 위치에서의 제1 로봇 송수신기(161a)의 좌표(Xr2, Yr2, 0)와 제1 로봇 송수신기(161a)과 사용자 단말(200) 사이의 거리(d2), 제3 위치에서의 제1 로봇 송수신기(161a)의 좌표(Xr3, Yr3, 0)와 제1 로봇 송수신기(161a)과 사용자 단말(200) 사이의 거리(d3)가 측정될 수 있다.
또한, 이동 로봇(100)은 제1 로봇 송수신기(161a)의 좌표들((Xr1, Yr2, 0), (Xr2, Yr2, 0), (Xr3, Yr3, 0) … )과 제1 로봇 송수신기(161a)과 사용자 단말(200) 사이의 거리들(d1, d2, d3, …)은 [수학식 6]의 관계를 갖는다.
[수학식 6]
Figure PCTKR2018010127-appb-I000011
Figure PCTKR2018010127-appb-I000012
Figure PCTKR2018010127-appb-I000013
(단, x1은 사용자 단말의 x축 좌표, y1은 사용자 단말의 y축 좌표, Xr1는 제1 위치에서의 제1 로봇 송수신기의 x축 좌표, Yr1은 제1 위치에서의 제1 로봇 송수신기의 y축 좌표, d1은 제1 위치에서의 제1 로봇 송수신기와 사용자 단말 사이의 거리, Xr2는 제2 위치에서의 제1 로봇 송수신기의 x축 좌표, Yr2은 제2 위치에서의 제1 로봇 송수신기의 y축 좌표, d2은 제2 위치에서의 제1 로봇 송수신기와 사용자 단말 사이의 거리, Xr3는 제3 위치에서의 제1 로봇 송수신기의 x축 좌표, Yr3은 제3 위치에서의 제1 로봇 송수신기의 y축 좌표, d3은 제3 위치에서의 제1 로봇 송수신기와 사용자 단말 사이의 거리를 나타낸다.)
이동 로봇(100)은 가우스-뉴턴법을 이용하여 [수학식 6]의 연립 근사해(x1, y1, 0)를 산출할 수 있다. [수학식 6]에는 3개의 연립 방정식이 기재되었으나, 이에 한정되지 아니하며 수 개에서 수 백개까지의 연립 방정식이 획득될 수 있다.
또한, 사용자 단말(200)의 z축 좌표(z1)는 제1 로봇 송수신기(161a)의 좌표들((Xr1, Yr2, 0), (Xr2, Yr2, 0), (Xr3, Yr3, 0) … )과 제1 로봇 송수신기(161a)과 사용자 단말(200) 사이의 거리들(d1, d2, d3, …)로부터 산출되거나, 사용자 단말(200)의 거리 감지부(250)에 의하여 검출된 목표 위치(T)와 사용자 단말(200) 사이의 거리(L1)로부터 산출될 수 있다.
또한, 이동 로봇(100)은 사용자 단말(200)의 지시 방향(D1)과 수직 방향(G1) 사이의 제1 각도(Θ1)를 획득한다(1020).
사용자 단말(200)은 단말 가속도 센서(221)를 이용하여 사용자 단말(200)의 자세를 판단할 수 있다. 단말 가속도 센서(221)는 지구 중력에 의한 가속도(중력 가속도)를 기준으로 사용자 단말(200)의 선형 이동 가속도 및/또는 사용자 단말(200)의 자세를 판단할 수 있다. 예를 들어, 단말 가속도 센서(221)는 중력 가속도의 방향 변화를 기초로 사용자 단말(200)의 자세를 판단할 수 있다.
사용자 단말(200)은 단말 가속도 센서(221)의 출력으로부터 사용자 단말(200)의 기울어짐 즉, 사용자 단말(200)의 지시 방향(D1)과 수직 방향(G1) 사이의 제1 각도(Θ1)를 판단할 수 있다. 또한, 사용자 단말(200)은 단말 통신부(230)를 통하여 이동 로봇(100)으로 제1 각도(Θ1)에 관한 정보를 전송할 수 있다.
이동 로봇(100)은 로봇 통신부(160)를 통하여 제1 각도(Θ1)에 관한 정보를 수신할 수 있으며, 제1 각도(Θ1)에 관한 정보로부터 제1 각도(Θ1)를 획득할 수 있다.
또한, 이동 로봇(100)은 바닥 면 상의 지시 방향(D2)과 이동 로봇(100)의 전방 방향(F) 사이의 제2 각도(Θ2)를 획득한다(1030).
제2 각도(Θ2)을 획득하기 위하여 이동 로봇(100)은 사용자 단말(200)이 지시하는 방향을 나타내는 지시 선을 판단할 수 있다. 또한, 지시 선을 판단하기 위하여 이동 로봇(100)은 사용자 단말(200)의 지시 선 상에 위치하는 제1 단말 송수신기(231a)와 제2 단말 송수신기(231b)의 위치를 판단할 수 있다.
제1 단말 송수신기(231a)의 위치(P1)는 동작 1010에서 사용자 단말(200)의 좌표(x1, y1, z1)를 판단하기 위하여 산출된다. 따라서, 제1 단말 송수신기(231a)의 위치는 사용자 단말(200)의 좌표(x1, y1, z1)와 동일할 수 있다.
이동 로봇(100)은 사용자 단말(200)과의 통신을 통하여 제2 단말 송수신기(231b)의 위치(P2)를 판단할 수 있다.
예를 들어, 이동 로봇(100)이 로봇 송수신기(161)를 통하여 감지 신호를 전송하고, 사용자 단말(200)은 제2 단말 송수신기(231b)를 통하여 감지 신호를 수신할 수 있다. 사용자 단말(200)은 감지 신호에 응답하여 제2 단말 송수신기(231b)를 통하여 응답 신호를 전송할 수 있으며, 이동 로봇(100)은 로봇 송수신기(161)을 통하여 응답 신호를 수신할 수 있다.
이동 로봇(100)는 감지 신호의 전송과 응답 신호의 수신 사이의 응답 시간 간격을 측정할 수 있으며, 도 16에 도시된 바와 같이 제4 거리(d4), 제5 거리(d5) 및 제6 거리(d6)를 판단할 수 있다.
이동 로봇(100)은 제4 거리(d4), 제5 거리(d5) 및 제6 거리(d6)를 기초로 삼각 측량법을 이용하여 제2 단말 송수신기(231b)의 좌표(x2, y2, z2)를 판단할 수 있다.
이동 로봇(100)은 도 17에 도시된 바와 같이 제1 단말 송수신기(231a)의 xy좌표(x1, y1)와 2 단말 송수신기(231)의 xy좌표(x2, y2)를 기초로 바닥 면(xy평면) 상에서의 사용자 단말(200)의 지시 선을 산출할 수 있으며, 또한 지시 선의 기울기를 기초로 바닥 면 상의 지시 방향(D2)와 이동 로봇(100)의 전방 방향(F) 사이의 제2 각도(Θ2)를 산출할 수 있다.
이동 로봇(100)은 [수학식 7]을 이용하여 제2 각도(Θ2)를 산출할 수 있다.
[수학식 7]
Figure PCTKR2018010127-appb-I000014
(단, Θ2는 제2 각도, x1은 제1 단말 송수신기의 x축 좌표, y1은 제1 단말 송수신기의 y축 좌표, x2은 제2 단말 송수신기의 x축 좌표, y2은 제2 단말 송수신기의 y축 좌표를 나타낸다.)
이동 로봇(100)은 사용자 단말(200)에 의하여 지시된 목표 위치(T)를 판단한다(1040).
이동 로봇(100)은 사용자 단말(200)의 좌표(x1, y1, z1)와, 사용자 단말(200)의 지시 방향(D1)과 수직 방향(G1) 사이의 제1 각도(Θ1)와, 바닥 면 상의 지시 방향(D2)과 이동 로봇(100)의 전방 방향(F) 사이의 제2 각도(Θ2)를 기초로 목표 위치(T)의 좌표(xT, yT, 0)를 판단할 수 있다. 예를 들어, 목표 위치(T)의 x축 좌표(xT) 및 y축 좌표(yT)는 각각 앞서 설명된 [수학식 1] 및 [수학식 2]에 의하여 산출될 수 있다.
목표 위치(T)를 판단한 이후, 이동 로봇(100)은 목표 위치(T)를 향하여 이동할 수 있다.
이상에서 설명된 바와 같이, 이동 로봇(100)은 사용자 단말(200)과의 통신을 통하여 사용자 단말(200)의 위치(P1) 및 사용자 단말(200)의 지시 방향(D1, D2)을 판단할 수 있으며, 사용자 단말(200)의 위치(P1) 및 사용자 단말(200)의 지시 방향(D1)을 기초로 목표 위치(T)를 판단할 수 있다.
이동 로봇(100)은 3 또는 1개의 로봇 송수신기(161)를 포함할 수 있다. 이동 로봇(100)이 제1 로봇 송수신기(161a)와 제2 로봇 송수신기(161b)와 제3 로봇 송수신기(161c)를 포함하는 경우, 이동 로봇(100)은 제1 로봇 송수신기(161a)와 제2 로봇 송수신기(161b)와 제3 로봇 송수신기(161c) 각각과 사용자 단말(200) 사이의 거리를 기초로 사용자 단말(200)의 위치(P1)를 판단할 수 있다. 또한, 이동 로봇(100)이 제1 로봇 송수신기(161a)를 포함하는 경우, 이동 로봇(100)은 제자리 회전 또는 이동 중에 제1 로봇 송수신기(161a)와 사용자 단말(200) 사이의 거리를 기초로 사용자 단말(200)의 위치(P1)를 판단할 수 있다.
또한, 사용자 단말(200)은 이동 로봇(100)과 데이터를 주고 받을 수 있는 제1 단말 송수신기(231a)와 제2 단말 송수신기(231b)를 포함할 수 있으며, 이동 로봇(100)은 제1 단말 송수신기(231a)의 위치(P1)와 제2 단말 송수신기(231b)의 위치(P2)를 기초로 사용자 단말(200)의 지시 방향(D1, D2)을 판단할 수 있다.
도 18는 일 실시예에 의한 이동 로봇이 목표 위치로 이동하는 방법을 도시한다.
도 18와 함께, 이동 로봇(100)의 목표 위치 이동 방법(1200)이 설명된다.
이동 로봇(100)는 사용자 단말(200)로부터 이동 로봇 호출 신호를 수신한다(1210).
사용자(U)는 목표 위치(T)를 지정하기 전에 사용자 단말(200)을 이용하여 이동 로봇(100)을 호출할 수 있다. 예를 들어, 이동 로봇(100)과 사용자 단말(200) 사이에 장애물이 위치하는 경우, 이동 로봇(100)이 정확한 목표 위치(T)를 판단하기 어려움이 있다.
따라서, 목표 위치(T)를 지정하기 전에 이동 로봇(100)이 사용자 단말(200)과 근접한 위치로 이동할 수 있도록 사용자(U)는 사용자 단말(200)을 이용하여 이동 로봇(100)을 호출할 수 있으며, 이동 로봇(100)은 호출 신호를 수신할 수 이다.
이동 로봇(100)은 사용자 단말(200)의 위치를 판단한다(1220).
이동 로봇(100)은 사용자 단말(200)과의 통신을 이용하여 사용자 단말(200)의 위치를 판단할 수 있다. 예를 들어, 이동 로봇(100)은 로봇 송수신기(161)를 통하여 사용자 단말(200)과 초광대역 무선 신호를 주고 받을 수 있으며, 초광대역 무선 신호의 전파 시간을 기초로 로봇 송수신기(161)와 사용자 단말(200) 사이의 거리를 판단할 수 있다. 또한, 이동 로봇(100)은 로봇 송수신기(161)와 사용자 단말(200) 사이의 거리를 기초로 사용자 단말(200)의 위치를 판단할 수 있다.
다만, 이동 로봇(100)과 사용자 단말(200) 사이에 장애물이 위치하는 경우, 이동 로봇(100)은 정확한 사용자 단말(200)의 위치를 판단하기 어려움이 있으나, 사용자 단말(200)이 위치하는 방향을 판단할 수 있다.
이동 로봇(100)은 사용자 단말(200)을 향하여 이동한다(1230).
이동 로봇(100)은 사용자 단말(200)의 위치 또는 사용자 단말(200)의 방향을 향하여 이동하도록 구동부(140)를 제어할 수 있다. 또한, 사용자 단말(200)을 향하여 이동하는 중에 장애물(예를 들어, 벽 또는 가구 등)이 검출되면 이동 로봇(100)는 장애물을 회피하거나, 장애물의 외각선을 따라 주행할 수 있다.
이동 로봇(100)은 주행 공간을 나타내는 지도를 기초로 이동 로봇(100)으로부터 사용자 단말(200)의 위치까지 경로를 생성하고, 생성된 경로를 따라 사용자 단말(200)을 향하여 이동할 수 있다.
또한, 이동 로봇(100)는 사용자 단말(200)을 향하여 이동하는 중에 주기적으로 사용자 단말(200)의 위치를 갱신하고, 갱신된 사용자 단말(200)의 위치를 향하여 이동할 수 있다.
특히, 이동 로봇(100)은 사용자 단말(200)을 향하여 이동하는 동안 이동 로봇(100)과 사용자 단말(200) 사이의 거리들을 판단할 수 있으며, 이동 로봇(100)이 사용자 단말(200)에 가까워짐에 따라 이동 로봇(100)과 사용자 단말(200) 사이의 거리 데이터들의 개수가 증가한다. 또한, 이동 로봇(100)과 사용자 단말(200) 사이의 거리 데이터들의 개수가 증가함에 따라 이동 로봇(100)은 더욱 정확한 사용자 단말(200)의 위치를 판단할 수 있다. 구체적으로, 이동 로봇(100)은 이동 중에 자신의 위치값이 변화면서 로봇에 장착된 로봇 송수신기, 사용자 단말(200)과 이동 로봇(100) 사이의 거리 등의 데이터를 최소 수십개 획득하고, 수십 개의 원의 연립방정식으로 표현한 후, 가우스-뉴턴법을 이용하여 연립 방정식의 해(즉, 사용자 단말(200)의 좌표)를 산출할 수 있다.
이동 로봇(100)은 사용자 단말(200)로부터 목표 위치 지정 신호를 수신한다(1240).
사용자(U)는 이동 로봇(100)의 위치가 확인하거나 이동 로봇(100)이 사용자 단말(200)에 근접하면 사용자 단말(200)을 이용하여 목표 위치(T)를 지정하기 위한 사용자 입력을 입력할 수 있다.
사용자 단말(200)은 목표 위치(T)를 지정하기 위한 사용자 입력에 응답하여 이동 로봇(100)으로 목표 위치 지정 신호를 전송할 수 있다.
이동 로봇(100)은 사용자 단말(200)의 위치(P1)를 판단한다(1250).
이동 로봇(100)은 사용자 단말(200)과의 통신을 이용하여 사용자 단말(200)의 위치(P1)를 판단할 수 있다.
사용자 단말(200)의 위치(P1)를 판단하는 방법은 도 13에 도시된 동작 1010과 동일할 수 있다.
이동 로봇(100)은 사용자 단말(200)의 지시 방향(D1)을 판단한다(1260).
이동 로봇(100)은 사용자 단말(200)의 지시 방향(D1)을 판단하기 위하여 사용자 단말(200)의 지시 방향(D1)과 수직 방향(G1) 사이의 제1 각도(Θ1)와, 바닥 면 상의 지시 방향(D2)와 이동 로봇(100)의 전방 방향(F) 사이의 제2 각도(Θ2)를 판단할 수 있다.
제1 각도(Θ1)를 판단하는 방법은 도 13에 도시된 동작 1020과 동일할 수 있으며, 제2 각도(Θ2)를 판단하는 방법은 도 13에 도시된 동작 1030과 동일할 수 있다.
이동 로봇(100)은 목표 위치(T)를 판단한다(1270).
이동 로봇(100)은 사용자 단말(200)의 좌표(x1, y1, z1)와, 제1 각도(Θ1)와, 제2 각도(Θ2)를 기초로 목표 위치(T)의 좌표(xT, yT, 0)를 판단할 수 있다.
목표 위치(T)를 판단하는 방법은 도 13에 도시된 동작 1040과 동일할 수 있다.
이동 로봇(100)은 목표 위치(T)를 향하여 이동한다(1280).
이동 로봇(100)은 목표 위치(T)까지의 경로를 생성하고, 생성된 경로를 따라 이동하도록 구동부(140)를 제어할 수 있다.
이상에서 설명된 바와 같이, 이동 로봇(100)이 목표 위치(T)를 보다 정확하게 판단할 수 있도록 사용자(U)는 이동 로봇(100)를 호출하고, 이후 목표 위치(T)를 지정할 수 있다. 호출 신호가 수신되면 이동 로봇(100)은 사용자 단말(200)을 향하여 이동하고, 목표 위치 지정 신호가 수신되면 이동 로봇(100)은 목표 위치(T)를 향하여 이동할 수 있다.
도 19는 일 실시예에 의한 이동 로봇 시스템을 도시한다.
도 19를 참조하면, 이동 로봇 시스템(2)은 바닥을 주행하는 이동 로봇(100)과, 이동 로봇(100)의 주행을 제어하는 사용자 단말(200)과, 이동 로봇(100)을 충전하는 충전 스테이션(300)과, 이동 로봇(100) 및 사용자 단말(200)과 통신하는 제1 비콘(400) 및 제2 비콘(500)을 포함할 수 있다.
이동 로봇(100)은 주행 공간의 바닥을 주행할 수 있다. 이동 로봇(100)은 도 1과 함께 설명된 이동 로봇(100)과 동일할 수 있다.
사용자 단말(200)은 사용자(U)의 사용자 입력을 수신하고, 사용자 입력에 대응하는 사용자 제어 신호를 이동 로봇(100)으로 전송할 수 있다. 사용자 단말(200)은 도 1과 함께 설명된 사용자 단말(200)과 동일할 수 있다.
충전 스테이션(300)은 이동 로봇(100)의 구성 부품들에 전력을 공급하는 배터리를 충전할 수 있으며, 먼지를 저장하는 먼지함을 비울 수 있다. 충전 스테이션(300)은 주행 공간 내에 임의의 위치에 설치될 수 있다.
또한, 충전 스테이션(300)은 이동 로봇(100) 및 사용자 단말(200)과 데이터를 주고받을 수 있다. 예를 들어, 충전 스테이션(300)는 이동 로봇(100)의 위치를 판단하기 위하여 이동 로봇(100)과 초광대역 무선 신호를 주고 받을 수 있으며, 사용자 단말(200)의 위치를 판단하기 위하여 사용자 단말(200)과 초광대역 무선 신호를 주고 받을 수 있다.
제1 비콘(400) 및 제2 비콘(500)은 각각 이동 로봇(100) 및 사용자 단말(200)과 데이터를 주고받을 수 있다. 예를 들어, 제1 비콘(400) 및 제2 비콘(500)은 각각 이동 로봇(100)의 위치를 판단하기 위하여 이동 로봇(100)과 초광대역 무선 신호를 주고 받을 수 있으며, 사용자 단말(200)의 위치를 판단하기 위하여 사용자 단말(200)과 초광대역 무선 신호를 주고 받을 수 있다.
이처럼, 이동 로봇(100)의 위치를 판단하기 위하여 이동 로봇(100)은 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500)과 통신할 수 있다. 또한, 사용자 단말(200)의 위치 및 사용자 단말(200)의 지시 방향을 판단하기 위하여 사용자 단말(200)은 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500)과 통신할 수 있다.
이동 로봇(100)은 이동 로봇(100)의 위치, 사용자 단말(200)의 위치 및 사용자 단말(200)의 지시 방향을 기초로 사용자 단말(200)이 지시하는 목표 위치(T)를 판단할 수 있다.
도 20는 일 실시예에 의한 이동 로봇이 목표 위치를 판단하는 방법을 도시한다. 도 21은 일 실시예에 의한 사용자 단말의 위치를 판단하는 일 예를 도시한다. 도 22은 일 실시예에 의한 사용자 단말의 지시 방향을 판단하는 일 예를 도시한다.
도 20, 도 21 및 도 22과 함께, 이동 로봇(100)의 목표 위치 판단 방법(1100)이 설명된다.
이동 로봇(100)은 사용자 단말(200)의 위치(P1)를 획득한다(1110).
사용자 단말(200)의 위치(P1)는 기준점(예를 들어, 충전 스테이션의 위치)을 원점으로 하는 좌표계에서의 좌표를 나타낼 수 있다. 좌표계는 이동 로봇(100)의 위치 또는 이동에 의하여 변하지 않는 절대 좌표계일 수 있다.
사용자 단말(200)은 제1 단말 송수신기(231a)를 통하여 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500) 각각과의 통신할 수 있으며, 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500) 각각과의 통신을 이용하여 사용자 단말(200)의 위치(P1)를 판단할 수 있다.
사용자 단말(200)은 제1 단말 송수신기(231a)를 통하여 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500) 각각과 초광대역 무선 신호를 주고 받을 수 있으며, 초광대역 무선 신호의 전파 시간을 기초로 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500) 각각과 제1 단말 송수신기(231a) 사이의 거리를 판단할 수 있다. 또한, 사용자 단말(200)은 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500) 각각과 제1 단말 송수신기(231a) 사이의 거리를 기초로 사용자 단말(200)의 위치(P1)를 판단할 수 있다.
예를 들어, 도 21에 도시된 바와 같이 사용자 단말(200)은 제1 단말 송수신기(231a)을 통하여 감지 신호를 전송하고, 충전 스테이션(300)은 감지 신호에 응답하여 응답 신호를 전송할 수 있다. 사용자 단말(200)은 제1 단말 송수신기(231a)를 통하여 충전 스테이션(300)의 응답 신호를 수신하고, 감지 신호의 전송과 응답 신호의 수신 사이의 응답 시간 간격을 기초로 제1 단말 송수신기(231a)와 충전 스테이션(300) 사이의 제1 거리(d1)을 판단할 수 있다.
또한, 사용자 단말(200)은 제1 비콘(400)의 통신을 통하여 제1 단말 송수신기(231a)와 제1 비콘(400) 사이의 제2 거리(d2)을 판단하고, 제2 비콘(500)의 통신을 통하여 제1 단말 송수신기(231a)와 제2 비콘(500) 사이의 제3 거리(d3)을 판단할 수 있다.
사용자 단말(200)은 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500) 각각과 제1 단말 송수신기(231a) 사이의 거리(d1, d2, d3)로부터 사용자 단말(200)의 좌표(x1, y1, z1) (정확히는 제1 단말 송수신기의 좌표)를 판단할 수 있으며, 사용자 단말(200)의 위치(P1)에 관한 정보를 이동 로봇(100)으로 전송할 수 있다. 이동 로봇(100)은 사용자 단말(200)의 위치(P1)에 관한 정보로부터 사용자 단말(200)의 위치(P1)를 판단할 수 있다.
뿐만 아니라, 사용자 단말(200)은 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500) 각각과 제1 단말 송수신기(231a) 사이의 거리(d1, d2, d3)에 관한 정보를 이동 로봇(100)으로 전송할 수 있다. 이동 로봇(100)은 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500) 각각과 제1 단말 송수신기(231a) 사이의 거리(d1, d2, d3)를 기초로 사용자 단말(200)의 위치(P1)를 판단할 수 있다.
이동 로봇(100)은 사용자 단말(200)의 지시 방향(D1)를 획득한다(1120).
사용자 단말(200)의 지시 방향(D1)은 사용자 단말(200)의 지시 방향(D1)과 수직 방향(G1) 사이의 제1 각도(Θ1)와, 바닥 면 상의 지시 방향(D2)와 +y축 방향 사이의 제2 각도(Θ2)로 나타낼 수 있다.
제1 각도(Θ1)을 판단하기 위하여 사용자 단말(200)은 단말 가속도 센서(221)를 이용하여 사용자 단말(200)의 자세를 판단할 수 있다. 단말 가속도 센서(221)는 중력 가속도의 방향 변화를 기초로 사용자 단말(200)의 자세를 판단할 수 있다.
사용자 단말(200)은 단말 가속도 센서(221)의 출력으로부터 사용자 단말(200)의 기울어짐 즉, 사용자 단말(200)의 지시 방향(D1)과 수직 방향(G1) 사이의 제1 각도(Θ1)를 판단할 수 있다. 또한, 사용자 단말(200)은 단말 통신부(230)를 통하여 이동 로봇(100)으로 제1 각도(Θ1)에 관한 정보를 전송할 수 있다.
제2 각도(Θ2)을 판단하기 위하여 사용자 단말(200)은 도 22에 도시된 바와 같이 제2 단말 송수신기(231b)의 위치(P2)를 판단할 수 있다. 제2 단말 송수신기(231b)의 위치(P2)는 기준점(예를 들어, 충전 스테이션의 위치)을 원점으로 하는 좌표계에서의 좌표를 나타낼 수 있다.
사용자 단말(200)은 제2 단말 송수신기(231b)를 통하여 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500) 각각과의 통신할 수 있으며, 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500) 각각과 제2 단말 송수신기(231b) 사이의 거리를 판단할 수 있다
사용자 단말(200)은 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500) 각각과 제2 단말 송수신기(231b) 사이의 거리를 기초로 제2 단말 송수신기(231b)의 좌표(x2, y2, z2)를 판단할 수 있으며, 제1 단말 송수신기(231a)의 좌표(x1, y1, z1)와 제2 단말 송수신기(231b)의 좌표(x2, y2, z2)를 기초로 제2 각도(Θ2)을 판단할 수 있다. 사용자 단말(200)은 단말 통신부(230)를 통하여 이동 로봇(100)으로 제2 각도(Θ2)에 관한 정보를 전송할 수 있으며, 이동 로봇(100)은 사용자 단말(200)로부터 제1 각도(Θ1)에 관한 정보와 제2 각도(Θ2)에 관한 정보로부터 사용자 단말(200)의 지시 방향(D1)을 나타내는 제1 각도(Θ1)와 제2 각도(Θ2)를 판단할 수 있다.
뿐만 아니라, 사용자 단말(200)은 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500) 각각과 제2 단말 송수신기(231b) 사이의 거리에 관한 정보를 이동 로봇(100)으로 전송할 수 있다. 이동 로봇(100)은 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500) 각각과 제2 단말 송수신기(231b) 사이의 거리를 기초로 제2 단말 송수신기(231b)의 좌표(x2, y2, z2)를 판단할 수 있으며, 제1 단말 송수신기(231a)의 좌표(x1, y1, z1)와 제2 단말 송수신기(231b)의 좌표(x2, y2, z2)를 기초로 제2 각도(Θ2)을 판단할 수 있다.
이동 로봇(100)은 사용자 단말(200)에 의하여 지시된 목표 위치(T)를 판단한다(1130).
이동 로봇(100)은 사용자 단말(200)의 좌표(x1, y1, z1)와, 제1 각도(Θ1)와, 제2 각도(Θ2)를 기초로 목표 위치(T)의 좌표(xT, yT, 0)를 판단할 수 있다. 예를 들어, 목표 위치(T)의 x축 좌표(xT) 및 y축 좌표(yT)는 각각 앞서 설명된 [수학식 1] 및 [수학식 2]에 의하여 산출될 수 있다.
이동 로봇(100)은 이동 로봇(100)의 위치(P0)를 획득한다(1140).
이동 로봇(100)의 위치(P0)는 기준점(예를 들어, 충전 스테이션의 위치)을 원점으로 하는 좌표계에서의 좌표를 나타낼 수 있다.
이동 로봇(100)은 로봇 송수신기(161)를 통하여 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500) 각각과의 통신할 수 있으며, 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500) 각각과의 통신을 이용하여 이동 로봇(100)의 위치(P0)를 판단할 수 있다.
이동 로봇(100)는 로봇 송수신기(161)를 통하여 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500) 각각과 초광대역 무선 신호를 주고 받을 수 있으며, 초광대역 무선 신호의 전파 시간을 기초로 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500) 각각과 로봇 송수신기(161) 사이의 거리를 판단할 수 있다. 또한, 이동 로봇(100)은 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500) 각각과 로봇 송수신기(161) 사이의 거리를 기초로 이동 로봇(100)의 좌표(x0, y0, 0)를 판단할 수 있다.
이동 로봇(100)은 목표 위치(T)를 향하여 이동한다(1150).
이동 로봇(100)은 이동 로봇(100)이 위치(P0)와 목표 위치(T)를 기초로 목표 위치(T)까지의 경로를 생성할 수 있으며, 생성된 경로를 따라 목표 위치(T)를 향하여 이동할 수 있다.
또한, 이동 로봇(100)은 목표 위치(T)를 향하여 이동 중에 이동 로봇(100)의 위치를 갱신할 수 있다.
이상에서 설명된 바와 같이, 이동 로봇(100)과 사용자 단말(200)은 충전 스테이션(300), 제1 비콘(400) 및 제2 비콘(500)과의 통신을 통하여 이동 로봇(100)의 위치(P0), 사용자 단말(200)의 위치(P1) 및 사용자 단말(200)의 지시 방향(D1)을 판단할 수 있다. 또한, 이동 로봇(100)은 사용자 단말(200)의 위치(P1) 및 사용자 단말(200)의 지시 방향(D1)을 기초로 목표 위치(T)를 판단할 수 있다.
한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.
컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.
이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 게시된 실시예가 속하는 기술분야에서 통상의 지식을 가진 자는 게시된 실시예의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.

Claims (15)

  1. 사용자 장치에 의하여 지시된 목표 위치로 이동하는 이동 로봇에 있어서,
    상기 이동 로봇을 이동시키는 구동부;
    상기 사용자 장치에 포함된 제1 단말 송수신기와 제2 단말 송수신기 각각과 무선 신호를 주고 받는 통신부; 및
    상기 제1 단말 송수신기와의 무선 신호의 송수신과 상기 제2 단말 송수신기와의 무선 신호의 송수신 이후 상기 목표 위치로 이동하도록 상기 구동부를 제어하는 제어부를 포함하는 이동 로봇.
  2. 제1항에 있어서,
    상기 제어부는 상기 제1 단말 송수신기의 통신 응답 시간과 상기 제2 단말 송수신기의 통신 응답 시간을 기초로 상기 목표 위치를 판단하고, 상기 목표 위치로 이동하도록 상기 구동부를 제어하는 이동 로봇.
  3. 제2항에 있어서,
    상기 제어부는 상기 제1 단말 송수신기의 통신 응답 시간과 상기 제2 단말 송수신기의 통신 응답 시간을 기초로 상기 사용자 단말의 위치와 상기 사용자 단말의 지시 방향을 판단하고, 상기 사용자 단말의 위치와 상기 사용자 단말의 지시 방향을 기초로 상기 목표 위치를 판단하는 이동 로봇.
  4. 제3항에 있어서,
    상기 제어부는 상기 제1 단말 송수신기의 통신 응답 시간을 기초로 상기 제1 단말 송수신기의 위치를 판단하고, 상기 제2 단말 송수신기의 통신 응답 시간을 기초로 상기 제2 단말 송수신기의 위치를 판단하고, 상기 제1 단말 송수신기의 위치와 상기 제2 단말 송수신기의 위치를 기초로 상기 사용자 단말의 위치와 상기 사용자 단말의 지시 방향을 판단하는 이동 로봇.
  5. 제4항에 있어서,
    상기 통신부는 제1 로봇 송수신기, 제2 로봇 송수신기 및 제3 로봇 송수신기를 포함하고,
    상기 제어부는 상기 제1, 제2 및 제3 로봇 송수신기 각각과 상기 제1 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 제1 단말 송수신기의 위치를 판단하고, 상기 제1, 제2 및 제3 로봇 송수신기 각각과 상기 제1 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 제2 단말 송수신기의 위치를 판단하는 이동 로봇.
  6. 제4항에 있어서,
    상기 통신부는 제1 로봇 송수신기를 포함하고,
    상기 제어부는 상기 이동 로봇이 제자리에서 회전하는 동안 상기 제1 로봇 송수신기와 상기 제1 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 제1 단말 송수신기의 위치를 판단하고, 상기 이동 로봇이 제자리에서 회전하는 동안 상기 제1 로봇 송수신기와 상기 제2 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 제2 단말 송수신기의 위치를 판단하는 이동 로봇.
  7. 제1항에 있어서,
    상기 통신부는 제1 로봇 송수신기, 제2 로봇 송수신기 및 제3 로봇 송수신기를 포함하고,
    상기 제어부는 상기 제1, 제2 및 제3 로봇 송수신기 각각과 상기 제1 단말 송수신기 사이의 통신 응답 시간과 상기 제1, 제2 및 제3 로봇 송수신기 각각과 상기 제2 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 목표 위치를 판단하는 이동 로봇.
  8. 제1항에 있어서,
    상기 통신부는 제1 로봇 송수신기를 포함하고,
    상기 이동 로봇이 제자리에서 회전하는 동안 상기 제어부는 상기 제1 로봇 송수신기와 상기 제1 단말 송수신기 사이의 통신 응답 시간과 상기 제1 로봇 송수신기와 상기 제2 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 목표 위치를 판단하는 이동 로봇.
  9. 사용자 단말에 의하여 지시된 목표 위치로 이동 로봇을 이동시키는 이동 로봇의 제어 방법에 있어서,
    상기 사용자 장치에 포함된 제1 단말 송수신기와 제2 단말 송수신기 각각과 무선 신호를 주고 받고;
    상기 제1 단말 송수신기의 통신 응답 시간과 상기 제2 단말 송수신기의 통신 응답 시간을 기초로 상기 목표 위치를 판단하고;
    상기 이동 로봇을 상기 목표 위치로 이동시키는 것을 포함하는 이동 로봇의 제어 방법.
  10. 제9항에 있어서,
    상기 목표 위치를 판단하는 것은,
    상기 제1 단말 송수신기의 통신 응답 시간과 상기 제2 단말 송수신기의 통신 응답 시간을 기초로 상기 사용자 단말의 위치와 상기 사용자 단말의 지시 방향을 판단하고;
    상기 사용자 단말의 위치와 상기 사용자 단말의 지시 방향을 기초로 상기 목표 위치를 판단하는 것을 포함하는 이동 로봇의 제어 방법.
  11. 제10항에 있어서,
    상기 사용자 단말의 위치와 상기 사용자 단말의 지시 방향을 판단하는 것은,
    상기 제1 단말 송수신기의 통신 응답 시간을 기초로 상기 제1 단말 송수신기의 위치를 판단하고;
    상기 제2 단말 송수신기의 통신 응답 시간을 기초로 상기 제2 단말 송수신기의 위치를 판단하고;
    상기 제1 단말 송수신기의 위치와 상기 제2 단말 송수신기의 위치를 기초로 상기 사용자 단말의 위치와 상기 사용자 단말의 지시 방향을 판단하는 것을 포함하는 이동 로봇의 제어 방법.
  12. 제11항에 있어서,
    상기 제1 단말 송수신기의 위치를 판단하는 것은, 상기 이동 로봇에 포함된 제1, 제2 및 제3 로봇 송수신기 각각과 상기 제1 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 제1 단말 송수신기의 위치를 판단하는 것을 포함하고,
    상기 제2 단말 송수신기의 위치를 판단하는 것은, 상기 제1, 제2 및 제3 로봇 송수신기 각각과 상기 제1 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 제2 단말 송수신기의 위치를 판단하는 것을 포함하는 이동 로봇의 제어 방법.
  13. 제11항에 있어서,
    상기 제1 단말 송수신기의 위치를 판단하는 것은, 상기 이동 로봇이 제자리에서 회전하는 동안 상기 이동 로봇에 포함된 제1 로봇 송수신기와 상기 제1 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 제1 단말 송수신기의 위치를 판단하는 것을 포함하고,
    상기 제2 단말 송수신기의 위치를 판단하는 것은, 상기 이동 로봇이 제자리에서 회전하는 동안 상기 제1 로봇 송수신기와 상기 제2 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 제2 단말 송수신기의 위치를 판단하는 것을 포함하는 이동 로봇의 제어 방법.
  14. 제9항에 있어서,
    상기 목표 위치를 판단하는 것은,
    상기 이동 로봇에 포함된 제1, 제2 및 제3 로봇 송수신기 각각과 상기 제1 단말 송수신기 사이의 통신 응답 시간과 상기 제1, 제2 및 제3 로봇 송수신기 각각과 상기 제2 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 목표 위치를 판단하는 것을 포함하는 이동 로봇의 제어 방법.
  15. 제9항에 있어서,
    상기 목표 위치를 판단하는 것은,
    상기 이동 로봇이 제자리에서 회전하는 동안 상기 이동 로봇에 포함된 제1 로봇 송수신기와 상기 제1 단말 송수신기 사이의 통신 응답 시간과 상기 제1 로봇 송수신기와 상기 제2 단말 송수신기 사이의 통신 응답 시간을 기초로 상기 목표 위치를 판단하는 것을 포함하는 이동 로봇의 제어 방법.
PCT/KR2018/010127 2017-09-14 2018-08-31 이동 로봇 시스템 및 그 제어 방법 WO2019054676A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/647,846 US11465275B2 (en) 2017-09-14 2018-08-31 Mobile robot and method of controlling the same and mobile robot system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020170117505A KR102366796B1 (ko) 2017-09-14 2017-09-14 이동 로봇 시스템 및 그 제어 방법
KR10-2017-0117505 2017-09-14

Publications (1)

Publication Number Publication Date
WO2019054676A1 true WO2019054676A1 (ko) 2019-03-21

Family

ID=65722921

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/010127 WO2019054676A1 (ko) 2017-09-14 2018-08-31 이동 로봇 시스템 및 그 제어 방법

Country Status (3)

Country Link
US (1) US11465275B2 (ko)
KR (1) KR102366796B1 (ko)
WO (1) WO2019054676A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114521843A (zh) * 2022-04-21 2022-05-24 深圳市倍思科技有限公司 清洁位置确定方法、装置、终端设备及智能清洁系统

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11835343B1 (en) * 2004-08-06 2023-12-05 AI Incorporated Method for constructing a map while performing work
USD908993S1 (en) * 2018-05-04 2021-01-26 Irobot Corporation Evacuation station
USD1016416S1 (en) 2022-02-14 2024-02-27 Karcher North America, Inc. Floor cleaning machine

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060011552A (ko) * 2004-07-30 2006-02-03 엘지전자 주식회사 이동로봇 및 그의 이동제어방범
US20080009984A1 (en) * 2006-07-07 2008-01-10 Industrial Technology Research Institute Path guidance method for autonomous mobile device
KR20160126968A (ko) * 2014-02-28 2016-11-02 삼성전자주식회사 청소 로봇 및 그에 포함되는 원격 제어기
KR20170000282A (ko) * 2015-06-23 2017-01-02 한국전자통신연구원 센서를 이용한 로봇 위치 정확도 정보 제공장치 및 그 방법
KR20170089074A (ko) * 2016-01-25 2017-08-03 경북대학교 산학협력단 이동 로봇 시스템

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2522926T3 (es) * 2005-12-02 2014-11-19 Irobot Corporation Robot Autónomo de Cubrimiento
KR101099808B1 (ko) * 2005-12-02 2011-12-27 아이로보트 코퍼레이션 로봇 시스템
KR100833125B1 (ko) * 2006-07-11 2008-05-28 이재영 로봇 청소기의 집중 청소 제어방법
KR102153351B1 (ko) * 2013-10-25 2020-09-21 삼성전자주식회사 청소 로봇
US10664502B2 (en) * 2017-05-05 2020-05-26 Irobot Corporation Methods, systems, and devices for mapping wireless communication signals for mobile robot guidance

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060011552A (ko) * 2004-07-30 2006-02-03 엘지전자 주식회사 이동로봇 및 그의 이동제어방범
US20080009984A1 (en) * 2006-07-07 2008-01-10 Industrial Technology Research Institute Path guidance method for autonomous mobile device
KR20160126968A (ko) * 2014-02-28 2016-11-02 삼성전자주식회사 청소 로봇 및 그에 포함되는 원격 제어기
KR20170000282A (ko) * 2015-06-23 2017-01-02 한국전자통신연구원 센서를 이용한 로봇 위치 정확도 정보 제공장치 및 그 방법
KR20170089074A (ko) * 2016-01-25 2017-08-03 경북대학교 산학협력단 이동 로봇 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114521843A (zh) * 2022-04-21 2022-05-24 深圳市倍思科技有限公司 清洁位置确定方法、装置、终端设备及智能清洁系统
CN114521843B (zh) * 2022-04-21 2022-07-12 深圳市倍思科技有限公司 清洁位置确定方法、装置、终端设备及智能清洁系统

Also Published As

Publication number Publication date
KR102366796B1 (ko) 2022-02-24
US11465275B2 (en) 2022-10-11
KR20190030281A (ko) 2019-03-22
US20200223056A1 (en) 2020-07-16

Similar Documents

Publication Publication Date Title
WO2015060672A1 (ko) 청소 로봇
WO2019054676A1 (ko) 이동 로봇 시스템 및 그 제어 방법
AU2019336870B2 (en) Plurality of autonomous mobile robots and controlling method for the same
AU2019262467B2 (en) A plurality of robot cleaner and a controlling method for the same
WO2015130134A1 (ko) 청소 로봇 및 그에 포함되는 원격 제어기
AU2019430311B2 (en) Plurality of autonomous mobile robots and controlling method for the same
WO2016200035A1 (en) Moving robot and method for controlling the same
AU2019262482B2 (en) Plurality of autonomous mobile robots and controlling method for the same
WO2017105130A1 (ko) 통신 장치 및 이를 구비하는 전자기기
WO2016027957A1 (ko) 청소 로봇, 청소 로봇의 제어 장치, 제어 시스템, 및 제어 방법
WO2020050494A1 (en) A robot cleaner and a controlling method for the same
WO2019212239A1 (en) A plurality of robot cleaner and a controlling method for the same
WO2019212278A1 (en) Plurality of autonomous mobile robots and controlling method for the same
WO2020060155A1 (en) Robot cleaner, charging device and charging system
WO2019212276A1 (en) Plurality of autonomous mobile robots and controlling method for the same
AU2019262477B2 (en) Plurality of autonomous mobile robots and controlling method for the same
WO2016028021A1 (ko) 청소 로봇 및 그 제어 방법
WO2019212281A1 (en) Plurality of autonomous mobile robots and controlling method for the same
WO2019212277A1 (en) Plurality of autonomous mobile robots and controlling method for the same
WO2021006542A1 (en) Mobile robot using artificial intelligence and controlling method thereof
WO2018212608A1 (ko) 구동형 마킹 시스템, 구동형 마킹 장치의 제어방법 및 컴퓨터 판독 가능한 기록매체
WO2022005067A1 (ko) 로봇 청소기와 이를 구비하는 로봇 청소기 시스템 및 로봇 청소기 시스템의 제어 방법
WO2021006671A1 (en) Mobile robot using artificial intelligence and control method thereof
WO2021006553A1 (en) Moving robot and control method thereof
WO2020122590A1 (en) Method and robot device for sharing object data

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18855822

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18855822

Country of ref document: EP

Kind code of ref document: A1