WO2021101090A1 - 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법 - Google Patents

이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법 Download PDF

Info

Publication number
WO2021101090A1
WO2021101090A1 PCT/KR2020/014477 KR2020014477W WO2021101090A1 WO 2021101090 A1 WO2021101090 A1 WO 2021101090A1 KR 2020014477 W KR2020014477 W KR 2020014477W WO 2021101090 A1 WO2021101090 A1 WO 2021101090A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobile robot
result
robot
signal
information
Prior art date
Application number
PCT/KR2020/014477
Other languages
English (en)
French (fr)
Inventor
노동기
백승민
이재광
주정우
이재민
박성연
정민국
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to AU2020389328A priority Critical patent/AU2020389328A1/en
Priority to US17/777,732 priority patent/US20230024763A1/en
Priority to EP20891067.9A priority patent/EP4063079A4/en
Publication of WO2021101090A1 publication Critical patent/WO2021101090A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D34/00Mowers; Mowing apparatus of harvesters
    • A01D34/006Control or measuring arrangements
    • A01D34/008Control or measuring arrangements for automated or remotely controlled operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1684Tracking a line or surface by means of sensors
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01DHARVESTING; MOWING
    • A01D2101/00Lawn-mowers

Definitions

  • Embodiments of the present specification relate to a mobile robot system for autonomously driving a driving area and a method of generating boundary information of the mobile robot system.
  • a mobile robot is a device that automatically performs a predetermined operation while traveling in a predetermined area without user's manipulation.
  • the mobile robot detects obstacles installed in the area and performs an action by approaching or avoiding the obstacle.
  • Such a mobile robot may include a cleaning robot that performs cleaning while driving the area, as well as a mobile robot that mows the grass on the floor of the area.
  • mobile robot devices are riding-type devices that mow grass or mow grass on the floor while moving according to the user's driving, and a walk-behind-type or hand-type that mows the grass while the user moves or drags manually.
  • Such a mobile robot device moves by a user's direct manipulation and mows the lawn, which causes the user to operate the device directly. Accordingly, a mobile robot-type mobile robot device having a means for mowing the grass in the mobile robot is being studied.
  • U.S. Patent Publication 2017-0150676 published date: June 1, 2017 (hereinafter referred to as prior literature)
  • a plurality of beacons are installed at the boundary of the driving area, so that the robot can follow the boundary.
  • a technology is disclosed in which a relative position with the beacon is determined based on a signal transmitted from the beacon while driving, and coordinate information is stored thereon to be used for position determination. That is, the prior document transmits and receives signals to and from a plurality of beacons distributed in a boundary portion of the driving area, and sets a driving area based on the transmission and reception result, so that an accurate driving area/ Location recognition is achieved. Due to this, it is possible to partially improve the limitation of position recognition of the mobile robot system.
  • the prior literature has a limitation in that the boundary area is set only by simply installing a beacon, and thus the boundary setting is limited.
  • the boundary area is set only according to the installation state of the beacon, there is a concern that boundary formation may be made incorrectly depending on the communication performance of the beacon. That is, with the conventional boundary setting technology, there is a limitation in that it is difficult to establish a boundary according to a user's request and an accurate boundary setting.
  • a technology for accurately and conveniently setting boundaries according to a user's request has not been proposed, and this has a problem in which the usability, safety, reliability, and convenience of the mobile robot are limited.
  • the present specification is to provide an embodiment of a mobile robot system and a method of generating boundary information of the mobile robot system that can improve the limitations of the prior art as described above.
  • a mobile robot system capable of simply and conveniently obtaining boundary information of a traveling area of a mobile robot and a method of generating boundary information of the mobile robot system is provided.
  • a boundary area is designated as a point of a distance sensor, and boundary information is generated according to a designated path using the distance value of the distance sensor.
  • a signal processing device including a reception tag and a distance sensor for receiving a transmission signal is provided, and a point of the distance sensor is designated based on a reception result of the reception tag and a distance measurement result of the distance sensor.
  • boundary information is generated according to a path designated as a point of the distance sensor based on the recognized coordinate information.
  • the mobile robot system and the method of generating boundary information of the mobile robot system of the present specification specify a boundary area through a signal processing device including a reception tag and a distance sensor for receiving a transmission signal, and a reception result of the reception tag and A boundary area is set by recognizing coordinate information corresponding to a designated path based on a measurement result of the distance sensor, and generating boundary information based on the recognized coordinate information.
  • the mobile robot system and the method for generating boundary information of the mobile robot system provided in the present specification through such technical features solves the above-described problem by generating boundary information by designating a point by a signal processing device.
  • the above technical features include a lawnmower robot, a control method of a lawnmower robot, a lawnmower robot system, a control system for a lawnmower robot, a method for controlling a lawnmower robot, a method for setting the boundary area of the lawnmower robot, and a lawnmower robot system.
  • the boundary information generation/acquisition method may be applied to, and the like, and the present specification provides an embodiment of a mobile robot system and a method of generating boundary information of the mobile robot system using the above technical characteristics as a problem solving means.
  • An embodiment of the mobile robot system of the present specification using the above technical characteristics as a problem solving means a plurality of transmitters installed in a boundary area of a driving area to transmit a transmission signal, receiving the transmission signal, and A signal receiving device for measuring a distance to an irradiation point to which the measurement signal is irradiated based on a result of irradiating a measurement signal on the floor surface, and receiving a reception result of the transmitted signal and a measurement result of the distance from the signal receiving device, And a mobile robot that generates boundary information of the driving area in response to a path irradiated with the measurement signal on the floor based on the reception result and the measurement result.
  • an embodiment of the boundary information generation method of the mobile robot system of the present specification which uses the above technical characteristics as a problem solving means, is provided in a boundary area of a driving area and transmits a transmission signal.
  • a signal receiving device for receiving and measuring a distance to an irradiation point to which the measurement signal is irradiated based on a result of irradiating a measurement signal on the floor of the driving area, and a result of receiving the transmission signal from the signal receiving device and the distance
  • a mobile robot system including a mobile robot that receives the measurement result of and generates boundary information of the driving area based on the reception result and the measurement result, a method of generating boundary information of the driving area, wherein the measurement Irradiating a signal to the floor surface in an arbitrary path, transmitting the reception result and the measurement result to the mobile robot by the signal receiving device during the irradiation step, and the reception result and the measurement by the mobile robot And recognizing coordinate information of each of a plurality of irradiation points
  • boundary information is generated by designating a point by a signal processing device, so that boundary information can be obtained simply and conveniently.
  • an embodiment of a mobile robot system and a method of generating boundary information of the mobile robot system of the present specification is to recognize coordinate information using a reception result and a measurement result of a signal processing device, and thus various driving controls using coordinate information and There is an effect that information can be processed.
  • 1A is a conceptual diagram showing a driving principle of a mobile robot system.
  • 1B is a conceptual diagram showing a signal flow between devices for position determination of a mobile robot system.
  • FIG. 2 is a conceptual diagram showing an embodiment of a travel area of a mobile robot.
  • Figure 3a is a configuration diagram showing an embodiment of a mobile robot a.
  • Figure 3b is a configuration diagram showing an embodiment of a mobile robot b.
  • Figure 3c is a configuration diagram showing an embodiment of a mobile robot c.
  • FIG. 4 is a configuration diagram showing a specific configuration of a mobile robot.
  • FIG. 5 is a configuration diagram according to an embodiment of the mobile robot system disclosed in the present specification.
  • FIG. 6 is an exemplary view showing an example of a driving area according to an embodiment of the mobile robot system disclosed in the present specification.
  • FIG. 7 is an exemplary view showing an example of a signal processing apparatus according to an embodiment of the mobile robot system disclosed in the present specification.
  • FIG. 8 is an exemplary diagram illustrating a principle of recognizing coordinate information according to an embodiment of the mobile robot system disclosed in the present specification.
  • FIG. 9 is an exemplary view for explaining a principle of recognizing coordinate information according to an embodiment of the mobile robot system disclosed in the present specification.
  • 10A is an exemplary view illustrating a process of generating boundary information according to an embodiment of the mobile robot system disclosed in the present specification a.
  • 10B is an exemplary view illustrating a boundary information generation process according to an embodiment of the mobile robot system disclosed in the present specification b.
  • FIG. 11 is a flowchart according to an embodiment of a method for generating boundary information of a mobile robot system disclosed in the present specification.
  • the mobile robot may refer to a robot capable of autonomous driving, a lawnmower mobile robot, a lawnmower robot, a lawnmower, or a lawnmower mobile robot.
  • the system may be a system of a mobile robot (hereinafter referred to as a robot) that cuts grass in the travel area.
  • the robot refers to a lawnmower
  • the system 1 may refer to a traveling/control/operation system of a lawnmower that cuts grass in a traveling area.
  • the system 1 includes a terminal 300 displaying a control screen for operation control of the robot 100 and the robot 100 operating in response to manipulation of the control screen. Includes. That is, the terminal 300 displays the control screen on which the control of the mobile robot 100 is performed on the display unit, and the mobile robot 100 controls the driving area according to the manipulation of the control screen. It may be operated to cut the turf in the driving area while driving.
  • the system 1 may further include at least one of a transmitter 200 and a GPS satellite 400 for transmitting and receiving signals with at least one of the robot 100 and the terminal 300.
  • the robot 100 may operate according to a driving principle as illustrated in FIG. 1A, and a signal flow between devices for position determination as illustrated in FIG. 1B may be made. . Accordingly, the robot 100 may travel in the driving area 1000 as illustrated in FIG. 2.
  • the robot 100 may travel by itself within the travel area 1000 as shown in FIG. 2.
  • the robot 100 may perform a specific operation while driving.
  • the specific operation may be an operation of cutting grass in the driving area 1000.
  • the driving area 1000 is an area corresponding to a driving and operating target of the robot 100, and a predetermined outdoor/outdoor area may be formed as the driving area 1000.
  • a garden, a yard, etc. for the robot 100 to cut grass may be formed as the driving area 1000.
  • a charging device 500 for charging the driving power of the robot 100 may be installed in the driving area 1000, and the robot 100 may be installed in the charging device 500 installed in the driving area 1000. It can be docked to charge the driving power.
  • the driving area 1000 may be formed as a certain boundary area 1200 as shown in FIG. 2.
  • the boundary area 1200 corresponds to a boundary line between the driving area 1000 and the external area 1100, so that the robot 100 travels within the boundary area 1200 so as not to deviate from the external area 1100. Can be done.
  • the boundary area 1200 may be formed as a closed curve or a closed loop.
  • the boundary area 1200 may be set based on coordinate information on a map of the driving area 1000. In this case, the robot 100 may recognize the boundary area 1200 by recognizing a virtual boundary line based on the coordinate information.
  • the boundary area 1200 may be set by a wire 1200 formed of a closed curve or a closed loop. In this case, the wire 1200 may be installed in an arbitrary area, and the robot 100 may travel within the driving area 1000 of a closed curve formed by the installed wire 1200.
  • one or more transmitters 200 may be disposed in the driving area 1000 as shown in FIG. 2.
  • the transmitter 200 is a signal generating means for transmitting a signal for the robot 100 to determine location information, and may be distributed and installed in the driving area 1000.
  • the robot 100 may receive a transmission signal transmitted from the transmitter 200 and determine a current position based on a reception result, or may determine position information on the driving area 1000. In this case, the robot 100 may receive the transmission signal through a receiving unit that receives the transmission signal.
  • the transmitter 200 may be preferably disposed in the driving area 1000 in the vicinity of the boundary area 1200. In this case, the robot 100 may determine the border area 1200 based on the placement position of the transmitter 200 disposed in the vicinity of the border area 1200.
  • the robot 100 communicates with the terminal 300 moving a predetermined area as shown in FIG. 1A, and travels while following the location of the terminal 300 based on the data received from the terminal 300 can do.
  • the robot 100 sets a virtual boundary in a predetermined area based on the location information received from the terminal 300 or collected while driving by following the terminal 300, and internally formed by the boundary An area may be set as the driving area 1000.
  • the robot 100 may travel within the driving area 1000 so as not to deviate from the boundary area 1200.
  • the terminal 300 may set the boundary area 1200 and transmit it to the robot 100.
  • the terminal 300 may transmit the changed information to the robot 100 so that the robot 100 can travel in a new area.
  • the terminal 300 may monitor the operation of the robot 100 by displaying data received from the robot 100 on a screen.
  • the robot 100 or the terminal 300 may determine a current location by receiving location information.
  • the robot 100 and the terminal 300 determine the current location based on location information transmitted from the transmitter 200 disposed in the driving area 1000 or a GPS signal using the GPS satellite 400 can do.
  • the robot 100 and the terminal 300 may determine the current position by comparing the signal reception results by receiving transmission signals transmitted from the three transmitters 200, preferably. That is, three or more transmitters 200 may be preferably disposed in the driving area 1000.
  • the robot 100 sets any one point in the travel area 1000 as a reference position, and then calculates a position during movement as a coordinate.
  • the initial start position and the position of the charging device 500 may be set as a reference position, and the coordinates for the driving area 1000 may be set using any one of the transmitters 200 as a reference position. Can be calculated.
  • the robot 100 may set an initial position as a reference position during each operation, and then travel to determine the position. Based on a reference position, the robot 100 calculates a driving distance based on the number of rotations, rotational speed, and rotational direction of the main body 10 of the drive wheel 11, and accordingly, the driving area 1000 ) You can determine the current location within. Even in the case of determining the location using the GPS satellite 400, the robot 100 may determine the location using any one point as a reference location.
  • the robot 100 may determine a current location based on location information transmitted from the transmitter 200 or the GPS satellite 400.
  • the location information may be transmitted in the form of a GPS signal, an ultrasonic signal, an infrared signal, an electromagnetic signal, or an Ultra Wide Band (UWB) signal.
  • the transmission signal transmitted from the transmitter 200 may preferably be an Ultra Wide Band (UWB) signal.
  • the robot 100 may receive the UWB (Ultra Wide Band) signal transmitted from the transmitter 200 and determine the current position based on this.
  • UWB Ultra Wide Band
  • the robot 100 for cutting the grass while traveling in the travel area 1000 as described above includes the main body 10, the driving unit 11 moving the main body 10, and the robot (
  • the communication unit 12 that communicates with the communication target means of 100), the weeding unit 30 and the driving unit 11, the communication unit 12 and the weeding unit 30 are controlled to mow the grass on the floor while driving. It may include a control unit 20 that controls the driving and weeding operation of the robot 100.
  • the robot 100 may be an autonomous driving robot including the main body 10 that is provided to be movable as shown in FIGS. 3B and 3C and that can cut grass.
  • the main body 10 forms the exterior of the robot 100, and is provided with one or more means for performing operations such as driving of the robot 100 and cutting grass.
  • the main body 10 is provided with the driving unit 11 capable of moving and rotating the main body 10 in a desired direction.
  • the driving unit 11 may include a plurality of rotatable driving wheels, and each wheel may be rotated individually, so that the main body 10 may be rotated in a desired direction. More specifically, the driving unit 11 may include at least one main driving wheel 11a and an auxiliary wheel 11b.
  • the main body 10 may include two main driving wheels 11a, and the main driving wheels may be installed on a rear bottom surface of the main body 10.
  • the robot 100 controls the driving unit 11 so that the control unit 20 determines the current position of the main body 10 and moves in the driving area 1000 to drive the main body 10. And controlling the weeding unit 30 to cut the grass on the floor while the main body 10 is traveling in the travel area 1000, thereby controlling the driving of the robot 100 and performing the weeding operation. can do.
  • the robot 100 operating in this manner includes the main body 10, the driving unit 11, the communication unit 12, the weeding unit 30, and the control unit 20. Including, it is possible to cut the turf while driving the driving area 1000.
  • the robot 100 is also one of a receiving unit 13, an output unit 14, a storage unit 15, a sensing unit 16, a photographing unit 17, an input unit 18, and an obstacle detecting unit 19. It may further include more.
  • the driving unit 11 is a driving wheel provided under the main body 10 and may be rotated to move the main body 10. That is, the driving unit 11 may be driven so that the main body 10 travels in the driving area 1000.
  • the driving unit 11 may include at least one driving motor to move the main body 10 so that the robot 100 travels. For example, it may include a left wheel drive motor that rotates the left wheel and a right wheel drive motor that rotates the right wheel.
  • the driving unit 11 may transmit information on a driving result to the control unit 20 and receive a control command for an operation from the control unit 20.
  • the driving unit 11 may operate according to a control command received from the control unit 20. That is, the driving unit 11 may be controlled by the control unit 20.
  • the communication unit 12 may communicate with one or more communication target means that communicate with the robot 100.
  • the communication unit 12 may communicate with the transmitter 200 and the terminal 300 through a wireless communication method.
  • the communication unit 12 may also be connected to a predetermined network to communicate with an external server or the terminal 300 controlling the robot 100.
  • the communication unit 12 transmits the generated map to the terminal 300, receives a command from the terminal 300, and provides information on the operation state of the robot 100. Data can be transmitted to the terminal 300.
  • the communication unit 12 may transmit and receive data including a communication module such as Wi-Fi and WiBro, as well as short-range wireless communication such as ZigBee and Bluetooth.
  • the communication unit 12 may transmit information on a communication result to the control unit 20 and receive a control command for an operation from the control unit 20.
  • the communication unit 12 may operate according to a control command received from the control unit 20. That is, the communication unit 12 may be controlled by the control unit 20.
  • the receiving unit 13 may include a plurality of sensor modules for transmitting and receiving location information.
  • the receiver 13 may include a position sensor module that receives the transmission signal from the transmitter 200.
  • the position sensor module may transmit a signal to the transmitter 200.
  • the receiver 13 includes a sensor module for transmitting/receiving ultrasonic, UWB, and infrared signals corresponding thereto. It can be provided.
  • the receiving unit 13 may preferably include a UWB sensor.
  • UWB radio technology refers to using a very wide frequency band of several GHz or more in a baseband without using a radio carrier (RF carrier).
  • UWB radio technology uses very narrow pulses of several nanoseconds or several picoseconds. Since the pulses emitted from such a UWB sensor are several nanometers or several picos, penetrability is good, and accordingly, very short pulses emitted from other UWB sensors can be received even if there are obstacles around them.
  • the terminal 300 and the robot 100 may each include a UWB sensor and transmit and receive UWB signals to and from each other through the UWB sensor. have.
  • the terminal 300 transmits a UWB signal through an equipped UWB sensor, and the robot 100 determines the location of the terminal 300 based on the UWB signal received through the UWB sensor, and the terminal 300 ) To follow and move.
  • the terminal 300 operates as a transmitting side
  • the robot 100 operates as a receiving side.
  • the transmitter 200 has a UWB sensor and transmits a transmission signal
  • the robot 100 or the terminal 300 may receive the transmission signal transmitted from the transmitter 200 through the UWB sensor. have.
  • the signal method of the transmitter 200 and the signal method of the robot 100 and the terminal 300 may be the same or different.
  • the receiving unit 13 may include a plurality of UWB sensors.
  • UWB sensors When two UWB sensors are included in the receiving unit 17, for example, they are provided on the left and right sides of the main body 10, respectively, and each receive a transmission signal, thereby comparing a plurality of received signals to calculate an accurate position. This can be done. For example, according to the positions of the robot 100 and the transmitter 200 or the terminal 300, when the distance measured by the sensor on the left and the sensor on the right is different, the robot 100 and the The relative position of the transmitter 200 or the terminal 300 and the direction of the robot 100 may be determined.
  • the receiver 13 may further include a GPS module for transmitting and receiving a GPS signal from the GPS satellite 400.
  • the receiving unit 13 may transmit a reception result of the transmission signal to the control unit 20 and receive a control command for an operation from the control unit 20.
  • the receiving unit 13 may operate according to a control command received from the control unit 20. That is, the receiving unit 13 may be controlled by the control unit 20.
  • the output unit 14 is an output means for outputting information on the state of the robot 100 in the form of a voice, and may include, for example, a speaker.
  • the output unit 14 may output an alarm related to the event. For example, when the driving power of the robot 100 is exhausted, an impact is applied to the robot 100, or an accident occurs in the driving area 1000, an alarm voice is generated so that information about this is transmitted to the user. Can be printed.
  • the output unit 14 may transmit information on an operation state to the control unit 20 and receive a control command for an operation from the control unit 20.
  • the output unit 14 may operate according to a control command received from the control unit 20. That is, the output unit 14 may be controlled by the control unit 20.
  • the storage unit 15 is a storage means for storing data that can be read by a micro processor, and includes a hard disk drive (HDD), a solid state disk (SSD), a silicon disk drive (SDD), a ROM, It may include RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device.
  • HDD hard disk drive
  • SSD solid state disk
  • SDD silicon disk drive
  • ROM Read Only Memory
  • a received signal may be stored
  • reference data for determining an obstacle may be stored
  • obstacle information about the detected obstacle may be stored.
  • the storage unit 15 includes control data for controlling the operation of the robot 100, data according to the operation mode of the robot 100, location information to be collected, the driving area 1000 and the boundary area. Information about 1200 may be stored.
  • the sensing unit 16 may include one or more sensors for sensing information on the posture and motion of the main body 10.
  • the sensing unit 16 may include at least one of a tilt sensor for detecting the movement of the main body 10 and a speed sensor for detecting a driving speed of the driving unit 11.
  • the tilt sensor may be a sensor that senses posture information of the main body 10.
  • the inclination sensor may sense posture information of the main body 10 by calculating an inclined direction and an angle when the main body 10 is inclined in a front, rear, left, or right direction.
  • the tilt sensor, an acceleration sensor, or the like may be used as the tilt sensor, and any of a gyro type, an inertial type, and a silicon semiconductor type may be applied in the case of the acceleration sensor.
  • the speed sensor may be a sensor that senses a driving speed of a driving wheel provided in the driving unit 11. When the driving wheel rotates, the speed sensor may sense the driving speed by sensing the rotation of the driving wheel.
  • the sensing unit 16 may transmit information on a sensing result to the controller 20 and receive a control command for an operation from the controller 20.
  • the sensing unit 16 may operate according to a control command received from the control unit 20. That is, the sensing unit 16 may be controlled by the control unit 20.
  • the photographing unit 17 may be a camera that photographs the periphery of the main body 10.
  • the photographing unit 17 may generate image information on the driving area 1000 of the main body 10 by photographing the periphery of the main body 10.
  • the photographing unit 1 may sense an obstacle existing around the main body 10 and on the driving area 1000 by photographing the front side of the main body 10.
  • the photographing unit 17 is a digital camera, and may include an image sensor (not shown) and an image processing unit (not shown).
  • the image sensor is a device that converts an optical image into an electrical signal, and is composed of a chip in which a plurality of photo diodes are integrated, and a pixel is exemplified as a photo diode.
  • the photographing unit 12 may include an image processing unit (DSP) for generating the image information by image processing the photographed result.
  • DSP image processing unit
  • the photographing unit 17 may transmit a photographing result to the control unit 20 and receive a control command for an operation from the control unit 20.
  • the photographing unit 17 may operate according to a control command received from the control unit 20. That is, the photographing unit 17 may be controlled by the control unit 20.
  • the input unit 18 may receive a user command including input means such as at least one button, switch, and touch pad, and an output means such as a display unit, and output an operation state of the robot 100.
  • a command for execution of the monitoring mode may be input through the display unit, and a status of execution of the monitoring mode may be output.
  • the input unit 18 may display a state of the robot 100 through the display unit and display a control screen on which a control operation of the robot 100 is performed.
  • the control screen may refer to a user interface screen in which a driving state of the robot 100 is displayed and output, and a command for a driving operation of the robot 100 is input from a user.
  • the control screen may be displayed on the display unit through the control of the control unit 20, and display and input commands on the control screen may be controlled by the control unit 20.
  • the input unit 18 may transmit information on an operation state to the control unit 20 and receive a control command for an operation from the control unit 20.
  • the input unit 18 may operate according to a control command received from the control unit 20. That is, the input unit 18 may be controlled by the control unit 20.
  • the obstacle detection unit 19 includes a plurality of sensors to detect an obstacle existing in the driving direction.
  • the obstacle detection unit 19 may detect an obstacle in the front of the main body 10, that is, in a driving direction, using at least one of a laser, an ultrasonic wave, an infrared ray, and a 3D sensor.
  • the obstacle detection unit 19 may further include a cliff detection sensor installed on the rear surface of the main body 10 to detect a cliff.
  • the obstacle detection unit 19 may transmit information on a detection result to the control unit 20 and receive a control command for an operation from the control unit 20.
  • the obstacle detection unit 19 may operate according to a control command received from the control unit 20. That is, the obstacle detection unit 19 may be controlled by the control unit 20.
  • the weeding unit 30 mows the lawn on the floor while driving.
  • the weeding unit 30 may be provided with a brush or blade for mowing the grass, and may mow the grass on the floor through rotation.
  • the weeding unit 30 may transmit information on an operation result to the control unit 20 and receive a control command for an operation from the control unit 20.
  • the weeding unit 30 may operate according to a control command received from the control unit 20. That is, the weeding unit 30 may be controlled by the control unit 20.
  • the control unit 20 may perform overall operation control of the robot 100 including a central processing unit.
  • the control unit 20 determines the state of the driving area 1000 while driving the driving area 1000 through the main body 10, the driving unit 11, and the photographing unit 17, and Controls the driving of (10), the communication unit 12, the receiving unit 13, the output unit 14, the storage unit 15, the sensing unit 16, the input unit 18, the obstacle It is possible to control the function/operation of the robot 100 to be performed through the sensing unit 19 and the weeding unit 30.
  • the control unit 20 may control input/output of data and control the driving unit 11 so that the main body 10 travels according to a setting.
  • the control unit 20 may control the driving unit 11 to independently control the operation of the left wheel drive motor and the right wheel drive motor, thereby controlling the main body 10 to travel straight ahead or rotated.
  • the controller 20 may set the boundary area 1200 based on location information determined based on location information received from the terminal 300 or a transmission signal received from the transmitter 200.
  • the control unit 20 may also set the boundary area 1200 based on location information collected by itself while driving.
  • the control unit 20 may set any one of the areas formed by the set boundary area 1200 as the driving area 1000.
  • the controller 20 may set the boundary area 1200 in a closed loop form by connecting discontinuous position information with a line or a curve, and set the inner area as the driving area 1000.
  • the control unit 20 runs within the driving area 1000 and moves the main body 10 so as not to deviate from the set boundary area 1200. Can be controlled.
  • the control unit 20 determines the current position based on the received position information, and controls the driving unit 11 so that the determined current position is located within the driving area 1000 to control the driving of the main body 10. I can.
  • control unit 20 controls the driving of the main body 10 to avoid obstacles and travel according to obstacle information input by one or more of the photographing unit 17 and the obstacle detecting unit 19. can do.
  • the controller 20 may modify the driving area 1000 by reflecting the obstacle information to the previously stored area information for the driving area 1000.
  • the boundary area 1200 When the robot 100 is initially set for driving the driving area 1000, the boundary area 1200 is set, and the driving area 1000 may be driven based on the set information.
  • the boundary area 1200 may be set based on a result of the robot 100 autonomously driving the driving area 1000 and receiving the transmission signal from the transmitter 200, or the robot This may be achieved through communication between 100 and the terminal 300.
  • the system 1 is a system in which the boundary area 1200 is set, and as shown in FIG. 5, a plurality of transmitters 200 and a signal receiving device 600 (hereinafter, a receiving device And the robot 100. That is, the system 1 is a mobile robot system including the plurality of transmitters 200, the receiving device 600, and the robot 100, and a specific embodiment may be as shown in FIG. 6. .
  • the plurality of transmitters 200 are installed in the boundary area 1200 of the driving area 1000 to transmit a transmission signal.
  • the plurality of transmitters 200 may be distributed and installed in the boundary area 1200. For example, as shown in FIG. 6, it may be distributed and installed at each corner portion of the boundary area 1200. Three or more of the plurality of transmitters 200 are preferably distributed and installed in the boundary area 1200, so that the transmission signals may be transmitted at each installed location.
  • each of the plurality of transmitters 200 distributed and installed in the border area 1200 is the transmission signal that is the basis for determining the position of the robot 100 and setting the border area 1200. Can be sent out.
  • the transmission signal transmitted from each of the plurality of transmitters 200 may be received by the receiving device 600 and the robot 100.
  • the receiving device 600 receives the transmission signal and determines the distance to the point where the measurement signal is irradiated based on a result of irradiating the measurement signal on the bottom surface of the driving area 1000. Measure.
  • the receiving device 600 is a device for setting the boundary area 1200 in the system 1 and may communicate with the plurality of transmitters 200 and the robot 100.
  • the receiving device 600 may be formed in a bar shape.
  • the receiving device 600 is a device that is distinguished from the robot 100 and may be configured separately from the robot 100.
  • the receiving device 600, as illustrated in FIG. 7, may be attached to and detached from the robot 100.
  • the receiving device 600 may be attached to and detached from the rear side of the robot 100, and may correspond to a receiving means for receiving the transmission signal from the robot 100, for example, an antenna.
  • the receiving device 600 receives the transmission signal transmitted from each of the plurality of transmitters 200, irradiates the measurement signal on the floor surface, and the point where the measurement signal is irradiated based on the survey result It may be configured to measure the distance of and transmit the reception result of the transmission signal and the measurement result of the distance to the robot 100. That is, the receiving device 600 may be a device that receives the transmission signal, measures a distance by irradiating the measurement signal, and transmits the reception result and the measurement result to the robot 100.
  • the reception device 600 includes a plurality of reception tags 610 (611 and 612) provided at different positions to receive the transmission signal, and the measurement signal is irradiated on the floor surface, and the distance is determined based on the survey result. It may include a distance sensor 620 for measuring and a communication module 630 that transmits the reception result of each of the plurality of reception tags 610 and the measurement result of the distance sensor to the robot 100.
  • the plurality of reception tags 610 may be provided at different positions of the reception device 600 and may receive the transmission signal at each of the provided positions. That is, the transmission signal may be received at different locations of the receiving device 600.
  • the plurality of reception tags 610 may include a first tag 611 provided on one side of the reception device 600 and a second tag 612 provided on the other side of the reception device 612. .
  • the first tag 611 may be provided on one side of the main body of the receiving device 600 to receive the transmission signal transmitted from each of the plurality of transmitters 200.
  • the first tag 611 may be preferably provided on the front side of the receiving device 600, for example, at a position where the distance sensor 620 is provided.
  • the second tag 612 is provided on the other side of the main body of the receiving device 600 opposite to the position where the first tag 611 is provided, and the transmission transmitted from each of the plurality of transmitters 200 Can receive signals.
  • the second tag 612 may preferably be provided on the rear side of the receiving device 600, for example, opposite to a position at which the distance sensor 620 is provided. Accordingly, the receiving device 600 may receive the transmission signal from one side and the other side of the main body of the receiving device 600 through the first tag 611 and the second tag 612, respectively. have.
  • the first tag 611 and the second tag 612 provided on one side and the other side of the receiving device 600 may be provided at positions corresponding to the same straight line.
  • first tag 611 and the second tag 612 may be provided at positions corresponding to the same straight line as the distance sensor 620. That is, the first tag 611, the second tag 612, and the distance sensor 620 may be provided at positions corresponding to the same straight line. Accordingly, the direction of the signal irradiated by the distance sensor 620 and the direction from the first tag 611 to the second tag 612 may be matched.
  • the distance sensor 620 may be provided on one side of the receiving device 600 to irradiate the measurement signal from one side of the receiving device 600.
  • the measurement signal may be a laser signal. That is, the distance sensor 620 may be a laser sensor that measures a distance between the floor surface irradiated with the laser sensor and the distance sensor 620 based on a result of irradiating the laser sensor on the floor surface.
  • the distance sensor 620 may be provided in a protruding form at a position of the first tag 611 provided on one side of the receiving device 600 among the plurality of receiving tags 610. As shown in FIG.
  • the irradiation unit to which the measurement signal is irradiated by the distance sensor 620 is fixed to the robot 100. It can be a coupling means to be joined.
  • the irradiation of the measurement signal may be performed through one or more of a button, a sensor, and a separate operation means provided in the receiving device 610. For example, when a signal irradiation button provided in the receiving device 610 is pressed, the measurement signal may be irradiated. In addition, while the signal irradiation button is pressed, the measurement signal may be continuously emitted, so that the boundary area 1200 may be set through the receiving device 600.
  • the distance sensor 620 When the measurement signal is randomly irradiated on the floor surface by the user of the system 1, the distance sensor 620 is irradiated with the distance sensor 620 and the measurement signal based on an irradiation result of the measurement signal. You can measure the distance to the point.
  • the distance to each of the irradiation points included in the continuous path may be measured. For example, when the measurement signal is continuous with an arbitrary path P along the boundary area 1200, a distance between each of a plurality of irradiation points included in an arbitrary continuous path P may be measured. .
  • the communication module 630 is included in the receiving device 600, and a reception result of the transmission signal of each of the first tag 611 and the second tag 612 and the distance sensor 620
  • the measurement result of may be transmitted to the robot 100.
  • the communication module 630 may communicate with the robot 100 in real time. In this case, the communication module 630 may communicate with the communication unit 12 included in the robot 100.
  • the communication module 630 may transmit the reception result and the measurement result to the robot 100 through a wireless communication method.
  • the communication module 630 may transmit the reception result and the measurement result to the robot 100 in real time. For example, a reception result and a measurement result while the location of the reception device 600 is changed and the measurement signal is continuously radiated on the floor surface in a predetermined path may be transmitted to the robot 100 in real time. Accordingly, the robot 100 may receive the reception result and the measurement result whenever at least one of the location of the reception device 600 and the irradiation point of the measurement signal changes.
  • the reception device 600 including the plurality of reception tags 610, the distance sensor 620, and the communication module 630 is While the measurement signal is continuously radiated to the floor along the boundary area 1200 in an arbitrary path (P), the transmission signal is received, and the distance to each irradiation point included in the path (P) is measured.
  • the reception result and the measurement result may be transmitted to the robot 100.
  • the measurement signal when the measurement signal is continuously radiated from the receiving device 600, the measurement signal may be irradiated along the path P while the receiving device 600 is fixed at a certain position. For example, by operating the reception device 600 while the user is located at a certain point in the driving area 1000, the measurement signal may be continuously transmitted to the path P.
  • the change in the reception result and the change in the measurement result may be made within a range corresponding to the rotation of the receiving device 600.
  • the measurement signal When the measurement signal is continuously radiated from the reception device 600, the measurement signal may be irradiated along the path P while the location of the reception device 600 is changed. For example, while the user moves along the path P, the measurement signal may be continuously transmitted to the path P by manipulating the receiving device 600.
  • the change in the reception result and the change in the measurement result may be made within a range corresponding to the change in the position of the receiving device 600.
  • the robot 100 receives the reception result of the transmission signal and the measurement result of the distance from the reception device 600, and the measurement signal is converted based on the reception result and the measurement result.
  • Boundary information of the driving area 1000 is generated corresponding to the route irradiated on the floor surface.
  • the robot 100 may receive the reception result and the measurement result through the communication unit 12 communicating with the reception device 600.
  • the boundary information may mean virtual boundary information set as the boundary area 1200. Accordingly, the robot 100 may set the boundary area 1200 according to the boundary information to drive the driving area 1000.
  • the boundary information may be coordinate information of a portion corresponding to the boundary area 1200 on coordinate information based on a point on the driving area 1000.
  • the robot 100 may receive the reception result and the measurement result, and quantify the reception result and the measurement result in a vector format.
  • the reception result of the first tag 611 is a vector P 1 n
  • the reception result of the second tag 612 is a vector P 2 n
  • the measurement of the distance sensor 620 The result can be quantified with vector L.
  • each vector of the reception result and the measurement result may be quantized based on any one point on the driving area 1000. That is, each vector of the reception result and the measurement result may be quantified based on the same reference point. For example, it may be numericalized to correspond to a coordinate based on any one of the plurality of transmitters 200. For a specific example, as shown in FIG.
  • the reception result of the first tag 611 is a vector P 1 n (X 2 1 , Y 2 1 , Z 2 1 )
  • the reception result of the second tag 612 as a vector P 2 n (X 1 1 , Y 1 1 , Z 1 1 )
  • the measurement result Can be quantified as a vector L(X 3 1 , Y 3 1 , Z 3 1 ).
  • the robot 100 based on the reception result of the first tag 611, which is vector information based on a certain point, the reception result of the second tag 612, and the measurement result, the signal device ( In 600), coordinate information of the irradiation point to which the measurement signal is irradiated may be recognized.
  • the robot 100 when the measurement signal is continuous by the reception device 600 along the boundary area 1200 in an arbitrary path P, from the reception device 600 to the path P
  • the reception result and the measurement result are received while the measurement signal is continuously radiated, and the coordinate information of the irradiation point is recognized based on the reception result and the measurement result, and the boundary information is generated using the coordinate information. I can.
  • the robot 100 may detect the irradiation direction of the measurement signal based on the reception result, and recognize the coordinate information based on the irradiation direction and the measurement result. That is, the robot 100 detects the irradiation direction of the measurement signal based on the result of receiving the transmission signal from the plurality of reception tags 610, so that the measurement signal is irradiated from the reception result. The direction of the irradiation point is determined, and the distance to which the measurement signal is irradiated is determined from the measurement result, and the coordinate information may be recognized based on the irradiation direction and the measurement result.
  • the robot 100 may determine location information at which each of the plurality of reception tags 610 receives the transmission signal based on the reception result, and detect the irradiation direction based on the location information. That is, the robot 100 is provided at different positions of the receiving device 600, the first tag 611 and the first tag 611 provided at positions corresponding to the same straight line as the distance sensor 620 2 Using the positions of each of the tags 612, the direction of the reception device 600, that is, the irradiation direction in which the measurement signal is irradiated to the floor surface may be detected. In this case, the robot 100 may detect the irradiation direction by calculating a vector between the position of the first tag 611 and the position of the second tag 612.
  • the robot 100 calculates a coordinate value according to the measurement result using the irradiation direction, and between the distance sensor 620 and the adjacent tag and the distance sensor 620 among the plurality of reception tags 610
  • the coordinate information may be recognized by reflecting an offset to the coordinate value. That is, the robot 100 calculates a coordinate value of the irradiation point based on the irradiation direction and the measurement result, and calculates an offset between the first tag 611 and the distance sensor 620 By reflecting the coordinate value and recognizing the coordinate information, the location of the irradiation point may be accurately recognized.
  • the robot 100 that recognizes the coordinate information of the irradiation point, based on the reception result and the measurement result, while the measurement signal is irradiated along the path P, a plurality of By recognizing the coordinate information of each of the irradiation points of, the boundary information may be generated based on the recognition result. That is, the robot 100, as shown in FIG. 10A, the path P from the receiving device 600 while the measurement signal is irradiated along the path P by the receiving device 600 By receiving the reception result and the measurement result at each of the plurality of irradiation points on the image and recognizing the coordinate information of each of the plurality of irradiation points based on the reception result and the measurement result, Accordingly, the boundary information may be generated. Accordingly, the robot 100 may set the boundary area 1200 according to the path P designated through the receiving device 600.
  • the robot 100 generates the boundary information by arranging points corresponding to coordinate information included in the recognition result on one coordinate plane, and connecting points that can be connected with one line among the arranged points. can do. That is, after recognizing the coordinate information of each of the plurality of points, the robot 100 arranges points corresponding to the coordinate information on one coordinate plane and connects points that can be connected by a single line. , The boundary information according to the path P may be generated. In this case, the robot 100 may preferably connect points corresponding to the coordinate information with a single line so that a closed curve is formed. Accordingly, it is possible to easily set the boundary area 1200 along the path P.
  • the robot 100 may generate the boundary information by connecting points that are not continuous at a predetermined interval or more, excluding points that cannot be connected by one line among the arranged points. That is, the robot 100 arranges points corresponding to the coordinate information included in the recognition result on one coordinate plane, and then excludes points that cannot be connected with one line among the arranged points. And, by connecting non-contiguous points at a predetermined interval or more, the boundary information may be generated by correcting/compensating the recognition result. For example, as shown in FIG. 10B, the boundary information is obtained through a correction process of connecting points E2 that are not continuous at a predetermined interval or more, excluding points E1 that cannot be connected by a single line. Can be created.
  • the robot 100 that generates the boundary information as described above may store an image of each process of generating the boundary information from the recognition result. That is, the robot 100 arranges points corresponding to the coordinate information included in the recognition result on one coordinate plane, and then excludes points that cannot be connected with one line among the arranged points.
  • the process of generating the boundary information by connecting non-contiguous points at a predetermined interval or more may store each image in the form of image data. For example, as shown in FIG. 10B, each image in which generation of the boundary information is completed may be stored in the storage unit 15 before and after the recognition result is corrected/compensated. Through this, the data stored when the boundary area 1200 is reset using the receiving device 600 is compared with the stored data, and the boundary information is corrected, or a location transmitted from the terminal 300 or the GPS 400 Matching with information can be made easily.
  • the system 1 generates the boundary information by the robot 100 according to the path P irradiated on the bottom surface of the travel area 1000 by the reception device 600,
  • the boundary area 1200 can be set arbitrarily and conveniently through the receiving device 600.
  • the system 1 as described above may be implemented by applying a boundary information generation method (hereinafter referred to as a generation method) of a mobile robot system to be described below.
  • a generation method a boundary information generation method of a mobile robot system
  • the generation method is a method for generating the boundary information in the system 1 described above, and may be applied to the system 1 described above, and may also be applied in addition to the system 1 described above.
  • the generation method is a method of generating the boundary information in the system 1 including the plurality of transmitters 200, the reception device 600, and the robot 100, as shown in FIG. ,
  • the generation of the boundary information in the system (1) includes the irradiating step (S10), the transmitting step (S20), the recognizing step (S30), and the generating step (S40). You can lose. Accordingly, the system 1 generates the boundary information in the order of the irradiating step (S10), the transmitting step (S20), the recognizing step (S30), and the generating step (S40). Can be.
  • the receiving device 600 is provided on one side, the first tag 611 receiving the transmission signal from the one side, and the other side, the other side May include the second tag 612 for receiving the transmission signal. Accordingly, the reception of the transmission signal by the receiving device 600 may be performed by each of the first tag 611 and the second tag 612 provided at different positions of the receiving device 600. I can.
  • the irradiating step (S10) may be a step in which the measurement signal irradiated by the receiving device 600 is irradiated to the path P.
  • the receiving device 600 is manipulated by the user of the system 1, so that the measurement signal may be continuously fired along the path P.
  • the reception device 600 receives the transmission signal in real time, and the distance is determined. It can be measured in real time.
  • the transmitting step (S20) may be a step of transmitting the reception result and the measurement result to the robot 100 while the receiving device 600 is performing the irradiation step (S10).
  • the receiving device 600 may transmit the reception result and the measurement result to the robot 100 in real time. Accordingly, the robot 100 may receive the reception result and the measurement result in real time from the reception device 600 while the measurement signal is irradiated along the path P.
  • a plurality of irradiation points included on the path P based on the reception result and the measurement result received by the robot 100 in real time from the reception device 600 It may be a step of detecting each coordinate value and recognizing coordinate information of the plurality of irradiation points corresponding to the path P based on the detection result.
  • the robot 100 determines the location information at which each of the plurality of reception tags 610 has received the transmission signal based on the reception result, and the location information The irradiation direction can be detected. That is, the robot 100 is provided at different positions of the receiving device 600, the first tag 611 and the first tag 611 provided at positions corresponding to the same straight line as the distance sensor 620 2 Using the positions of each of the tags 612, the direction of the reception device 600, that is, the irradiation direction in which the measurement signal is irradiated to the floor surface may be detected.
  • the robot 100 calculates a coordinate value according to the measurement result using the irradiation direction, and a tag adjacent to the distance sensor 620 among the plurality of reception tags 610
  • the coordinate information may be recognized by reflecting an offset between the and the distance sensor 620 to the coordinate value. That is, the robot 100 calculates a coordinate value of the irradiation point based on the irradiation direction and the measurement result, and calculates an offset between the first tag 611 and the distance sensor 620 By reflecting the coordinate value and recognizing the coordinate information, the location of the irradiation point may be accurately recognized.
  • the generating step (S40) is the step of generating the boundary information corresponding to the path (P) on which the measurement signal was successively projected based on the recognition result in the step (S30) of the recognition by the robot 100 Can be
  • the robot 100 arranges points corresponding to coordinate information included in the recognition result on one coordinate plane, and a point that can be connected by one line among the arranged points
  • the boundary information may be generated by connecting them. That is, after recognizing the coordinate information of each of the plurality of points, the robot 100 arranges points corresponding to the coordinate information on one coordinate plane and connects points that can be connected by a single line. , The boundary information according to the path P may be generated.
  • the robot 100 In the generating step (S40), the robot 100 generates the boundary information by connecting non-contiguous points beyond a predetermined interval, excluding points that cannot be connected by one line among the arranged points. can do. That is, the robot 100 arranges points corresponding to the coordinate information included in the recognition result on one coordinate plane, and then excludes points that cannot be connected with one line among the arranged points. And, by connecting non-contiguous points at a predetermined interval or more, the boundary information may be generated by correcting/compensating the recognition result.
  • the generation method may further include storing an image of each process of generating the boundary information from the recognition result.
  • the storing may be a step of storing image data of each of the processes in which the robot 100 generates the boundary information from the recognition result in the storage unit 15. That is, the robot 100 arranges points corresponding to the coordinate information included in the recognition result on one coordinate plane, and then excludes points that cannot be connected with one line among the arranged points.
  • the process of generating the boundary information by connecting non-contiguous points at a predetermined interval or more may store each image in the form of image data.
  • the generating method including the irradiating step (S10), the transmitting step (S20), the recognizing step (S30), and the generating step (S40) is a computer-readable medium on which a program is recorded. It is possible to implement it as code.
  • the computer-readable medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include hard disk drives (HDDs), solid state disks (SSDs), silicon disk drives (SDDs), ROMs, RAM, CD-ROMs, magnetic tapes, floppy disks, optical data storage devices, etc.
  • HDDs hard disk drives
  • SSDs solid state disks
  • SDDs silicon disk drives
  • ROMs read-only memory
  • RAM compact disc drives
  • CD-ROMs compact discs
  • magnetic tapes magnetic tapes
  • floppy disks optical data storage devices
  • optical data storage devices etc.
  • carrier wave for example, transmission over the Internet
  • the computer may include the control unit 20.
  • the mobile robot system and the method of generating boundary information of the mobile robot system as described above include a lawn mower robot, a control method of a lawn mower, a control means of a lawn mower, a lawn mower robot system, a method of setting a boundary area of the lawn mower It may be applied to a method of generating/acquiring boundary information of a lawnmower robot system.
  • the technology disclosed in the present specification is not limited thereto, and may be applied to all mobile robots to which the technical idea of the above technology can be applied, a control means for controlling a mobile robot, a mobile robot system, a method for controlling a mobile robot, etc. I can.
  • mobile robot system 10 main body
  • control unit 30 weeding unit
  • terminal 400 GPS satellite
  • driving area 1200 boundary area

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Environmental Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

본 명세서는 송출 신호를 수신하는 수신 태그 및 거리 센서를 포함하는 신호 처리 장치를 구비하여, 상기 수신 태그의 수신 결과 및 상기 거리 센서의 거리 측정 결과를 근거로 상기 거리 센서의 포인트가 지정된 지점의 좌표 정보를 인식하여, 인식한 좌표 정보를 근거로 상기 거리 센서의 포인트로 지정된 경로에 따라 경계 정보를 생성하는 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법에 관한 것이다.

Description

이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법
본 명세서의 실시 예는 주행 영역을 자율주행하는 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법에 관한 것이다.
일반적으로 이동 로봇은 사용자의 조작 없이도 소정 구역을 스스로 주행하면서 자동으로 소정의 동작을 수행하는 기기이다. 이동 로봇은 구역 내에 설치된 장애물을 감지하여 장애물에 접근하거나 회피하여 동작을 수행한다.
이러한 이동 로봇은 영역을 주행하면서 청소를 수행하는 청소로봇은 물론 영역의 바닥면의 잔디를 깎는 이동 로봇이 포함될 수 있다. 일반적으로 이동 로봇 장치는 사용자가 탑승하여 사용자의 운전에 따라 이동하면서 바닥의 잔디를 깎거나 풀을 제초하는 승용형 장치와, 사용자가 수동으로 끌거나 밀어서 이동하면서 잔디를 깎는 워크비하인드타입 또는 핸드타입의 장치가 있다. 이러한 이동 로봇 장치는 사용자의 직접적인 조작에 의해 이동하며 잔디를 깎는 것으로 사용자의 직접 장치를 작동해야하는 번거로움이 있다. 그에 따라 이동 로봇에 잔디를 깎을 수 있는 수단을 구비한 이동 로봇형의 이동 로봇 장치가 연구되고 있다.
이러한 잔디 깎이용 이동 로봇(잔디 깎이)의 경우 실내가 아닌 실외에서 동작하므로, 실내 환경을 주행하는 이동 로봇에 비해 넓은 영역을 주행하게 된다. 실내의 경우 지면이 단조롭고, 주행에 영향을 주는 지형/지물 등의 요인이 한정적이나, 실외의 경우 열린 공간이므로 주행에 영향을 주는 요인이 다양하고, 또한 지형의 영향을 많이 받게 된다. 특히, 야외 영역의 특성상 이동 로봇이 제한되지 않은 넓은 영역을 주행하게 될 수 있으므로, 이동 로봇이 주행하기 위한 주행 영역의 설정이 필수적이게 된다. 따라서, 이동 로봇이 주행하기 위한 주행 영역의 설정, 즉 경계 영역의 설정과, 경계 영역의 정확한 인식이 필수적으로 요구된다.
한편, 미국공개특허 2017-0150676(공개일자:2017년06월01일)(이하, 선행문헌이라 칭한다)에는, 주행 영역의 경계 부분에 복수의 비콘(Beacon)을 설치하여, 로봇이 경계를 따라 주행하는 동안 상기 비콘에서 송출된 신호를 근거로 상기 비콘과의 상대적 위치를 판단하고, 이에 대한 좌표 정보를 저장하여 위치 판단에 활용하는 기술이 개시되어 있다. 즉, 상기 선행문헌은 주행 영역의 경계 부분에 분산 배치된 복수의 비콘과 신호를 송수신하고, 송수신 결과를 근거로 주행 영역을 설정하여, 상기 복수의 비콘과의 상대적 위치 정보를 이용한 정확한 주행 영역/위치 인식이 이루어지게 된다. 이로 인해, 이동 로봇 시스템의 위치 인식의 제한을 부분적으로 개선할 수 있게 된다.
그러나, 상기 선행문헌은 경계 영역의 설정이 단순히 비콘의 설치에 의해서만 이루어지게 되어, 경계 설정이 제한적으로 이루어질 수 밖에 없는 한계가 있다. 또한, 비콘의 설치 상태에 따라서만 경계 영역이 설정되므로, 비콘의 통신 성능에 따라 경계 형성이 부정확하게 이루어질 수 있게 되는 우려도 있다. 즉, 종래의 경계 설정 기술로는 사용자의 요구에 따른 경계 설정과, 정확한 경계 설정이 이루어지기 어려운 한계가 있었다. 결과적으로 종래에는 사용자의 요구에 따른 정확하고 편리한 경계 설정이 이루어지는 기술이 제안되지 못하였으며, 이로 인해 이동 로봇의 사용성, 안전성, 신뢰성 및 편리성이 제한될 수 밖에 없는 문제가 있었다.
본 명세서는, 상술한 바와 같은 종래기술의 한계를 개선할 수 있는 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법의 실시 예를 제공하고자 한다.
구체적으로는, 이동 로봇의 주행 영역의 경계 정보를 간단하고 편리하게 획득할 수 있는 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법의 실시 예를 제공하고자 한다.
또한, 주행 영역의 경계 설정이 임의로 정확하게 이루어질 수 있는 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법의 실시 예를 제공하고자 한다.
상술한 바와 같은 과제를 해결하기 위한 본 명세서의 실시 예는, 거리 센서의 포인트로 경계 영역을 지정하고, 상기 거리 센서의 거리 값을 이용하여 지정된 경로에 따라 경계 정보를 생성하는 것을 해결 수단으로 한다.
구체적으로는, 송출 신호를 수신하는 수신 태그 및 거리 센서를 포함하는 신호 처리 장치를 구비하여, 상기 수신 태그의 수신 결과 및 상기 거리 센서의 거리 측정 결과를 근거로 상기 거리 센서의 포인트가 지정된 지점의 좌표 정보를 인식하여, 인식한 좌표 정보를 근거로 상기 거리 센서의 포인트로 지정된 경로에 따라 경계 정보를 생성하는 것을 특징으로 한다.
즉, 본 명세서의 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법은, 송출 신호를 수신하는 수신 태그 및 거리 센서를 포함하는 신호 처리 장치를 통해 경계 영역을 지정하고, 상기 수신 태그의 수신 결과 및 상기 거리 센서의 측정 결과를 근거로 지정된 경로에 대응하는 좌표 정보를 인식하여, 인식한 좌표 정보를 근거로 경계 정보를 생성함으로써, 경계 영역을 설정하게 되는 것을 특징으로 한다.
이와 같은 기술적 특징을 통해 본 명세서에 제공하는 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법은, 신호 처리 장치의 포인트 지정으로 경계 정보를 생성하게 됨으로써, 상술한 바와 같은 과제를 해결하게 된다.
상기와 같은 기술적 특징은 잔디 깎이 로봇, 잔디 깎이 로봇의 제어 방법, 잔디 깎이 로봇 시스템, 잔디 깎이 로봇의 제어 시스템, 잔디 깎이 로봇을 제어하는 방법, 잔디 깎이 로봇의 경계 영역 설정 방법, 잔디 깎이 로봇 시스템의 경계 정보 생성/획득 방법 등에 적용되어 실시될 수 있으며, 본 명세서는 상기와 같은 기술적 특징을 과제 해결 수단으로 하는 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법의 실시 예를 제공한다.
상기와 같은 기술적 특징을 과제 해결 수단으로 하는 본 명세서의 이동 로봇 시스템의 실시 예는, 주행 영역의 경계 영역에 설치되어 송출 신호를 송출하는 복수의 송출기, 상기 송출 신호를 수신하고, 상기 주행 영역의 바닥면에 측정 신호를 조사한 결과를 근거로 상기 측정 신호가 조사된 조사 지점과의 거리를 측정하는 신호 수신 장치 및 상기 신호 수신 장치로부터 상기 송출 신호의 수신 결과 및 상기 거리의 측정 결과를 전달받아, 상기 수신 결과 및 상기 측정 결과를 근거로 상기 측정 신호가 상기 바닥면에 조사된 경로에 대응하여 상기 주행 영역의 경계 정보를 생성하는 이동 로봇을 포함한다.
또한, 상기와 같은 기술적 특징을 과제 해결 수단으로 하는 본 명세서의 이동 로봇 시스템의 경계 정보 생성 방법의 실시 예는, 주행 영역의 경계 영역에 설치되어 송출 신호를 송출하는 복수의 송출기, 상기 송출 신호를 수신하고, 상기 주행 영역의 바닥면에 측정 신호를 조사한 결과를 근거로 상기 측정 신호가 조사된 조사 지점과의 거리를 측정하는 신호 수신 장치 및 상기 신호 수신 장치로부터 상기 송출 신호의 수신 결과 및 상기 거리의 측정 결과를 전달받아, 상기 수신 결과 및 상기 측정 결과를 근거로 상기 주행 영역의 경계 정보를 생성하는 이동 로봇을 포함하는 이동 로봇 시스템에서, 상기 주행 영역의 경계 정보를 생성하는 방법으로, 상기 측정 신호가 상기 바닥면에 임의의 경로로 조사되는 단계, 상기 조사되는 단계 동안 상기 신호 수신 장치가 상기 수신 결과 및 상기 측정 결과를 상기 이동 로봇에 전달하는 단계, 상기 이동 로봇이 상기 수신 결과 및 상기 측정 결과를 근거로 상기 경로에 대응하는 복수의 조사 지점들 각각의 좌표 정보를 인식하는 단계 및 상기 이동 로봇이 상기 좌표 정보의 인식 결과를 근거로 상기 경계 정보를 생성하는 단계를 포함한다.
본 명세서의 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법의 실시 예는, 신호 처리 장치의 포인트 지정으로 경계 정보를 생성하게 됨으로써, 간단하고 편리하게 경계 정보를 획득할 수 있게 되는 효과가 있다.
이에 따라, 경계 영역의 설정이 간단하고 편리하게 이루어질 수 있게 됨은 물론, 경계 영역의 설정이 임의로 정확하게 이루어질 수 있게 되는 효과가 있다.
또한, 본 명세서의 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법의 실시 예는, 신호 처리 장치의 수신 결과 및 측정 결과를 이용하여 좌표 정보를 인식하게 됨으로써, 좌표 정보를 활용한 다양한 주행 제어 및 정보 처리가 이루어질 수 있게 되는 효과가 있다.
이에 따라, 이동 로봇 시스템의 다양하고 효율적인 제어가 이루어질 수 있게 되어, 이동 로봇 시스템의 효율성, 활용성 및 효용성이 증대될 수 있게 되는 효과도 있다.
도 1a는 이동 로봇 시스템의 주행 원리를 나타낸 개념도.
도 1b는 이동 로봇 시스템의 위치 판단을 위한 장치 간의 신호 흐름을 나타낸 개념도.
도 2는 이동 로봇의 주행 영역의 일 실시 예를 나타낸 개념도.
도 3a는 이동 로봇의 일 실시 예를 나타낸 구성도 a.
도 3b는 이동 로봇의 일 실시 예를 나타낸 구성도 b.
도 3c는 이동 로봇의 일 실시 예를 나타낸 구성도 c.
도 4는 이동 로봇의 구체적인 구성을 나타낸 구성도.
도 5는 본 명세서에 개시된 이동 로봇 시스템의 실시 예에 따른 구성도.
도 6은 본 명세서에 개시된 이동 로봇 시스템의 실시 예에 따른 주행 영역의 예시를 나타낸 예시도.
도 7은 본 명세서에 개시된 이동 로봇 시스템의 실시 예에 따른 신호 처리 장치의 예시를 나타낸 예시도.
도 8은 본 명세서에 개시된 이동 로봇 시스템의 실시 예에 따른 좌표 정보 인식 원리를 설명하기 위한 예시도 1.
도 9는 본 명세서에 개시된 이동 로봇 시스템의 실시 예에 따른 좌표 정보 인식 원리를 설명하기 위한 예시도 2.
도 10a는 본 명세서에 개시된 이동 로봇 시스템의 실시 예에 따른 경계 정보 생성 과정을 설명하기 위한 예시도 a.
도 10b는 본 명세서에 개시된 이동 로봇 시스템의 실시 예에 따른 경계 정보 생성 과정을 설명하기 위한 예시도 b.
도 11은 본 명세서에 개시된 이동 로봇 시스템의 경계 정보 생성 방법의 실시 예에 따른 순서도.
이하에서는, 첨부된 도면을 참조하여 이동 로봇 시스템 및 이의 제어 방법의 실시 예들을 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 기술의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 그 기술의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
이하, 이동 로봇 시스템(이하, 시스템이라 칭한다)의 실시 형태를 설명한다.
상기 시스템에서 이동 로봇은, 자율주행이 가능한 로봇, 잔디 깎이 이동 로봇, 잔디 깎이 로봇, 잔디 깎이 장치, 또는 잔디 깎이용 이동 로봇을 의미할 수 있다.
상기 시스템은, 주행 영역 내의 잔디를 절삭하는 이동 로봇(이하, 로봇이라 칭한다)의 시스템일 수 있다. 여기서, 상기 로봇은, 잔디 깎이 로봇을 의미하며, 이에 따라 상기 시스템(1)은, 주행 영역 내의 잔디를 절삭하는 잔디 깎이 로봇의 주행/제어/동작 시스템을 의미할 수 있다.
상기 시스템(1)은, 도 1a에 도시된 바와 같이, 상기 로봇(100)의 동작 제어에 대한 제어 화면을 표시하는 단말(300) 및 상기 제어 화면의 조작에 대응하여 동작하는 상기 로봇(100)을 포함한다. 즉, 상기 단말(300)은, 상기 이동 로봇(100)의 제어가 이루어지는 상기 제어 화면을 디스플레이부 상에 표시하고, 상기 이동 로봇(100)은, 상기 제어 화면에 대한 조작에 따라 상기 주행 영역을 주행하며 상기 주행 영역 내의 잔디를 절삭하도록 동작하게 될 수 있다. 상기 시스템(1)은 또한, 상기 로봇(100) 및 상기 단말(300) 중 하나 이상과 신호를 송수신하는 송출기(200) 및 GPS위성(400) 중 하나 이상을 더 포함할 수 있다.
상기 시스템(1)에서 상기 로봇(100)은, 도 1a에 도시된 바와 같은 주행 원리에 따라 동작할 수 있고, 도 1b에 도시된 바와 같은 위치 판단을 위한 장치 간의 신호 흐름이 이루어지게 될 수 있다. 이에 따라 상기 로봇(100)은, 도 2에 도시된 바와 같은 주행 영역(1000)을 주행하게 될 수 있다.
상기 로봇(100)은, 도 2에 도시된 바와 같은 상기 주행 영역(1000) 내에서 스스로 주행할 수 있다. 상기 로봇(100)은 주행 중에 특정 동작을 수행할 수 있다. 여기서, 상기 특정 동작은, 상기 주행 영역(1000) 내의 잔디를 절삭하는 동작일 수 있다. 상기 주행 영역(1000)은 상기 로봇(100)의 주행 및 동작 대상에 해당하는 영역으로, 소정의 실외/야외 영역이 상기 주행 영역(1000)으로 형성될 수 있다. 이를테면, 상기 로봇(100)이 잔디를 절삭하기 위한 정원, 마당 등이 상기 주행 영역(1000)으로 형성될 수 있다. 상기 주행 영역(1000)에는 상기 로봇(100)의 구동 전원이 충전되는 충전 장치(500)가 설치될 수 있으며, 상기 로봇(100)은 상기 주행 영역(1000) 내에 설치된 상기 충전 장치(500)에 도킹하여 구동 전원을 충전하게 될 수 있다.
상기 주행 영역(1000)은 도 2에 도시된 바와 같이 일정한 경계 영역(1200)으로 형성될 수 있다. 상기 경계 영역(1200)은, 상기 주행 영역(1000)과 외부 영역(1100)의 경계선에 해당되어, 상기 로봇(100)이 상기 경계 영역(1200) 내에서 상기 외부 영역(1100)을 벗어나지 않도록 주행하게 될 수 있다. 이 경우, 상기 경계 영역(1200)은 폐곡선 또는 폐루프로 형성될 수 있다. 상기 경계 영역(1200)은, 상기 주행 영역(1000)에 대한 지도 상에서 좌표 정보를 기반으로 설정될 수 있다. 이 경우, 상기 로봇(100)은, 상기 좌표 정보를 근거로 가상의 경계 선을 인식함으로써 상기 경계 영역(1200)을 인식하게 될 수 있다. 또한, 상기 경계 영역(1200)은, 폐곡선 또는 폐루프로 형성되는 와이어(1200)에 의해 설정될 수 있다. 이 경우, 상기 와이어(1200)는 임의의 영역에 설치될 수 있으며, 상기 로봇(100)은 설치된 와이어(1200)에 의해 형성되는 폐곡선의 주행 영역(1000) 내에서 주행할 수 있다.
상기 주행 영역(1000)에는 또한, 도 2에 도시된 바와 같이 하나 이상의 송출기(200)가 배치될 수 있다. 상기 송출기(200)는, 상기 로봇(100)이 위치 정보를 판단하기 위한 신호를 송출하는 신호 발생 수단으로, 상기 주행 영역(1000) 내에 분산 배치되어 설치될 수 있다. 상기 로봇(100)은 상기 송출기(200)에서 송출된 송출 신호를 수신하여, 수신 결과를 근거로 현재 위치를 판단하거나, 상기 주행 영역(1000)에 대한 위치 정보를 판단할 수 있다. 이 경우, 상기 로봇(100)은 상기 송출 신호를 수신하는 수신부를 통해 상기 송출 신호를 수신할 수 있다. 상기 송출기(200)는, 바람직하게는 상기 주행 영역(1000)에서 상기 경계 영역(1200)의 근방에 배치될 수 있다. 이 경우, 상기 로봇(100)은 상기 경계 영역(1200)의 근방에 배치된 상기 송출기(200)의 배치 위치를 근거로 상기 경계 영역(1200)을 판단하게 될 수 있다.
상기 로봇(100)은 도 1a에 도시된 바와 같이 소정 영역을 이동하는 상기 단말(300)과 통신하며, 상기 단말(300)로부터 수신한 데이터를 바탕으로 상기 단말(300)의 위치를 추종하며 주행할 수 있다. 상기 로봇(100)은, 상기 단말(300)로부터 수신되거나 또는 상기 단말(300)을 추종하여 주행하는 중에 수집되는 위치 정보를 근거로 소정 영역에 가상의 경계를 설정하고, 경계에 의해 형성되는 내부 영역을 상기 주행 영역(1000)으로 설정할 수 있다. 상기 로봇(100)은, 상기 경계 영역(1200) 및 상기 주행 영역(1000)이 설정되면, 상기 경계 영역(1200)을 벗어나지 않도록 상기 주행 영역(1000) 내를 주행할 수 있다. 경우에 따라 상기 단말(300)은 상기 경계 영역(1200)을 설정하여 상기 로봇(100)에 전송할 수 있다. 상기 단말(300)은 영역을 변경하거나 확장하는 경우, 변경된 정보를 상기 로봇(100)에 전송하여, 상기 로봇(100)이 새로운 영역에서 주행하도록 할 수 있다. 또한, 상기 단말(300)은 상기 로봇(100)으로부터 수신되는 데이터를 화면에 표시하여 상기 로봇(100)의 동작을 모니터링할 수 있다.
상기 로봇(100) 또는 상기 단말(300)은, 위치 정보를 수신하여 현재 위치를 판단할 수 있다. 상기 로봇(100) 및 상기 단말(300)은 상기 주행 영역(1000)에 배치된 상기 송출기(200)로부터 송신되는 위치 정보, 또는 상기 GPS위성(400)을 이용한 GPS신호를 바탕으로 현재 위치를 판단할 수 있다. 상기 로봇(100) 및 상기 단말(300)은, 바람직하게는 3개의 송출기(200)로부터 전송되는 송출 신호를 수신하여 신호 수신 결과를 비교함으로써 현재 위치를 판단할 수 있다. 즉, 상기 송출기(200)는, 바람직하게는 상기 주행 영역(1000)에 3개 이상이 배치될 수 있다.
상기 로봇(100)은 상기 주행 영역(1000) 내의 어느 하나의 지점을 기준 위치로 설정한 후, 이동 중 위치를 좌표로 산출한다. 예를 들어 초기 시작 위치, 상기 충전 장치(500)의 위치를 기준 위치로 설정할 수 있고, 또한, 상기 송출기(200) 중 어느 하나의 위치를 기준 위치로 하여 상기 주행 영역(1000)에 대한 좌표를 산출할 수 있다. 또한, 상기 로봇(100)은 매 동작 시, 초기 위치를 기준 위치로 설정한 후, 주행하며 위치를 판단할 수도 있다. 상기 로봇(100)은 기준 위치를 기준으로, 상기 구동 바퀴(11)의 회전수, 회전 속도, 상기 본체(10)의 회전 방향 등을 바탕으로 주행 거리를 연산하고, 이에 따라 상기 주행 영역(1000) 내에서의 현재 위치를 판단할 수 있다. 상기 로봇(100)은 상기 GPS위성(400)을 이용하여 위치를 판단하는 경우라도, 어느 하나의 지점을 기준 위치로 하여 위치를 판단할 수 있다.
상기 로봇(100)은, 도 1b에 도시된 바와 같이, 상기 송출기(200) 또는 상기 GPS위성(400)에서 송신되는 위치 정보를 근거로 현재 위치를 판단할 수 있다. 상기 위치 정보는, GPS 신호, 초음파 신호, 적외선 신호, 전자기 신호 또는 UWB(Ultra Wide Band) 신호의 형태로 전송될 수 있다. 상기 송출기(200)에서 송신되는 송출 신호는, 바람직하게는 UWB(Ultra Wide Band) 신호일 수 있다. 이에 따라 상기 로봇(100)은, 상기 송출기(200)에서 송신된 UWB(Ultra Wide Band) 신호를 수신하여, 이를 근거로 현재 위치를 판단하게 될 수 있다.
이처럼 상기 주행 영역(1000)을 주행하며 잔디를 절삭하는 상기 로봇(100)은, 도 3a에 도시된 바와 같이, 본체(10), 상기 본체(10)를 이동시키는 구동부(11), 상기 로봇(100)의 통신 대상 수단과 통신하는 통신부(12), 주행 중 바닥면의 잔디를 깎는 제초부(30) 및 상기 구동부(11), 상기 통신부(12) 및 상기 제초부(30)를 제어하여 상기 로봇(100)의 주행 및 제초 동작을 제어하는 제어부(20)를 포함할 수 있다.
상기 로봇(100)은, 도 3b 및 도 3c에 도시된 바와 같이 이동이 가능하도록 마련되어서, 잔디를 절삭할 수 있는 상기 본체(10)를 포함하는 자율주행 로봇일 수 있다. 상기 본체(10)는 상기 로봇(100)의 외관을 형성하고, 상기 로봇(100)의 주행 및 잔디 절삭 등의 동작이 수행되는 하나 이상의 수단이 구비된다. 상기 본체(10)에는 상기 본체(10)를 원하는 방향으로 이동시키고, 회전시킬 수 있는 상기 구동부(11)가 마련된다. 상기 구동부(11)는 복수 개의 회전 가능한 구동 바퀴를 포함할 수 있고, 각각의 바퀴는 개별적으로 회전될 수 있어서, 상기 본체(10)가 원하는 방향으로 회전될 수 있다. 보다 구체적으로 상기 구동부(11)는 적어도 하나의 주 구동 바퀴(11a)와, 보조 바퀴(11b)를 포함할 수 있다. 예를 들어, 상기 본체(10)는 두개의 주 구동 바퀴(11a)를 포함할 수 있으며, 상기 주 구동 바퀴는 상기 본체(10)의 후방 저면에 설치될 수 있다.
상기 로봇(100)은, 상기 제어부(20)가 상기 본체(10)의 현재 위치를 판단하여, 상기 주행 영역(1000) 내를 주행하도록 상기 구동부(11)를 제어하여 상기 본체(10)의 주행을 제어하고, 상기 본체(10)가 상기 주행 영역(1000)을 주행하는 중 상기 제초부(30)가 바닥면의 잔디를 절삭하도록 제어하여, 상기 로봇(100)의 주행 및 제초 동작 수행을 제어할 수 있다.
이와 같이 동작하는 상기 로봇(100)은, 도 4에 도시된 바와 같이, 상기 본체(10), 상기 구동부(11), 상기 통신부(12), 상기 제초부(30) 및 상기 제어부(20)를 포함하여, 상기 주행 영역(1000)을 주행하며 잔디를 절삭할 수 있다. 상기 로봇(100)은 또한, 수신부(13), 출력부(14), 저장부(15), 센싱부(16), 촬영부(17), 입력부(18) 및 장애물 감지부(19) 중 하나 이상을 더 포함할 수 있다.
상기 구동부(11)는, 상기 본체(10)의 하부에 구비되는 구동 바퀴로, 회전 구동하여 상기 본체(10)를 이동시킬 수 있다. 즉, 상기 구동부(11)는, 상기 본체(10)가 상기 주행 영역(1000)을 주행하도록 구동하게 될 수 있다. 상기 구동부(11)는, 적어도 하나의 구동모터를 포함하여 상기 로봇(100)이 주행하도록 상기 본체(10)를 이동시킬 수 있다. 이를테면, 좌륜을 회전시키는 좌륜 구동모터와 우륜을 회전시키는 우륜 구동모터를 포함할 수 있다.
상기 구동부(11)는, 구동 결과에 대한 정보를 상기 제어부(20)에 전달하고, 상기 제어부(20)로부터 동작에 대한 제어 명령을 전달받을 수 있다. 상기 구동부(11)는, 상기 제어부(20)로부터 전달받은 제어 명령에 따라 동작하게 될 수 있다. 즉, 상기 구동부(11)는 상기 제어부(20)에 의해 제어될 수 있다.
상기 통신부(12)는, 상기 로봇(100)과 통신하는 하나 이상의 통신 대상 수단과 통신할 수 있다. 상기 통신부(12)는, 무선 통신 방식으로 상기 송출기(200) 및 상기 단말(300)과 통신할 수 있다. 상기 통신부(12)는 또한, 소정의 네트워크에 연결되어 외부의 서버 또는 상기 로봇(100)을 제어하는 상기 단말(300)과 통신할 수 있다. 상기 단말(300)과 통신하는 경우 상기 통신부(12)는, 생성되는 지도를 상기 단말(300)로 전송하고, 상기 단말(300)로부터 명령을 수신하며, 상기 로봇(100)의 동작 상태에 대한 데이터를 상기 단말(300)로 전송할 수 있다. 상기 통신부(12)는 지그비, 블루투스 등의 근거리 무선 통신뿐 아니라, 와이파이, 와이브로 등의 통신모듈을 포함하여 데이터를 송수신할 수 있다.
상기 통신부(12)는, 통신 결과에 대한 정보를 상기 제어부(20)에 전달하고, 상기 제어부(20)로부터 동작에 대한 제어 명령을 전달받을 수 있다. 상기 통신부(12)는, 상기 제어부(20)로부터 전달받은 제어 명령에 따라 동작하게 될 수 있다. 즉, 상기 통신부(12)는 상기 제어부(20)에 의해 제어될 수 있다.
상기 수신부(13)는, 위치 정보를 송수신하기 위한 복수의 센서모듈을 포함할 수 있다. 상기 수신부(13)는, 상기 송출기(200)로부터 상기 송출 신호를 수신하는 위치 센서 모듈을 포함할 수 있다. 상기 위치 센서 모듈은, 상기 송출기(200)로 신호를 송신할 수도 있다. 상기 송출기(200)가 초음파, UWB(Ultra Wide Band), 적외선 중 어느 하나의 방식으로 신호를 송신하는 경우, 상기 수신부(13)는, 그에 대응하여 초음파, UWB, 적외선신호를 송수신하는 센서모듈이 구비될 수 있다. 상기 수신부(13)는, 바람직하게는 UWB 센서를 포함할 수 있다. 참고로, UWB 무선기술은 무선 반송파(RF carrier)를 사용하지 않고, 기저역(Baseband)에서 수 GHz 이상의 매우 넓은 주파수 역을 사용하는 것을 의미한다. UWB 무선기술은 수 나노 혹은 수 피코 초의 매우 좁은 펄스를 사용한다. 이와 같은 UWB 센서에서 방출되는 펄스는 수 나노 혹은 수 피코이므로, 관통성이 좋고, 그에 따라 주변에 장애물이 존재하더라도 다른 UWB 센서에서 방출하는 매우 짧은 펄스를 수신할 수 있다.
상기 로봇(100)이 상기 단말(300)을 추종하여 주행하는 경우, 상기 단말(300)과 상기 로봇(100)은 각각 UWB 센서를 포함하여, 상기 UWB 센서를 통해 상호 간에 UWB 신호를 송수신할 수 있다. 상기 단말(300)은 구비되는 UWB 센서를 통해 UWB 신호를 송출하고, 상기 로봇(100)은 UWB 센서를 통해 수신되는 UWB 신호를 바탕으로 상기 단말(300)의 위치를 판단하여, 상기 단말(300)을 추종하여 이동할 수 있다. 이 경우, 상기 단말(300)은 송신측, 상기 로봇(100)은 수신측으로 동작하게 된다. 상기 송출기(200)가 UWB 센서를 구비하여 송출 신호를 송출하는 경우, 상기 로봇(100) 또는 상기 단말(300)은 구비되는 UWB 센서를 통해 상기 송출기(200)에서 송신된 송출 신호를 수신할 수 있다. 이때 상기 송출기(200)의 신호 방식과 상기 로봇(100) 및 상기 단말(300)의 신호 방식은 동일하거나 또는 상이할 수 있다.
상기 수신부(13)는, 복수의 UWB 센서를 포함할 수 있다. 상기 수신부(17)에 두 개의 UWB 센서가 포함되는 경우, 예를 들어 상기 본체(10)의 좌측과 우측에 각각 구비되어, 각각 송출 신호를 수신함으로써, 수신되는 복수의 신호를 비교하여 정확한 위치 산출이 이루어질 수 있다. 예를 들어, 상기 로봇(100)과 상기 송출기(200) 또는 상기 단말(300)의 위치에 따라, 좌측의 센서와 우측의 센서에서 측정되는 거리가 상이한 경우, 이를 바탕으로 상기 로봇(100)과 상기 송출기(200) 또는 상기 단말(300)의 상대적 위치, 상기 로봇(100)의 방향을 판단하게 될 수 있다.
상기 수신부(13)는 또한, GPS위성(400)으로부터 GPS신호를 송수신하는 GPS 모듈을 더 포함할 수 있다.
상기 수신부(13)는, 송출 신호의 수신 결과를 상기 제어부(20)에 전달하고, 상기 제어부(20)로부터 동작에 대한 제어 명령을 전달받을 수 있다. 상기 수신부(13)는, 상기 제어부(20)로부터 전달받은 제어 명령에 따라 동작하게 될 수 있다. 즉, 상기 수신부(13)는 상기 제어부(20)에 의해 제어될 수 있다.
상기 출력부(14)는, 상기 로봇(100)의 상태에 관한 정보를 음성의 형태로 출력하는 출력수단으로, 이를테면 스피커를 포함할 수 있다. 상기 출력부(14)는 상기 로봇(100)의 동작 중 이벤트 발생 시, 상기 이벤트에 관한 알람을 출력할 수 있다. 예를 들면, 상기 로봇(100)의 구동 전원이 소진되거나, 상기 로봇(100)에 충격이 가해지거나, 상기 주행 영역(1000) 상에서 사고가 발생할 시, 사용자에게 이에 대한 정보가 전달되도록 알람 음성을 출력하게 될 수 있다.
상기 출력부(14)는, 동작 상태에 대한 정보를 상기 제어부(20)에 전달하고, 상기 제어부(20)로부터 동작에 대한 제어 명령을 전달받을 수 있다. 상기 출력부(14)는, 상기 제어부(20)로부터 전달받은 제어 명령에 따라 동작하게 될 수 있다. 즉, 상기 출력부(14)는 상기 제어부(20)에 의해 제어될 수 있다.
상기 저장부(15)는, 마이크로 프로세서(micro processor)에 의해 읽힐 수 있는 데이터를 저장하는 저장수단으로, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치를 포함할 수 있다. 상기 저장부(15)에는, 수신되는 신호가 저장되고, 장애물을 판단하기 위한 기준 데이터가 저장되며, 감지된 장애물에 대한 장애물 정보가 저장될 수 있다. 또한, 상기 저장부(15)에는 상기 로봇(100)의 동작을 제어하기 위한 제어 데이터, 상기 로봇(100)의 동작 모드에 따른 데이터, 수집되는 위치 정보, 상기 주행 영역(1000) 및 상기 경계 영역(1200)에 대한 정보가 저장될 수 있다.
상기 센싱부(16)는, 상기 본체(10)의 자세 및 동작에 대한 정보를 센싱하는 하나 이상의 센서를 포함할 수 있다. 상기 센싱부(16)는, 상기 본체(10)의 움직임을 감지하는 기울기 센서 및 상기 구동부(11)의 구동 속도를 감지하는 속도 센서 중 하나 이상을 포함할 수 있다. 상기 기울기 센서는, 상기 본체(10)의 자세 정보를 센싱하는 센서일 수 있다. 상기 기울기 센서는, 상기 본체(10)의 전, 후, 좌, 우 방향으로 기울어지는 경우, 기울어진 방향과 각도를 산출하여 상기 본체(10)의 자세 정보를 센싱할 수 있다. 상기 기울기 센서는 틸트 센서, 가속도 센서 등이 사용될 수 있고, 가속도 센서의 경우 자이로식, 관성식, 실리콘 반도체식 중 어느 것이나 적용 가능하다. 또한, 그 외에 상기 본체(10)의 움직임을 감지할 수 있는 다양한 센서 또는 장치가 사용될 수 있을 것이다. 상기 속도 센서는, 상기 구동부(11)에 구비된 구동 바퀴의 구동 속도를 센싱하는 센서일 수 있다. 상기 속도 센서는, 상기 구동 바퀴가 회전하는 경우, 상기 구동 바퀴의 회전을 감지하여 구동 속도를 센싱할 수 있다.
상기 센싱부(16)는, 센싱 결과에 대한 정보를 상기 제어부(20)에 전달하고, 상기 제어부(20)로부터 동작에 대한 제어 명령을 전달받을 수 있다. 상기 센싱부(16)는, 상기 제어부(20)로부터 전달받은 제어 명령에 따라 동작하게 될 수 있다. 즉, 상기 센싱부(16)는 상기 제어부(20)에 의해 제어될 수 있다.
상기 촬영부(17)는, 상기 본체(10)의 주변을 촬영하는 카메라일 수 있다. 상기 촬영부(17)는, 상기 본체(10)의 주변을 촬영하여 상기 본체(10)의 주행 영역(1000)에 대한 영상 정보를 생성할 수 있다. 상기 촬영부(1)는, 상기 본체(10)의 전방을 촬영하여 상기 본체(10)의 주변, 상기 주행 영역(1000) 상에 존재하는 장애물을 감지할 수 있다. 상기 촬영부(17)는 디지털 카메라로, 이미지센서(미도시)와 영상처리부(미도시)를 포함할 수 있다. 이미지 센서는 광학 영상(image)을 전기적 신호로 변환하는 장치로, 다수개의 광 다이오드(photo diode)가 집적된 칩으로 구성되며, 광 다이오드로는 픽셀(pixel)을 예로 들 수 있다. 렌즈를 통과한 광에 의해 칩에 맺힌 영상에 의해 각각의 픽셀들에 전하가 축적되며, 픽셀에 축적된 전하들은 전기적 신호(예를들어, 전압)로 변환된다. 이미지 센서로는 CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등이 잘 알려져 있다. 또한, 상기 촬영부(12)는 촬영된 결과를 영상 처리하여, 상기 영상 정보를 생성하는 영상처리부(DSP)를 포함할 수 있다.
상기 촬영부(17)는, 촬영 결과를 상기 제어부(20)에 전달하고, 상기 제어부(20)로부터 동작에 대한 제어 명령을 전달받을 수 있다. 상기 촬영부(17)는, 상기 제어부(20)로부터 전달받은 제어 명령에 따라 동작하게 될 수 있다. 즉, 상기 촬영부(17)는 상기 제어부(20)에 의해 제어될 수 있다.
상기 입력부(18)는, 적어도 하나의 버튼, 스위치, 터치패드 등의 입력 수단과, 디스플레이부 등의 출력 수단을 포함하여 사용자 명령을 입력받고, 상기 로봇(100)의 동작 상태를 출력할 수 있다. 예를 들면, 상기 디스플레이부를 통해 상기 감시 모드의 수행에 대한 명령이 입력되고, 상기 감시 모드의 수행에 대한 상태를 출력할 수 있다.
상기 입력부(18)는, 상기 디스플레이부를 통해 상기 로봇(100)의 상태를 표시하고, 상기 로봇(100)의 제어 조작이 이루어지는 제어 화면을 표시할 수 있다. 상기 제어 화면은, 상기 로봇(100)의 구동 상태가 표시 출력되고, 사용자로부터 상기 로봇(100)의 구동 조작에 대한 명령이 입력되는 사용자 인터페이스 화면을 의미할 수 있다. 상기 제어 화면은, 상기 제어부(20)의 제어를 통해 상기 디스플레이부에 표시되고, 상기 제어 화면 상의 표시 및 입력된 명령 등이 상기 제어부(20)에 의해 제어될 수 있다.
상기 입력부(18)는, 동작 상태에 대한 정보를 상기 제어부(20)에 전달하고, 상기 제어부(20)로부터 동작에 대한 제어 명령을 전달받을 수 있다. 상기 입력부(18)는, 상기 제어부(20)로부터 전달받은 제어 명령에 따라 동작하게 될 수 있다. 즉, 상기 입력부(18)는 상기 제어부(20)에 의해 제어될 수 있다.
상기 장애물 감지부(19)는, 복수의 센서를 포함하여 주행방향에 존재하는 장애물을 감지한다. 상기 장애물 감지부(19)는 레이저, 초음파, 적외선, 3D센서 중 적어도 하나를 이용하여 상기 본체(10)의 전방, 즉 주행 방향의 장애물을 감지할 수 있다. 상기 장애물 감지부(19)는 또한, 상기 본체(10)의 배면에 설치되어 낭떠러지를 감지하는, 낭떠러지 감지센서를 더 포함할 수 있다.
상기 장애물 감지부(19)는, 감지 결과에 대한 정보를 상기 제어부(20)에 전달하고, 상기 제어부(20)로부터 동작에 대한 제어 명령을 전달받을 수 있다. 상기 장애물 감지부(19)는, 상기 제어부(20)로부터 전달받은 제어 명령에 따라 동작하게 될 수 있다. 즉, 상기 장애물 감지부(19)는 상기 제어부(20)에 의해 제어될 수 있다.
상기 제초부(30)는, 주행 중 바닥면의 잔디를 깎는다. 상기 제초부(30)는 잔디를 깎기 위한 브러쉬 또는 칼날이 구비되어 회전을 통해 바닥의 잔디를 깎게 될 수 있다.
상기 제초부(30)는, 동작 결과에 대한 정보를 상기 제어부(20)에 전달하고, 상기 제어부(20)로부터 동작에 대한 제어 명령을 전달받을 수 있다. 상기 제초부(30)는, 상기 제어부(20)로부터 전달받은 제어 명령에 따라 동작하게 될 수 있다. 즉, 상기 제초부(30)는 상기 제어부(20)에 의해 제어될 수 있다.
상기 제어부(20)는, 중앙 처리 장치를 포함하여 상기 로봇(100)의 전반적인 동작 제어를 수행할 수 있다. 상기 제어부(20)는 상기 본체(10), 상기 구동부(11) 및 상기 촬영부(17)를 통해, 상기 주행 영역(1000)을 주행하는 중 상기 주행 영역(1000)의 상태를 판단하여 상기 본체(10)의 주행을 제어하고, 상기 통신부(12), 상기 수신부(13), 상기 출력부(14), 상기 저장부(15), 상기 센싱부(16), 상기 입력부(18), 상기 장애물 감지부(19) 및 상기 제초부(30)를 통해 상기 로봇(100)의 기능/동작이 수행되도록 제어할 수 있다.
상기 제어부(20)는, 데이터의 입출력을 제어하고, 설정에 따라 상기 본체(10)가 주행하도록 상기 구동부(11)를 제어할 수 있다. 상기 제어부(20)는 상기 구동부(11)를 제어하여 좌륜 구동모터와 우륜 구동모터의 작동을 독립적으로 제어함으로써, 상기 본체(10)가 직진 또는 회전하여 주행하도록 제어할 수 있다.
상기 제어부(20)는, 상기 단말(300)로부터 수신되는 위치 정보 또는 상기 송출기(200)로부터 수신한 송출 신호를 근거로 판단한 위치 정보를 바탕으로 상기 경계 영역(1200)을 설정할 수 있다. 상기 제어부(20)는 또한, 주행 중 자체 수집한 위치 정보를 근거로 상기 경계 영역(1200)을 설정할 수도 있다. 상기 제어부(20)는 설정되는 상기 경계 영역(1200)에 의해 형성되는 영역 중 어느 일 영역을 상기 주행 영역(1000)으로 설정할 수 있다. 상기 제어부(20)는 불연속적인 위치 정보를 선 또는 곡선으로 연결하여 폐루프(closed loop) 형태로 상기 경계 영역(1200)을 설정하고, 내부 영역을 상기 주행 영역(1000)으로 설정할 수 있다. 상기 제어부(20)는 상기 주행 영역(1000) 및 상기 경계 영역(1200)이 설정되면, 상기 주행 영역(1000) 내에서 주행하며 설정된 상기 경계 영역(1200)을 벗어나지 않도록 상기 본체(10)의 주행을 제어할 수 있다. 상기 제어부(20)는 수신되는 위치 정보를 바탕으로 현재 위치를 판단하고, 판단한 현재 위치가 상기 주행 영역(1000) 내에 위치하도록 상기 구동부(11)를 제어하여 상기 본체(10)의 주행을 제어할 수 있다.
또한, 상기 제어부(20)는, 상기 촬영부(17) 및 상기 장애물 감지부(19) 중 하나 이상에 의해 입력되는 장애물 정보에 따라, 장애물을 회피하여 주행하도록 상기 본체(10)의 주행을 제어할 수 있다. 이 경우 상기 제어부(20)는, 상기 장애물 정보를 상기 주행 영역(1000)에 대한 기저장된 영역 정보에 반영하여 상기 주행 영역(1000)을 수정하게 될 수 있다.
이와 같은 상기 로봇(100)은, 상기 주행 영역(1000)을 주행하기 위한 초기 설정 시 상기 경계 영역(1200)이 설정되어, 설정된 정보를 근거로 상기 주행 영역(1000)을 주행할 수 있다. 여기서, 상기 경계 영역(1200)의 설정은, 상기 로봇(100)이 상기 주행 영역(1000)을 자율 주행하며 상기 송출기(200)로부터 상기 송출 신호를 수신한 결과를 근거로 설정하게 되거나, 상기 로봇(100)과 상기 단말(300)과의 통신을 통해 이루어지게 될 수 있다.
상기 시스템(1)은, 이와 같은 상기 경계 영역(1200)의 설정이 이루어지게 되는 시스템으로, 도 5에 도시된 바와 같이, 복수의 송출기(200), 신호 수신 장치(600)(이하, 수신 장치라 칭한다) 및 상기 로봇(100)을 포함한다. 즉, 상기 시스템(1)은, 상기 복수의 송출기(200), 상기 수신 장치(600) 및 상기 로봇(100)을 포함하는 이동 로봇 시스템으로, 구체적인 실시 형태는 도 6에 도시된 바와 같을 수 있다.
상기 시스템(1)에서 상기 복수의 송출기(200)는, 상기 주행 영역(1000)의 경계 영역(1200)에 설치되어 송출 신호를 송출한다. 상기 복수의 송출기(200)는, 상기 경계 영역(1200)에 분산되어 설치될 수 있다. 이를테면, 도 6에 도시된 바와 같이, 상기 경계 영역(1200)의 모서리 부분 각각에 분산되어 설치될 수 있다. 상기 복수의 송출기(200)는, 바람직하게는 3개 이상이 상기 경계 영역(1200)에 분산되어 설치되어, 설치된 위치에서 각각 상기 송출 신호를 송출할 수 있다. 도 6에 도시된 바와 같이 상기 경계 영역(1200)에 분산되어 설치된 상기 복수의 송출기(200) 각각은, 상기 로봇(100)의 위치 판단 및 상기 경계 영역(1200)의 설정 근거가 되는 상기 송출 신호를 송출할 수 있다. 상기 복수의 송출기(200) 각각에서 송출된 상기 송출 신호는, 상기 수신 장치(600) 및 상기 로봇(100)에 수신될 수 있다.
상기 시스템(1)에서 상기 수신 장치(600)는, 상기 송출 신호를 수신하고, 상기 주행 영역(1000)의 바닥면에 측정 신호를 조사한 결과를 근거로 상기 측정 신호가 조사된 지점과의 거리를 측정한다. 상기 수신 장치(600)는, 상기 시스템(1)에서 상기 경계 영역(1200)의 설정을 위한 장치로, 상기 복수의 송출기(200) 및 상기 로봇(100)과 통신할 수 있다. 상기 수신 장치(600)는, 막대 형태로 이루어질 수 있다. 상기 수신 장치(600)는, 상기 로봇(100)과 구분되는 장치로, 상기 로봇(100)과 별도의 구성으로 이루어질 수 있다. 또한, 상기 수신 장치(600)는, 도 7에 도시된 바와 같이, 상기 로봇(100)에 착탈될 수 있다. 이 경우, 상기 수신 장치(600)는, 상기 로봇(100)의 후측면에 착탈될 수 있으며, 상기 로봇(100)에서 상기 송출 신호를 수신하는 수신 수단, 이를테면 안테나에 해당될 수 있다. 상기 수신 장치(600)는, 상기 복수의 송출기(200) 각각에서 송출된 상기 송출 신호를 수신하고, 상기 바닥면에 상기 측정 신호를 조사하여, 조사 결과를 근거로 상기 측정 신호가 조사된 지점과의 거리를 측정하고, 상기 송출 신호의 수신 결과 및 상기 거리의 측정 결과를 상기 로봇(100)에 전달하는 구성으로 이루어질 수 있다. 즉, 상기 수신 장치(600)는, 상기 송출 신호를 수신하고, 상기 측정 신호를 조사하여 거리를 측정하여, 상기 로봇(100)에 수신 결과 및 측정 결과를 전달하는 장치일 수 있다. 상기 수신 장치(600)는, 서로 다른 위치에 구비되어 상기 송출 신호를 수신하는 복수의 수신 태그(610: 611 및 612), 상기 바닥면에 상기 측정 신호를 조사하여, 조사 결과를 근거로 상기 거리를 측정하는 거리 센서(620) 및 상기 복수의 수신 태그(610) 각각의 수신 결과 및 상기 거리 센서의 측정 결과를 상기 로봇(100)에 전달하는 통신 모듈(630)을 포함할 수 있다.
상기 복수의 수신 태그(610)는, 상기 수신 장치(600)의 서로 다른 위치에 구비되어, 구비된 위치 각각에서 상기 송출 신호를 수신할 수 있다. 즉, 상기 송출 신호는, 상기 수신 장치(600)의 서로 다른 위치 각각에서 수신될 수 있다. 상기 복수의 수신 태그(610)는, 상기 수신 장치(600)의 일측에 구비되는 제1 태그(611) 및 상기 수신 장치(612)의 타측에 구비되는 제2 태그(612)를 포함할 수 있다. 상기 제1 태그(611)는, 상기 수신 장치(600)의 본체의 어느 일측에 구비되어, 상기 복수의 송출기(200) 각각에서 송출된 상기 송출 신호를 수신할 수 있다. 상기 제1 태그(611)는, 바람직하게는 상기 수신 장치(600)의 전측, 이를테면 상기 거리 센서(620)가 구비된 위치에 구비될 수 있다. 상기 제2 태그(612)는, 상기 제1 태그(611)가 구비된 위치와 반대되는 상기 수신 장치(600)의 본체의 타측에 구비되어, 상기 복수의 송출기(200) 각각에서 송출된 상기 송출 신호를 수신할 수 있다. 상기 제2 태그(612)는, 바람직하게는 상기 수신 장치(600)의 후측, 이를테면 상기 거리 센서(620)가 구비된 위치와 반대되는 구비될 수 있다. 이에 따라, 상기 수신 장치(600)는, 상기 제1 태그(611) 및 상기 제2 태그(612)를 통해 상기 수신 장치(600)의 본체의 일측 및 타측 각각에서 상기 송출 신호를 수신하게 될 수 있다. 이처럼 상기 수신 장치(600)의 일측 및 타측 각각에 구비되는 상기 제1 태그(611) 및 상기 제2 태그(612)는, 동일 직선 상에 해당하는 위치에 구비될 수 있다. 또한, 상기 제1 태그(611) 및 상기 제2 태그(612)는, 상기 거리 센서(620)와 동일 직선 상에 해당하는 위치에 구비될 수 있다. 즉, 상기 제1 태그(611), 상기 제2 태그(612) 및 상기 거리 센서(620)는, 동일 직선 상에 해당하는 위치에 구비될 수 있다. 이에 따라, 상기 거리 센서(620)에서 조사되는 신호의 방향과, 상기 제1 태그(611)에서 상기 제2 태그(612)로의 방향이 일치하게 될 수 있다.
상기 거리 센서(620)는, 상기 수신 장치(600)의 일측에 구비되어, 상기 수신 장치(600)의 일측에서 상기 측정 신호를 조사할 수 있다. 여기서, 상기 측정 신호는 레이저 신호일 수 있다. 즉, 상기 거리 센서(620)는, 상기 바닥면에 레이저 센서를 조사한 결과를 근거로, 상기 레이저 센서가 조사된 상기 바닥면과 상기 거리 센서(620) 간의 거리를 측정하는 레이저 센서일 수 있다. 상기 거리 센서(620)는, 상기 복수의 수신 태그(610) 중 상기 수신 장치(600)의 일측에 구비된 상기 제1 태그(611)가 구비된 위치에 돌출된 형태로 구비될 수 있다. 도 7에 도시된 바와 같이 상기 수신 장치(600)가 상기 로봇(100)에 착탈되는 형태로 이루어진 경우, 상기 거리 센서(620)에서 상기 측정 신호가 조사되는 조사부는, 상기 로봇(100)에 고정 결합되기 위한 결합 수단이 될 수 있다. 상기 측정 신호의 조사는, 상기 수신 장치(610)에 구비된 버튼, 센서 및 별도의 조작 수단 중 하나 이상을 통해 이루어지게 될 수 있다. 이를테면, 상기 수신 장치(610)에 구비된 신호 조사 버튼이 눌려지면, 상기 측정 신호가 조사될 수 있다. 또한, 상기 신호 조사 버튼이 눌려지는 동안에는 상기 측정 신호가 연사될 수 있어, 상기 수신 장치(600)를 통한 상기 경계 영역(1200)의 설정이 이루어지게 될 수 있다. 상기 거리 센서(620)는, 상기 시스템(1)의 사용자에 의해 상기 바닥면에 상기 측정 신호가 임의로 조사되면, 상기 측정 신호의 조사 결과를 근거로 상기 거리 센서(620)와 상기 측정 신호가 조사된 지점과의 거리를 측정할 수 있다. 또한, 상기 측정 신호가 상기 바닥면에 임의의 경로로 연사된 경우, 연사된 경로에 포함된 조사 지점 각각과의 거리를 측정할 수도 있다. 이를테면, 상기 측정 신호가 상기 경계 영역(1200)을 따라 임의의 경로(P)로 연사된 경우, 연사된 임의의 경로(P)에 포함된 복수의 조사 지점 각각과의 거리를 측정하게 될 수 있다.
상기 통신 모듈(630)은, 상기 수신 장치(600)의 내부에 포함되어, 상기 제1 태그(611) 및 상기 제2 태그(612) 각각의 상기 송출 신호의 수신 결과와 상기 거리 센서(620)의 측정 결과를 상기 로봇(100)에 전달할 수 있다. 상기 통신 모듈(630)은, 상기 로봇(100)과 실시간으로 통신할 수 있다. 이 경우, 상기 통신 모듈(630)은, 상기 로봇(100)에 포함된 상기 통신부(12)와 통신할 수 있다. 상기 통신 모듈(630)은, 무선 통신 방식으로 상기 수신 결과 및 상기 측정 결과를 상기 로봇(100)에 전달할 수 있다. 상기 통신 모듈(630)은, 상기 수신 결과 및 상기 측정 결과를 상기 로봇(100)에 실시간으로 전달할 수 있다. 이를테면, 상기 수신 장치(600)의 위치가 변화되며 상기 측정 신호가 상기 바닥면에 일정 경로로 연사되는 동안의 수신 결과 및 측정 결과가 실시간으로 상기 로봇(100)에 전달될 수 있다. 이에 따라, 상기 로봇(100)은, 상기 수신 장치(600)의 위치 및 상기 측정 신호의 조사 지점 중 하나 이상이 변화될 때마다 상기 수신 결과 및 상기 측정 결과를 전달받게 될 수 있다.
이처럼 상기 복수의 수신 태그(610), 상기 거리 센서(620) 및 상기 통신 모듈(630)을 포함하는 상기 수신 장치(600)는, 도 8에 도시된 바와 같이 상기 시스템(1)의 사용자에 의해 상기 경계 영역(1200)을 따라 상기 바닥면에 임의의 경로(P)로 상기 측정 신호가 연사되는 동안, 상기 송출 신호를 수신하고, 상기 경로(P)에 포함된 조사 지점 각각과의 거리를 측정하여, 상기 로봇(100)에 상기 수신 결과 및 상기 측정 결과를 전달할 수 있다. 여기서, 상기 수신 장치(600)로부터 상기 측정 신호가 연사되는 경우는, 상기 수신 장치(600)가 어느 한 위치에 고정된 상태에서 상기 측정 신호의 조사가 상기 경로(P) 대로 이루어질 수 있다. 이를테면, 사용자가 상기 주행 영역(1000)의 어느 일 지점에 위치한 상태에서 상기 수신 장치(600)를 조작하여 상기 측정 신호가 상기 경로(P)로 연사될 수 있다. 이 경우, 상기 수신 결과의 변화 및 상기 측정 결과의 변화는 상기 수신 장치(600)의 회전에 해당하는 범위 내에서 이루어지게 될 수 있다. 상기 수신 장치(600)로부터 상기 측정 신호가 연사되는 경우는 또한, 상기 수신 장치(600)의 위치가 변동되는 상태에서 상기 측정 신호의 조사가 상기 경로(P) 대로 이루어질 수도 있다. 이를테면, 사용자가 상기 경로(P)를 따라 이동하는 상태에서 상기 수신 장치(600)를 조작하여 상기 측정 신호가 상기 경로(P)로 연사될 수 있다. 이 경우, 상기 수신 결과의 변화 및 상기 측정 결과의 변화는 상기 수신 장치(600)의 위치 변화에 해당하는 범위 내에서 이루어지게 될 수 있다.
상기 시스템(1)에서 상기 로봇(100)은, 상기 수신 장치(600)로부터 상기 송출 신호의 수신 결과 및 상기 거리의 측정 결과를 전달받아, 상기 수신 결과 및 상기 측정 결과를 근거로 상기 측정 신호가 상기 바닥면에 조사된 경로에 대응하여 상기 주행 영역(1000)의 경계 정보를 생성한다. 이 경우, 상기 로봇(100)은, 상기 수신 장치(600)와 통신하는 상기 통신부(12)를 통해 상기 수신 결과 및 상기 측정 결과를 전달받을 수 있다. 여기서, 상기 경계 정보는, 상기 경계 영역(1200)으로 설정되는 가상의 경계 정보를 의미할 수 있다. 이에 따라, 상기 로봇(100)은, 상기 경계 정보에 따라 상기 경계 영역(1200)이 설정되어, 상기 주행 영역(1000)을 주행하게 될 수 있다. 상기 경계 정보는, 상기 주행 영역(1000) 상의 어느 일 지점을 기준으로한 좌표 정보 상에서 상기 경계 영역(1200)에 해당하는 부분의 좌표 정보일 수 있다. 상기 로봇(100)은, 상기 수신 결과 및 상기 측정 결과를 전달받아, 상기 수신 결과 및 상기 측정 결과를 벡터(Vector) 형태로 수치화할 수 있다. 이를테면, 도 8에 도시된 바와 같이, 상기 제1 태그(611)의 수신 결과는 벡터 P 1 n, 상기 제2 태그(612)의 수신 결과는 벡터 P 2 n, 상기 거리 센서(620)의 측정 결과는 벡터 L로 수치화할 수 있다. 여기서, 상기 수신 결과 및 상기 측정 결과 각각의 벡터는, 상기 주행 영역(1000) 상의 어느 한 지점을 기준으로 수치화될 수 있다. 즉, 상기 수신 결과 및 상기 측정 결과 각각의 벡터는, 동일한 기준점을 기준으로 수치화될 수 있다. 이를테면, 상기 복수의 송출기(200) 중 어느 한 송출기(200#2)를 기준으로한 좌표에 대응되도록 수치화될 수 있다. 구체적인 예를 들면, 도 9에 도시된 바와 같이, 송출기#2(200#2)의 위치를 기준(0, 0, 0)으로한 좌표 상에서, 상기 제1 태그(611)의 수신 결과를 벡터 P 1 n(X 2 1, Y 2 1, Z 2 1)으로, 상기 제2 태그(612)의 수신 결과를 벡터 P 2 n(X 1 1, Y 1 1, Z 1 1)으로, 상기 측정 결과를 벡터 L(X 3 1, Y 3 1, Z 3 1)으로 수치화할 수 있다. 이에 따라 상기 로봇(100)은, 일정 지점을 기준으로한 벡터 정보인 상기 제1 태그(611)의 수신 결과, 상기 제2 태그(612)의 수신 결과 및 상기 측정 결과를 근거로 상기 신호 장치(600)에서 상기 측정 신호가 조사된 조사 지점의 좌표 정보를 인식하게 될 수 있다.
상기 로봇(100)은, 상기 수신 장치(600)에 의해 상기 측정 신호가 상기 경계 영역(1200)을 따라 임의의 경로(P)로 연사되면, 상기 수신 장치(600)로부터 상기 경로(P)대로 상기 측정 신호가 연사되는 중의 상기 수신 결과 및 상기 측정 결과를 전달받고, 상기 수신 결과 및 상기 측정 결과를 근거로 상기 조사 지점의 좌표 정보를 인식하여, 상기 좌표 정보를 이용하여 상기 경계 정보를 생성할 수 있다.
상기 로봇(100)은, 상기 수신 결과를 근거로 상기 측정 신호의 조사 방향을 검출하여, 상기 조사 방향 및 상기 측정 결과를 근거로 상기 좌표 정보를 인식할 수 있다. 즉, 상기 로봇(100)은, 상기 복수의 수신 태그(610)에서 상기 송출 신호를 수신한 결과를 근거로 상기 측정 신호의 조사 방향을 검출하게 됨으로써, 상기 수신 결과로부터 상기 측정 신호가 조사된 상기 조사 지점의 방향을 판단하고, 상기 측정 결과로부터 상기 측정 신호가 조사된 거리를 판단하게 되어, 상기 조사 방향 및 상기 측정 결과를 근거로 상기 좌표 정보를 인식하게 될 수 있다.
상기 로봇(100)은, 상기 수신 결과를 근거로 상기 복수의 수신 태그(610) 각각이 상기 송출 신호를 수신한 위치 정보를 판단하여, 상기 위치 정보를 근거로 상기 조사 방향을 검출할 수 있다. 즉, 상기 로봇(100)은, 상기 수신 장치(600)의 서로 다른 위치에 구비되되, 상기 거리 센서(620)와 동일 직선 상에 해당하는 위치에 구비되는 상기 제1 태그(611) 및 상기 제2 태그(612) 각각의 위치를 이용하여 상기 수신 장치(600)의 방향, 즉 상기 측정 신호가 상기 바닥면에 조사되는 조사 방향을 검출하게 될 수 있다. 이 경우, 상기 로봇(100)은, 상기 제1 태그(611)의 위치와 상기 제2 태그(612)의 위치 간의 벡터를 연산하여 상기 조사 방향을 검출할 수 있다.
상기 로봇(100)은, 상기 조사 방향을 이용하여 상기 측정 결과에 따른 좌표 값을 연산하고, 상기 복수의 수신 태그(610) 중 상기 거리 센서(620)와 인접한 태그와 상기 거리 센서(620) 간의 이격 길이(offset)를 상기 좌표 값에 반영하여 상기 좌표 정보를 인식할 수 있다. 즉, 상기 로봇(100)은, 상기 조사 방향 및 상기 측정 결과를 근거로 상기 조사 지점의 좌표 값을 연산하고, 상기 제1 태그(611)와 상기 거리 센서(620) 간의 이격 길이(offset)를 상기 좌표 값에 반영하여 상기 좌표 정보를 인식함으로써, 상기 조사 지점의 위치를 정확하게 인식하게 될 수 있다.
이처럼 상기 조사 지점의 좌표 정보를 인식하는 상기 로봇(100)은, 상기 경로(P) 대로 상기 측정 신호가 조사되는 중 상기 수신 결과 및 상기 측정 결과를 근거로 상기 경로(P) 상에 해당하는 복수의 조사 지점들 각각의 좌표 정보를 인식하여, 인식 결과를 근거로 상기 경계 정보를 생성할 수 있다. 즉, 상기 로봇(100)은, 도 10a에 도시된 바와 같이, 상기 수신 장치(600)에 의해 상기 경로(P) 대로 상기 측정 신호가 조사되는 중 상기 수신 장치(600)로부터 상기 경로(P) 상의 복수의 조사 지점들 각각에서의 상기 수신 결과 및 상기 측정 결과를 전달받아, 상기 수신 결과 및 상기 측정 결과를 근거로 상기 복수의 조사 지점들 각각의 좌표 정보를 인식함으로써, 상기 경로(P)에 따른 상기 경계 정보를 생성하게 될 수 있다. 이에 따라, 상기 로봇(100)은, 상기 수신 장치(600)를 통해 지정된 상기 경로(P)에 따라 상기 경계 영역(1200)을 설정하게 될 수 있다.
상기 로봇(100)은, 상기 인식 결과에 포함된 좌표 정보들에 해당하는 지점들을 하나의 좌표 평면 상에 배열하고, 배열된 지점들 중 하나의 선으로 연결 가능한 지점들을 연결하여 상기 경계 정보를 생성할 수 있다. 즉, 상기 로봇(100)은, 상기 복수의 지점들 각각의 좌표 정보를 인식한 후, 상기 좌표 정보들에 해당하는 지점들을 하나의 좌표 평면 상에 배열하여 하나의 선으로 연결 가능한 지점들을 연결함으로써, 상기 경로(P)에 따른 상기 경계 정보를 생성하게 될 수 있다. 이 경우, 상기 로봇(100)은, 바람직하게는 폐곡선이 형성되도록 상기 좌표 정보들에 해당하는 지점들을 하나의 선으로 연결하게 될 수 있다. 이에 따라, 상기 경로(P)에 따른 상기 경계 영역(1200)의 설정이 용이하게 이루어지게 될 수 있다.
상기 로봇(100)은, 상기 배열된 지점들 중 하나의 선으로 연결이 불가한 지점들을 제외하고, 일정 간격 이상으로 연속되지 않은 지점들을 연결하여 상기 경계 정보를 생성할 수 있다. 즉, 상기 로봇(100)은, 상기 인식 결과에 포함된 좌표 정보들에 해당하는 지점들을 하나의 좌표 평면 상에 배열한 후, 상기 배열된 지점들 중 하나의 선으로 연결이 불가한 지점들을 제외하고, 일정 간격 이상으로 연속되지 않은 지점들을 연결함으로써, 상기 인식 결과를 보정/보상하여 상기 경계 정보 생성하게 될 수 있다. 이를테면, 도 10b에 도시된 바와 같이, 하나의 선으로 연결이 불가한 지점들(E1)을 제외하고, 일정 간격 이상으로 연속되지 않은 지점들(E2)을 연결하는 보정 과정을 거쳐 상기 경계 정보를 생성하게 될 수 있다.
이와 같이 상기 경계 정보를 생성하는 상기 로봇(100)은, 상기 인식 결과로부터 상기 경계 정보를 생성하는 과정 각각의 이미지를 저장할 수 있다. 즉, 상기 로봇(100)은, 상기 인식 결과에 포함된 좌표 정보들에 해당하는 지점들을 하나의 좌표 평면 상에 배열한 후, 상기 배열된 지점들 중 하나의 선으로 연결이 불가한 지점들을 제외하고, 일정 간격 이상으로 연속되지 않은 지점들을 연결하여 상기 경계 정보를 생성하는 과정 각각의 이미지를 이미지 데이터 형태로 저장하게 될 수 있다. 이를테면, 도 10b에 도시된 바와 같이 상기 인식 결과를 보정/보상하기 전 및 보정/보상한 후 상기 경계 정보의 생성이 완료된 이미지 각각을 상기 저장부(15)에 저장하게 될 수 있다. 이를 통해, 상기 수신 장치(600)를 이용한 상기 경계 영역(1200)의 재설정 시에 저장된 데이터와 비교하며 상기 경계 정보의 수정이 이루어지거나, 상기 단말(300) 또는 상기 GPS(400)로부터 전송받은 위치 정보와의 정합이 용이하게 이루어지게 될 수 있다.
이상과 같이 상기 시스템(1)은, 상기 수신 장치(600)에 의해 상기 주행 영역(1000)의 바닥면에 조사된 경로(P)에 따라 상기 로봇(100)이 상기 경계 정보를 생성하게 됨으로써, 상기 경계 영역(1200)의 설정이 상기 수신 장치(600)를 통해 임의로 간편하게 이루어질 수 있게 된다.
상술한 바와 같은 상기 시스템(1)은, 하술할 이동 로봇 시스템의 경계 정보 생성 방법(이하, 생성 방법이라 칭한다)이 적용되어 실시될 수 있다.
상기 생성 방법은, 앞서 설명한 상기 시스템(1)에서 상기 경계 정보를 생성하기 위한 방법으로, 앞서 설명한 상기 시스템(1)에 적용될 수 있으며, 또한 앞서 설명한 상기 시스템(1) 이외에도 적용될 수 있다.
상기 생성 방법은, 상기 복수의 송출기(200), 상기 수신 장치(600) 및 상기 로봇(100)을 포함하는 상기 시스템(1)에서 상기 경계 정보를 생성하는 방법으로, 도 11에 도시된 바와 같이, 상기 측정 신호가 상기 바닥면에 임의의 경로로 조사되는 단계(S10), 상기 조사되는 단계 동안 상기 수신 장치(600)가 상기 수신 결과 및 상기 측정 결과를 상기 로봇(100)에 전달하는 단계(S20), 상기 로봇(100)이 상기 수신 결과 및 상기 측정 결과를 근거로 상기 경로에 대응하는 복수의 조사 지점들 각각의 좌표 정보를 인식하는 단계(S30) 및 상기 로봇(100)이 상기 좌표 정보의 인식 결과를 근거로 상기 경계 정보를 생성하는 단계(S40)를 포함한다.
즉, 상기 시스템(1)에서 상기 경계 정보의 생성은, 상기 조사되는 단계(S10), 상기 전달하는 단계(S20), 상기 인식하는 단계(S30) 및 상기 생성하는 단계(S40)를 포함하여 이루어지게 될 수 있다. 이에 따라, 상기 시스템(1)은, 상기 조사되는 단계(S10), 상기 전달하는 단계(S20), 상기 인식하는 단계(S30) 및 상기 생성하는 단계(S40) 순으로 상기 경계 정보의 생성이 수행될 수 있다.
이처럼 상기 생성 방법이 수행되는 상기 시스템(1)에서 상기 수신 장치(600)는, 일측에 구비되어, 상기 일측에서 상기 송출 신호를 수신하는 상기 제1 태그(611) 및 타측에 구비되어, 상기 타측에서 상기 송출 신호를 수신하는 상기 제2 태그(612)를 포함할 수 있다. 이에 따라, 상기 수신 장치(600)에서 상기 송출 신호의 수신은, 상기 수신 장치(600)의 서로 다른 위치에 구비된 상기 제1 태그(611) 및 상기 제2 태그(612) 각각에서 이루어지게 될 수 있다.
상기 조사되는 단계(S10)는, 상기 수신 장치(600)에서 조사된 상기 측정 신호가 상기 경로(P)로 조사되는 단계일 수 있다.
상기 조사되는 단계(S10)에서는, 상기 시스템(1)의 사용자에 의해 상기 수신 장치(600)가 조작되어, 상기 측정 신호가 상기 경로(P)를 따라 연사될 수 있다.
상기 조사되는 단계(S10)에서는, 상기 수신 장치(600)에 의해 상기 측정 신호가 상기 경로(P)로 연사되는 동안, 상기 수신 장치(600)가 상기 송출 신호를 실시간으로 수신하고, 상기 거리를 실시간으로 측정할 수 있다.
상기 전달하는 단계(S20)는, 상기 수신 장치(600)가 상기 조사되는 단계(S10)가 수행되는 동안의 상기 수신 결과 및 상기 측정 결과를 상기 로봇(100)에 전달하는 단계일 수 있다.
상기 전달하는 단계(S20)에서는, 상기 수신 장치(600)가 실시간으로 상기 수신 결과 및 상기 측정 결과를 상기 로봇(100)에 전달할 수 있다. 이에 따라, 상기 로봇(100)은, 상기 측정 신호가 상기 경로(P)대로 조사되는 동안 상기 수신 장치(600)로부터 상기 수신 결과 및 상기 측정 결과를 실시간으로 전달받을 수 있다.
상기 인식하는 단계(S30)는, 상기 로봇(100)이 상기 수신 장치(600)로부터 실시간으로 전달받은 상기 수신 결과 및 상기 측정 결과를 근거로 상기 경로(P) 상에 포함된 복수의 조사 지점들 각각의 좌표 값을 검출하여, 검출 결과를 근거로 상기 경로(P)에 대응하는 상기 복수의 조사 지점들의 좌표 정보를 인식하는 단계일 수 있다.
상기 인식하는 단계(S30)에서는, 상기 로봇(100)이 상기 수신 결과를 근거로 상기 복수의 수신 태그(610) 각각이 상기 송출 신호를 수신한 위치 정보를 판단하여, 상기 위치 정보를 근거로 상기 조사 방향을 검출할 수 있다. 즉, 상기 로봇(100)은, 상기 수신 장치(600)의 서로 다른 위치에 구비되되, 상기 거리 센서(620)와 동일 직선 상에 해당하는 위치에 구비되는 상기 제1 태그(611) 및 상기 제2 태그(612) 각각의 위치를 이용하여 상기 수신 장치(600)의 방향, 즉 상기 측정 신호가 상기 바닥면에 조사되는 조사 방향을 검출하게 될 수 있다.
상기 인식하는 단계(S30)에서는, 상기 로봇(100)이 상기 조사 방향을 이용하여 상기 측정 결과에 따른 좌표 값을 연산하고, 상기 복수의 수신 태그(610) 중 상기 거리 센서(620)와 인접한 태그와 상기 거리 센서(620) 간의 이격 길이(offset)를 상기 좌표 값에 반영하여 상기 좌표 정보를 인식할 수 있다. 즉, 상기 로봇(100)은, 상기 조사 방향 및 상기 측정 결과를 근거로 상기 조사 지점의 좌표 값을 연산하고, 상기 제1 태그(611)와 상기 거리 센서(620) 간의 이격 길이(offset)를 상기 좌표 값에 반영하여 상기 좌표 정보를 인식함으로써, 상기 조사 지점의 위치를 정확하게 인식하게 될 수 있다.
상기 생성하는 단계(S40)는, 상기 로봇(100)이 상기 인식하는 단계(S30)에서의 인식 결과를 근거로 상기 측정 신호가 연사된 상기 경로(P)에 대응하는 상기 경계 정보를 생성하는 단계일 수 있다.
상기 생성하는 단계(S40)에서는, 상기 로봇(100)이 상기 인식 결과에 포함된 좌표 정보들에 해당하는 지점들을 하나의 좌표 평면 상에 배열하고, 배열된 지점들 중 하나의 선으로 연결 가능한 지점들을 연결하여 상기 경계 정보를 생성할 수 있다. 즉, 상기 로봇(100)은, 상기 복수의 지점들 각각의 좌표 정보를 인식한 후, 상기 좌표 정보들에 해당하는 지점들을 하나의 좌표 평면 상에 배열하여 하나의 선으로 연결 가능한 지점들을 연결함으로써, 상기 경로(P)에 따른 상기 경계 정보를 생성하게 될 수 있다.
상기 생성하는 단계(S40)에서는, 상기 로봇(100)이 상기 배열된 지점들 중 하나의 선으로 연결이 불가한 지점들을 제외하고, 일정 간격 이상으로 연속되지 않은 지점들을 연결하여 상기 경계 정보를 생성할 수 있다. 즉, 상기 로봇(100)은, 상기 인식 결과에 포함된 좌표 정보들에 해당하는 지점들을 하나의 좌표 평면 상에 배열한 후, 상기 배열된 지점들 중 하나의 선으로 연결이 불가한 지점들을 제외하고, 일정 간격 이상으로 연속되지 않은 지점들을 연결함으로써, 상기 인식 결과를 보정/보상하여 상기 경계 정보 생성하게 될 수 있다.
이와 같은 상기 생성 방법은 또한, 상기 인식 결과로부터 상기 경계 정보를 생성하는 과정 각각의 이미지를 저장하는 단계를 더 포함할 수 있다.
상기 저장하는 단계는, 상기 로봇(100)이 상기 인식 결과로부터 상기 경계 정보를 생성하는 과정 각각의 이미지 데이터를 상기 저장부(15)에 저장하는 단계일 수 있다. 즉, 상기 로봇(100)은, 상기 인식 결과에 포함된 좌표 정보들에 해당하는 지점들을 하나의 좌표 평면 상에 배열한 후, 상기 배열된 지점들 중 하나의 선으로 연결이 불가한 지점들을 제외하고, 일정 간격 이상으로 연속되지 않은 지점들을 연결하여 상기 경계 정보를 생성하는 과정 각각의 이미지를 이미지 데이터 형태로 저장하게 될 수 있다.
상기 조사되는 단계(S10), 상기 전달하는 단계(S20), 상기 인식하는 단계(S30) 및 상기 생성하는 단계(S40)를 포함하는 상기 생성 방법은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 상기 제어부(20)를 포함할 수도 있다.
상술한 바와 같은 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법은, 잔디 깎이 로봇, 잔디 깍기 로봇의 제어 방법, 잔디 깎이 로봇의 제어수단, 잔디 깎이 로봇 시스템, 잔디 깎이 로봇의 경계 영역 설정 방법, 잔디 깎이 로봇 시스템의 경계 정보 생성/획득 방법 등에 적용되어 실시될 수 있다. 그러나 본 명세서에 개시된 기술은 이에 한정되지 않고, 상기 기술의 기술적 사상이 적용될 수 있는 모든 이동 로봇, 이동 로봇을 제어하는 제어 수단, 이동 로봇 시스템, 이동 로봇을 제어하기 위한 방법 등에도 적용되어 실시될 수 있다.
지금까지 구체적인 실시 예에 관하여 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서는 여러 가지 변형이 가능함은 물론이다. 그러므로, 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 안 되며, 후술하는 청구범위 뿐 아니라 이 청구범위와 균등한 것들에 의해 정해져야 한다.
[부호의 설명]
1: 이동 로봇 시스템 10: 본체
11: 구동부 12: 통신부
20: 제어부 30: 제초부
100: 이동 로봇 200: 송출기
300: 단말기 400: GPS 위성
600: 신호 수신 장치
610: 수신 태그(611: 제1 태그; 612: 제2 태그)
620: 거리 센서 630: 통신 모듈
1000: 주행 영역 1200: 경계 영역

Claims (20)

  1. 주행 영역의 경계 영역에 설치되어 송출 신호를 송출하는 복수의 송출기;
    상기 송출 신호를 수신하고, 상기 주행 영역의 바닥면에 측정 신호를 조사한 결과를 근거로 상기 측정 신호가 조사된 조사 지점과의 거리를 측정하는 신호 수신 장치; 및
    상기 신호 수신 장치로부터 상기 송출 신호의 수신 결과 및 상기 거리의 측정 결과를 전달받아, 상기 수신 결과 및 상기 측정 결과를 근거로 상기 측정 신호가 상기 바닥면에 조사된 경로에 대응하여 상기 주행 영역의 경계 정보를 생성하는 이동 로봇;을 포함하는 것을 특징으로 하는 이동 로봇 시스템.
  2. 제1 항에 있어서,
    상기 복수의 송출기는,
    상기 경계 영역에 분산되어 설치되는 것을 특징으로 하는 이동 로봇 시스템.
  3. 제1 항에 있어서,
    상기 신호 수신 장치는,
    상기 이동 로봇에 착탈되는 것을 특징으로 하는 이동 로봇 시스템.
  4. 제1 항에 있어서,
    상기 신호 수신 장치는,
    서로 다른 위치에 구비되어 상기 송출 신호를 수신하는 복수의 수신 태그;
    상기 바닥면에 상기 측정 신호를 조사하여, 조사 결과를 근거로 상기 거리를 측정하는 거리 센서; 및
    상기 복수의 수신 태그 각각의 수신 결과 및 상기 거리 센서의 측정 결과를 상기 이동 로봇에 전달하는 통신 모듈;을 포함하는 것을 특징으로 하는 이동 로봇 시스템.
  5. 제4 항에 있어서,
    상기 복수의 수신 태그는,
    상기 신호 수신 장치의 일측에 구비되는 제1 태그; 및
    상기 신호 수신 장치의 타측에 구비되는 제2 태그;를 포함하는 것을 특징으로 하는 이동 로봇 시스템.
  6. 제5 항에 있어서,
    상기 제1 태그 및 상기 제2 태그는,
    동일 직선 상에 해당하는 위치에 구비되는 것을 특징으로 하는 이동 로봇 시스템.
  7. 제4 항에 있어서,
    상기 거리 센서는,
    상기 신호 수신 장치의 일측에 구비되는 것을 특징으로 하는 이동 로봇 시스템.
  8. 제4 항에 있어서,
    상기 통신 모듈은,
    상기 수신 결과 및 상기 측정 결과를 상기 이동 로봇에 실시간으로 전달하는 것을 특징으로 하는 이동 로봇 시스템.
  9. 제4 항에 있어서,
    상기 이동 로봇은,
    상기 수신 결과 및 상기 측정 결과를 근거로 상기 조사 지점의 좌표 정보를 인식하여, 상기 좌표 정보를 이용하여 상기 경계 정보를 생성하는 것을 특징으로 하는 이동 로봇 시스템.
  10. 제9 항에 있어서,
    상기 이동 로봇은,
    상기 수신 결과를 근거로 상기 측정 신호의 조사 방향을 검출하여, 상기 조사 방향 및 상기 측정 결과를 근거로 상기 좌표 정보를 인식하는 것을 특징으로 하는 이동 로봇 시스템.
  11. 제10 항에 있어서,
    상기 이동 로봇은,
    상기 수신 결과를 근거로 상기 복수의 수신 태그 각각이 상기 송출 신호를 수신한 위치 정보를 판단하여, 상기 위치 정보를 근거로 상기 조사 방향을 검출하는 것을 특징으로 하는 이동 로봇 시스템.
  12. 제10 항에 있어서,
    상기 이동 로봇은,
    상기 조사 방향을 이용하여 상기 측정 결과에 따른 좌표 값을 연산하고, 상기 복수의 수신 태그 중 상기 거리 센서와 인접한 태그와 상기 거리 센서 간의 이격 길이를 상기 좌표 값에 반영하여 상기 좌표 정보를 인식하는 것을 특징으로 하는 이동 로봇 시스템.
  13. 제9 항에 있어서,
    상기 이동 로봇은,
    상기 경로 대로 상기 측정 신호가 조사되는 중 상기 수신 결과 및 상기 측정 결과를 근거로 상기 경로 상에 해당하는 복수의 조사 지점들 각각의 좌표 정보를 인식하여, 인식 결과를 근거로 상기 경계 정보를 생성하는 것을 특징으로 하는 이동 로봇 시스템.
  14. 제13 항에 있어서,
    상기 이동 로봇은,
    상기 인식 결과에 포함된 좌표 정보들에 해당하는 지점들을 하나의 좌표 평면 상에 배열하고, 배열된 지점들 중 하나의 선으로 연결 가능한 지점들을 연결하여 상기 경계 정보를 생성하는 것을 특징으로 하는 이동 로봇 시스템.
  15. 제14 항에 있어서,
    상기 이동 로봇은,
    상기 배열된 지점들 중 하나의 선으로 연결이 불가한 지점들을 제외하고, 일정 간격 이상으로 연속되지 않은 지점들을 연결하여 상기 경계 정보를 생성하는 것을 특징으로 하는 이동 로봇 시스템.
  16. 제14 항에 있어서,
    상기 이동 로봇은,
    상기 인식 결과로부터 상기 경계 정보를 생성하는 과정 각각의 이미지를 저장하는 것을 특징으로 하는 이동 로봇 시스템.
  17. 주행 영역의 경계 영역에 설치되어 송출 신호를 송출하는 복수의 송출기;
    상기 송출 신호를 수신하고, 상기 주행 영역의 바닥면에 측정 신호를 조사한 결과를 근거로 상기 측정 신호가 조사된 조사 지점과의 거리를 측정하는 신호 수신 장치; 및
    상기 신호 수신 장치로부터 상기 송출 신호의 수신 결과 및 상기 거리의 측정 결과를 전달받아, 상기 수신 결과 및 상기 측정 결과를 근거로 상기 주행 영역의 경계 정보를 생성하는 이동 로봇;을 포함하는 이동 로봇 시스템의 경계 정보 생성 방법에 있어서,
    상기 측정 신호가 상기 바닥면에 임의의 경로로 조사되는 단계;
    상기 조사되는 단계 동안 상기 신호 수신 장치가 상기 수신 결과 및 상기 측정 결과를 상기 이동 로봇에 전달하는 단계;
    상기 이동 로봇이 상기 수신 결과 및 상기 측정 결과를 근거로 상기 경로에 대응하는 복수의 조사 지점들 각각의 좌표 정보를 인식하는 단계; 및
    상기 이동 로봇이 상기 좌표 정보의 인식 결과를 근거로 상기 경계 정보를 생성하는 단계;를 포함하는 것을 특징으로 하는 이동 로봇 시스템의 경계 정보 생성 방법.
  18. 제17 항에 있어서,
    상기 신호 수신 장치는,
    일측에 구비되어, 상기 일측에서 상기 송출 신호를 수신하는 제1 태그; 및
    타측에 구비되어, 상기 타측에서 상기 송출 신호를 수신하는 제2 태그;를 포함하는 것을 특징으로 하는 이동 로봇 시스템의 경계 정보 생성 방법.
  19. 제17 항에 있어서,
    상기 전달하는 단계는,
    상기 신호 수신 장치가 실시간으로 상기 수신 결과 및 상기 측정 결과를 상기 이동 로봇에 전달하는 것을 특징으로 하는 이동 로봇 시스템의 경계 정보 생성 방법.
  20. 제17 항에 있어서,
    상기 생성하는 단계는,
    상기 인식 결과에 포함된 좌표 정보들에 해당하는 지점들을 하나의 좌표 평면 상에 배열하고, 배열된 지점들 중 하나의 선으로 연결 가능한 지점들을 연결하여 상기 경계 정보를 생성하는 것을 특징으로 하는 이동 로봇 시스템의 경계 정보 생성 방법.
PCT/KR2020/014477 2019-11-20 2020-10-22 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법 WO2021101090A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
AU2020389328A AU2020389328A1 (en) 2019-11-20 2020-10-22 Mobile robot system and boundary information generation method for mobile robot system
US17/777,732 US20230024763A1 (en) 2019-11-20 2020-10-22 Mobile robot system and boundary information generation method for mobile robot system
EP20891067.9A EP4063079A4 (en) 2019-11-20 2020-10-22 MOBILE ROBOT SYSTEM AND BOUNDARY INFORMATION GENERATION METHOD FOR A MOBILE ROBOT SYSTEM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020190149518A KR102378270B1 (ko) 2019-11-20 2019-11-20 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법
KR10-2019-0149518 2019-11-20

Publications (1)

Publication Number Publication Date
WO2021101090A1 true WO2021101090A1 (ko) 2021-05-27

Family

ID=75981299

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/014477 WO2021101090A1 (ko) 2019-11-20 2020-10-22 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법

Country Status (5)

Country Link
US (1) US20230024763A1 (ko)
EP (1) EP4063079A4 (ko)
KR (1) KR102378270B1 (ko)
AU (1) AU2020389328A1 (ko)
WO (1) WO2021101090A1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150328775A1 (en) * 2014-05-15 2015-11-19 Irobot Corporation Autonomous Mobile Robot Confinement System
JP2016152004A (ja) * 2015-02-19 2016-08-22 Jfeスチール株式会社 自律移動ロボットの自己位置推定方法、自律移動ロボット、及び自己位置推定用ランドマーク
US20160366818A1 (en) * 2011-08-11 2016-12-22 Chien Ouyang Robotic lawn mower with boundary stands
US20170150676A1 (en) 2014-10-10 2017-06-01 Irobot Corporation Robotic Lawn Mowing Boundary Determination
KR20190064253A (ko) * 2017-11-30 2019-06-10 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR20190123674A (ko) * 2018-04-06 2019-11-01 엘지전자 주식회사 이동 로봇과 이동 로봇 시스템

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN202795052U (zh) * 2012-08-29 2013-03-13 科沃斯机器人科技(苏州)有限公司 自移动机器人行走范围限制系统
KR102060715B1 (ko) * 2017-11-30 2019-12-30 엘지전자 주식회사 이동 로봇 및 그 제어방법
CN112352244B (zh) * 2018-04-23 2024-04-09 尚科宁家运营有限公司 控制系统和更新存储器中的地图的方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160366818A1 (en) * 2011-08-11 2016-12-22 Chien Ouyang Robotic lawn mower with boundary stands
US20150328775A1 (en) * 2014-05-15 2015-11-19 Irobot Corporation Autonomous Mobile Robot Confinement System
US20170150676A1 (en) 2014-10-10 2017-06-01 Irobot Corporation Robotic Lawn Mowing Boundary Determination
JP2016152004A (ja) * 2015-02-19 2016-08-22 Jfeスチール株式会社 自律移動ロボットの自己位置推定方法、自律移動ロボット、及び自己位置推定用ランドマーク
KR20190064253A (ko) * 2017-11-30 2019-06-10 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR20190123674A (ko) * 2018-04-06 2019-11-01 엘지전자 주식회사 이동 로봇과 이동 로봇 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4063079A4

Also Published As

Publication number Publication date
EP4063079A1 (en) 2022-09-28
EP4063079A4 (en) 2023-11-15
US20230024763A1 (en) 2023-01-26
KR102378270B1 (ko) 2022-03-24
AU2020389328A1 (en) 2022-06-16
KR20210061683A (ko) 2021-05-28

Similar Documents

Publication Publication Date Title
AU2019208265B2 (en) Moving robot, method for controlling the same, and terminal
EP3829831A1 (en) Moving robot, moving robot system, and method for moving to charging station of moving robot
US20200037498A1 (en) Moving robot, method for controlling moving robot, and moving robot system
WO2020122582A1 (en) Artificial intelligence moving robot and method for controlling the same
KR102238352B1 (ko) 스테이션 장치 및 이동 로봇 시스템
WO2020159277A2 (ko) 이동 로봇 및 이의 제어 방법
KR102224157B1 (ko) 이동 로봇 및 충전 스테이션을 포함하는 이동 로봇 시스템
KR20200018199A (ko) 이동 로봇, 이동 로봇 시스템 및 이동 로봇 시스템의 제어 방법
WO2020027611A1 (en) Moving robot, moving robot system, and method for moving to charging station of moving robot
WO2021230441A1 (ko) 이동 로봇 시스템의 송출기 및 이의 이탈 감지 방법
WO2019194415A1 (en) Mover robot system and controlling method for the same
WO2020122583A1 (en) Moving robot system and control method of the same
WO2020159100A1 (en) Artificial intelligence moving robot and method for controlling the same
WO2020122579A1 (en) Moving robot and method for controlling the same
WO2021101090A1 (ko) 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법
WO2020159101A1 (en) Artificial intelligence moving robot and method for controlling the same
WO2020027598A1 (en) Moving robot, moving robot system, and method for moving to charging station of moving robot
WO2021112402A1 (ko) 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법
WO2021241889A1 (en) Moving robot system and method for generating boundary information of the same
WO2020027610A1 (en) Moving robot, system of moving robot and method for moving to charging station of moving robot
KR102514499B1 (ko) 인공지능 이동 로봇 및 이의 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20891067

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020389328

Country of ref document: AU

Date of ref document: 20201022

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020891067

Country of ref document: EP

Effective date: 20220620