WO2021182858A1 - 이동 로봇 - Google Patents

이동 로봇 Download PDF

Info

Publication number
WO2021182858A1
WO2021182858A1 PCT/KR2021/002931 KR2021002931W WO2021182858A1 WO 2021182858 A1 WO2021182858 A1 WO 2021182858A1 KR 2021002931 W KR2021002931 W KR 2021002931W WO 2021182858 A1 WO2021182858 A1 WO 2021182858A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobile robot
camera
rotating body
control unit
present
Prior art date
Application number
PCT/KR2021/002931
Other languages
English (en)
French (fr)
Inventor
이재광
백승민
노동기
주정우
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of WO2021182858A1 publication Critical patent/WO2021182858A1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/0058Means for cleaning manipulators, e.g. dust removing means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/0075Means for protecting the manipulator from its environment or vice versa
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • B25J9/102Gears specially adapted therefor, e.g. reduction gears
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • B25J9/104Programme-controlled manipulators characterised by positioning means for manipulator elements with cables, chains or ribbons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/10Programme-controlled manipulators characterised by positioning means for manipulator elements
    • B25J9/108Bearings specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Definitions

  • the present invention relates to a mobile robot and a method for controlling the same, and to a camera cover for a mobile robot autonomously driving in an outdoor environment and a method for controlling the same.
  • Robots have been developed for industrial use and have been a part of factory automation. Recently, the field of application of robots has been further expanded, and medical robots and aerospace robots have been developed, and household robots that can be used in general households are also being made. Among these robots, those capable of driving by their own force are called mobile robots.
  • a representative example of a mobile robot used in an outdoor environment at home is a lawn mower robot.
  • the movable area In the case of a mobile robot that autonomously travels indoors, the movable area is limited by walls or furniture, but in the case of a mobile robot that autonomously travels outdoors, it is necessary to set the movable area in advance. In addition, there is a need to limit a movable area so that the lawn mower robot travels in an area where grass is planted.
  • the mobile robot is equipped with a camera, and can be used for obstacle recognition, position recognition, and the like.
  • foreign substances such as dust and mud were attached to the camera or the camera cover, so that it was difficult to recognize the camera.
  • An object of the present invention is to provide a mobile robot capable of removing foreign substances attached to the camera cover by centrifugal force by rotating the camera cover and a method for controlling the same.
  • An object of the present invention is to provide a mobile robot capable of securing a camera view by rotating a camera cover even in bad weather conditions outdoors and a control method thereof.
  • a mobile robot and a control method thereof according to an aspect of the present invention, by rotating the camera cover, it is possible to minimize the obstruction of the camera view.
  • the mobile robot and the control method thereof can operate stably according to the outdoor environment and situation by rotating the camera cover according to a predetermined standard.
  • a mobile robot working in an outdoor environment includes a main body, a traveling unit for moving the main body, a camera accommodated in the main body to photograph the outside of the main body, A camera cover including a transparent window disposed in front of the camera, a first rotating body fixed to the transparent window, a first fixing body fixed to the case of the main body, and a motor for rotating the first rotating body may include
  • the first rotating body and the first fixed body may have a ring shape.
  • the mobile robot according to an aspect of the present invention may further include a gear or a pulley that transmits a driving force by the rotation of the motor to the first rotating body.
  • the first rotating body may further include a holder portion extending in a direction toward the camera and connected to the gear or pulley.
  • the first rotating body may further include a bending part that is bent inwardly from an end of the first rotating body to support the transparent window.
  • the first rotating body may be an inner ring of the bearing
  • the first fixed body may be an outer ring of the bearing
  • the camera cover may further include a plurality of balls between the first rotating body and the first fixed body.
  • the mobile robot according to an aspect of the present invention may further include a bearing disposed between the first rotating body and the first fixed body.
  • the mobile robot extracts feature points of an image acquired through the camera only to determine whether there is a foreign material, and drives the motor when it is determined that there is a foreign material to further include a control unit for controlling the first rotating body to rotate.
  • the controller may compare two or more images to determine whether foreign matter is present.
  • the controller may detect the same object included in two or more consecutive images, and determine that the foreign material is present when the detected same object does not move.
  • the controller may detect the same object included in two or more consecutive images, and determine that the foreign material is present when a change in the detected size of the same object is smaller than a reference value.
  • the controller may detect the same object included in two or more consecutive images, and determine the presence of the foreign material by determining the properties of the detected same object.
  • control unit may determine whether there is a foreign substance by extracting a feature point of an image obtained only through the camera.
  • control unit may control the first rotating body to rotate until the foreign material is removed.
  • the mobile robot controls the first rotating body to rotate by driving the motor based on the sensing data of the rain sensor and the rain sensor. It may further include a control unit.
  • a control method of a mobile robot working in an outdoor environment includes extracting a feature point of an image obtained only through a camera, Determining the presence of a foreign material based on the step, when it is determined that the foreign material is present, may include controlling the motor to rotate the first rotating body fixed to the transparent window disposed in front of the camera.
  • the determining of the presence of the foreign material it is possible to determine whether the foreign material is present by comparing two or more images.
  • the method for controlling a mobile robot according to an aspect of the present invention may further include extracting a feature point of a foreign substance from an image obtained only through the camera.
  • the first rotating body is driven by driving the motor based on sensing data of a rain sensor. It can be controlled to rotate.
  • FIG. 1 is a perspective view of a mobile robot according to an embodiment of the present invention.
  • FIG. 2 is a block diagram illustrating main parts of a mobile robot according to an embodiment of the present invention.
  • 3 to 6 are diagrams referenced in the description of the camera cover of the mobile robot according to an embodiment of the present invention.
  • FIG. 7 is a flowchart of a method for controlling a mobile robot according to an embodiment of the present invention.
  • FIGS. 8 and 9 are diagrams referenced in the description of a method for controlling a mobile robot according to an embodiment of the present invention.
  • the lawn mower robot 100 among the mobile robots will be described as an example, but the present invention is not necessarily limited thereto.
  • FIG. 1 is a perspective view of a mobile robot according to an embodiment of the present invention.
  • a mobile robot 100 working in an outdoor environment includes a casing that forms an exterior of a main body 101 and forms a space in which parts are accommodated, Various parts such as a battery (not shown) providing power according to driving may be accommodated inside the casing.
  • the mobile robot 100 may include at least a pair of driving wheels 171 that are rotated by a driving force.
  • the driving wheel 171 may include a left wheel and a right wheel.
  • the driving wheel 171 is provided rotatably independently of each other so that the main body 101 can rotate and move forward with respect to the ground.
  • the mobile robot 100 may include at least one auxiliary wheel 172 .
  • the auxiliary wheel 172 is a wheel that does not receive driving force by the motor, and serves to support the main body 101 with respect to the ground.
  • the driving wheel 171 may be formed to be larger than the auxiliary wheel 172 .
  • the auxiliary wheel 172 may be disposed in front of the driving wheel 171 , and in this case, the driving wheel 171 may be referred to as a rear wheel, and the auxiliary wheel 172 may be referred to as a front wheel.
  • the mobile robot 100 may include a photographing unit (not shown) having a camera.
  • the camera may be disposed on the front portion of the body 101 and detect an obstacle.
  • the mobile robot 100 may use the camera for situation recognition, location recognition, etc. in addition to obstacle recognition.
  • the mobile robot 100 is provided with a suction unit for sucking dust from the floor in the case of a cleaning robot, and in the case of a lawn mower robot, a cutting unit (not shown) is provided at the bottom of the front part to mow grass or weeds to a predetermined size from the floor. Or it is formed on the bottom surface of the body.
  • the mobile robot 100 travels in an area formed by a boundary line.
  • the mobile robot 100 senses the boundary line and may travel along the boundary line.
  • the mobile robot 100 sets any one side of the area formed by the boundary line as the area.
  • the mobile robot sets the inner area of the boundary line as the running area.
  • the mobile robot travels within the set area while keeping it from escaping the boundary.
  • the mobile robot 100 does not cross the boundary line or travel through the boundary line even when a physical obstacle such as a wall or a fence is not located on the boundary line.
  • the mobile robot 100 detects a boundary line while driving, detects an obstacle located in a driving direction, and avoids driving.
  • the mobile robot 100 may move while mowing the lawn within the area.
  • the mobile robot 100 may generate a map for the area based on the detected boundary line and obstacle information.
  • the mobile robot 100 may distinguish a drivable area from an impossible area while traveling in a set area, and may store it on a map.
  • the mobile robot 100 may determine the location by calculating the coordinates for the obstacle and the boundary line on the map.
  • the mobile robot 100 may calculate the location of the charging station, store it on a map, and determine the location.
  • the mobile robot 100 may extract a feature point based on a boundary line or a position of an obstacle, set at least one waypoint based on the feature point, and set a movement path connecting the waypoints.
  • the mobile robot designates a position so as not to invade a boundary line with respect to a partial region that moves a point where it cannot travel in a straight line, and all points that interfere with linear movement can be set as feature points.
  • the mobile robot 100 may set a movement path including at least one waypoint from a starting point to a target point.
  • the feature point is any one point of the protruding region, and may be set at a bending point of a boundary line, for example, a corner, a position of an obstacle, or a corner of a boundary formed by the obstacle.
  • the feature point may be formed not only on the convex edge but also on the concave edge.
  • the waypoint may be set to any one of a plurality of passthrough candidates set at a predetermined distance from the keypoint, including the keypoint.
  • the feature point may also be set as a waypoint.
  • the mobile robot 100 stops the operation being performed and returns to a charging station (not shown) to charge.
  • the charging station transmits a guide signal for the return of the mobile robot, and the mobile robot receives the guide signal and returns to the charging station.
  • the mobile robot 100 may communicate with a terminal (not shown) to share a map, and may operate according to a control command of the terminal.
  • the mobile robot 100 may transmit data on the current state to the terminal so that a message indicating that charging is being performed is output through the terminal.
  • FIG. 2 is a block diagram illustrating main parts of a mobile robot according to an embodiment of the present invention.
  • the mobile robot 100 includes an obstacle detecting unit 120 , an input/output unit 130 , a traveling unit 170 , a cutting unit 160 , a communication unit 150 , a data unit 140 , and an operation. It may include a control unit 110 for controlling the overall. According to an embodiment, the mobile robot 100 may further include a photographing unit 180 including a camera 181 . The controller 110 may detect an object such as an obstacle based on the image acquired by the camera 181 .
  • the input/output unit 130 includes an input means such as at least one button, a switch, and a touch pad, and an output means such as a display unit and a speaker to receive a user command and output the operating state of the mobile robot.
  • the input/output unit 130 may output a warning when an abnormality occurs in the mobile robot, a driving impossible situation or an isolated situation occurs.
  • an input detection signal is stored, reference data for determining an obstacle is stored, and obstacle information about the detected obstacle is stored.
  • the data unit 140 stores control data for controlling the operation of the mobile robot and data according to the operation mode of the mobile robot.
  • the data unit 140 stores the collected location information, and stores information and maps on boundary lines and driving areas.
  • the communication unit 150 may communicate with a terminal located within a predetermined distance through a wired or wireless communication method.
  • the communication unit 150 may be connected to a predetermined network to communicate with an external server or a terminal that controls the mobile robot.
  • the communication unit 270 transmits the generated map to the terminal, receives a command from the terminal, and transmits data on the operating state of the mobile robot to the terminal.
  • the communication unit 270 transmits and receives data including communication modules such as Wi-Fi and WiBro as well as short-range wireless communication such as ZigBee and Bluetooth.
  • the traveling unit 170 includes at least one driving motor to allow the mobile robot to travel according to a control command of the control unit 110 .
  • the driving unit 170 may include a left wheel driving motor rotating the left wheel of the driving wheel 171 and a right wheel driving motor rotating the right wheel, and the driving unit 170 may include an auxiliary wheel 172 .
  • the left wheel drive motor and the right wheel drive motor rotate in the same direction, but when the left wheel drive motor and the right wheel drive motor rotate at different speeds or in opposite directions, the traveling direction of the main body 10 This can be switched.
  • At least one auxiliary wheel (not shown) for stable support of the main body 10 may be further provided.
  • the cutting unit 160 mows the grass on the floor while driving.
  • the cutting unit 160 is provided with a brush or a blade for mowing the lawn to cut the lawn through rotation.
  • the obstacle detecting unit 120 detects an obstacle located in the driving direction including a plurality of sensors. Also, the obstacle detecting unit 120 may detect an obstacle in front of the main body, that is, in the driving direction, using at least one of a laser, an ultrasonic wave, an infrared ray, and a 3D sensor. In addition, the obstacle detection unit may further include a cliff detection sensor installed on the rear surface of the main body to detect a cliff.
  • the mobile robot 100 may further include a position sensing unit (not shown) including a plurality of sensor modules for transmitting and receiving position information.
  • a position sensing unit (not shown) including a plurality of sensor modules for transmitting and receiving position information.
  • the position sensing unit includes a GPS module for transmitting and receiving GPS signals, or a position sensor module for transmitting and receiving position information from a position information transmitter.
  • a GPS module for transmitting and receiving GPS signals
  • a position sensor module for transmitting and receiving position information from a position information transmitter.
  • the location information transmitter transmits a signal in any one of ultrasonic waves, UWB (Ultra Wide Band), and infrared
  • a sensor module for transmitting and receiving ultrasonic, UWB, and infrared signals corresponding thereto is provided.
  • UWB wireless technology does not use a radio carrier (RF carrier), but uses a very wide frequency band of several GHz or more in baseband.
  • UWB wireless technology uses very narrow pulses of a few nanoseconds or a few picoseconds. Since the pulses emitted from such a UWB sensor are several nanometers or several picos, penetrability is good, and accordingly, very short pulses emitted from other UWB sensors can be received even if there is an obstacle in the vicinity.
  • a transmitter and a receiver may be formed as one module.
  • the signal of the UWB sensor can be transmitted through an obstacle, the signal transmission is not affected even if the user moves while carrying the terminal.
  • the signal may not be transmitted or the transmission distance may be reduced although it penetrates.
  • the mobile robot may be provided with a plurality of UWB sensors.
  • UWB sensors When two UWB sensors are provided, for example, they are provided on the left and right sides of the main body, respectively, and receive signals respectively, so that accurate position calculation is possible by comparing a plurality of received signals. For example, if the distance measured by the sensor on the left and the sensor on the right is different depending on the location of the reference location information transmitter or the terminal, the mobile robot uses the difference between the received signals to determine the relative position and movement The direction of the robot can be determined.
  • the location information transmitter is provided with a UWB sensor and transmits a signal
  • the terminal may receive the signal of the location information transmitter through the UWB signal provided.
  • the mobile robot may include at least one inclination sensor (not shown) to detect the movement of the main body.
  • the tilt sensor calculates the tilted direction and angle when the body tilts in the front, back, left, and right directions.
  • a tilt sensor, an acceleration sensor, etc. may be used as the inclination sensor, and in the case of the acceleration sensor, any one of a gyro type, an inertial type, and a silicon semiconductor type is applicable.
  • various sensors or devices capable of detecting the movement of the body may be used.
  • the mobile robot 100 may further include a photographing unit 180 including a camera 181 .
  • the controller 110 may detect an object such as an obstacle or recognize a current situation based on the image acquired by the camera 181 .
  • the camera 181 may be disposed on the front portion of the body 101 and may detect an obstacle.
  • the mobile robot 100 may use the camera for situation recognition, location recognition, etc. in addition to obstacle recognition.
  • the camera 181 is a digital camera and may include an image sensor (not shown) and an image processing unit (not shown).
  • An image sensor is a device that converts an optical image into an electrical signal, and is composed of a chip in which a plurality of photodiodes are integrated, for example, a pixel as the photodiode. Charges are accumulated in each pixel by the image formed on the chip by the light passing through the lens, and the charges accumulated in the pixels are converted into electrical signals (eg, voltage).
  • CCD Charge Coupled Device
  • CMOS Complementary Metal Oxide Semiconductor
  • the camera 181 may include an image processing unit DSP that processes the captured image.
  • the controller 110 controls input/output of data, and controls the driving unit so that the mobile robot runs according to the setting.
  • the control unit 110 controls the driving unit 170 to independently control the operation of the left wheel drive motor and the right wheel drive motor so that the main body 10 travels in a straight line or rotates.
  • the controller 110 controls driving by recognizing the detected boundary lines and obstacles.
  • the control unit 110 may set any one of the areas formed by the boundary line as the drivable area.
  • the control unit 110 connects the discontinuous location information with a line or a curve to set a boundary line in the form of a closed loop, and sets the inner area as a drivable area.
  • the control unit 110 may set any one of the areas formed by the boundary lines as a drivable area.
  • the control unit 110 generates a map based on information acquired along the boundary line, location information, and information on obstacles within an area detected while driving.
  • the control unit calculates coordinates from the map and determines the location by matching the area formed by the boundary line.
  • the controller 110 controls the driving unit so as not to deviate from the boundary while driving within the region.
  • the control unit 110 controls driving based on information on boundary lines and obstacles sensed during driving.
  • control unit 110 may determine the obstacle information input by the obstacle detecting unit 120 to avoid the obstacle and drive, and in some cases, may correct a preset area.
  • the controller 110 may determine the position of the obstacle in response to the obstacle information, determine the type of the obstacle, and set the avoidance direction, and may set not to approach more than a predetermined distance when a cliff is detected.
  • the control unit 110 controls the cutting unit and the driving unit to mow the lawn while driving the area according to the input control command.
  • the controller 110 may move to a specific location and start an operation.
  • the control unit sets the moving route by calculating the current position, the starting point, and the target point based on the map.
  • the controller 110 may calculate a plurality of feature points based on boundary lines and obstacles based on the map and set a movement path based on the feature points.
  • the control unit 110 may set any point of a bending point, an edge, or a protruding area of an area formed by a boundary line or an obstacle as a feature point.
  • the control unit 110 sets a plurality of passing candidates at a predetermined distance and a predetermined angle based on the feature point, and designates at least one of the passing candidates as a way point to set a movement path connecting the starting point, the way point, and the target point. .
  • the control unit 110 may set a waypoint based on the keypoint, but may also set the keypoint as a waypoint.
  • the control unit 110 sets a movement route by designating a waypoint when a straight-line driving to the target point is impossible based on the map.
  • control unit 110 may set a point adjacent to the target point within the area as a via point and drive the vehicle.
  • the set waypoint may be a new target point.
  • the controller 110 determines the position and size of the obstacle, and the shape (outer line) of the obstacle, stores the obstacle information, and provides a map location can be displayed.
  • the controller 110 may set the area in which the obstacle is located as the non-movable area.
  • the controller 110 may change the movement route by setting a new waypoint when a new obstacle is detected or a boundary line is violated while driving according to the movement route, approaches or collides with the obstacle.
  • the controller 110 may drive along the boundary line for a predetermined time and then set a new movement path to drive to the target point.
  • the mobile robot 100 working in an outdoor environment takes pictures of a main body 101 , a traveling unit 170 that moves the main body 101 , and the outside of the main body 101 . It may include a photographing unit 180 that
  • the photographing unit 180 may further include a camera cover 183 for protecting the camera 181 and a motor 185 for rotating at least a portion of the camera cover 183 .
  • the camera cover 183 includes a transparent window (not shown) formed of a transparent material, and the transparent window may be disposed in front of the camera 181 spaced apart by a predetermined distance. Since the transparent window is disposed in front of the camera 181 , it is possible to prevent foreign substances such as grass, soil, and garbage from being attached to the camera 181 without interfering with the photographing of the camera 181 .
  • the controller 110 may control the motor 185 to rotate at least a part of the camera cover 183 .
  • 3 to 6 are diagrams referenced in the description of the camera cover 183 of the mobile robot 100 according to an embodiment of the present invention.
  • FIG 3 illustrates an example of the photographing unit 180 with the camera cover 183 of the mobile robot 100 as a center according to an embodiment of the present invention.
  • the photographing unit 180 is located in the front of the camera 181 , which is accommodated in the body 101 to photograph the outside of the body 101 , and a part of the body 101 is located in front of the camera 181 .
  • ) may include a camera cover 183 that is exposed to the outside to protect the camera 181 .
  • the camera cover 183 may include a transparent window 310 disposed in front of the camera 181 .
  • the transparent window 310 may be made of a transparent material to protect the camera 181 without interfering with the photographing of the camera 181 .
  • the transparent window 310 may be formed of glass.
  • the camera cover 183 may include a first rotating body 320 fixed to the transparent window 310 and a first fixing body 320 fixed to the case of the main body 101 .
  • the transparent window 310 may have a circular shape.
  • the transparent window 310 may be made of round glass.
  • first rotating body 320 and the first fixing body 330 may have a ring shape.
  • the first rotating body 320 and the first fixing body 330 are manufactured in a ring shape with an open center, and the first rotating body 320 is formed in the transparent window 310 from the outside of the circular transparent window 310 . ) and the first fixing body 320 may be disposed outside the first rotating body 320 .
  • the transparent window 310 has a circular shape, and as the first rotating body 320 and the first fixing body 330 have a ring shape, a virtual extension extending forward from the center of the camera 181 . It is suitable for rotation with the axis of rotation.
  • the first rotating body 320 and the first fixed body 330 are not exposed in the front see-through area of the transparent window 310 , the view of the camera 181 may not be obstructed. Accordingly, the front surface of the transparent window 310 can be utilized, and the image acquired by the camera 183 does not cover the image.
  • the outer surface of the first fixing body 330 and the case of the main body 101 are sealed and fixed, and airtightness can be maintained.
  • a cushioning material such as elastic rubber or synthetic resin may be disposed between the first rotating body 320 and the transparent window 310 .
  • a cushioning material such as elastic rubber or synthetic resin may be disposed between the first fixing body 330 and the case of the main body 101 .
  • the photographing unit 180 may include a motor 185 for rotating the first rotating body 320 .
  • the controller 110 may rotate the first rotating body 320 by driving the motor 185 .
  • the first rotating body 320 and the transparent window 310 fixed to the first rotating body 320 may rotate according to the rotation of the first rotating body 320 .
  • the photographing unit 180 further includes a gear or a pulley 350 that transmits a driving force by the rotation of the motor 185 to the first rotating body 320 . can do.
  • the first rotating body 320 may further include a holder part 321 extending in a direction toward the camera 181 and connected to the gear or pulley.
  • the control unit 110 drives the motor 185 to rotate the first rotating body 320 to minimize the adhesion of foreign substances to the transparent window 310 by centrifugal force, and to prevent foreign substances from adhering to the transparent window 310 by centrifugal force.
  • the attached foreign material can be dropped.
  • the rotation axis is not formed on the front sighting area of the camera 181, there is no obstruction of the field of view by the camera cover 183 structure.
  • the camera cover 183 may protect the internal camera 181 .
  • a bearing may be used to rotate the camera cover 183.
  • the bearing may be coupled to a rotating shaft to fix the shaft and rotate the shaft.
  • a rolling bearing may be used for rotation of the camera cover 183 .
  • the first rotating body 320 may be an inner ring of a bearing
  • the first fixed body 330 may be an outer ring of the bearing.
  • the first rotating body 320 and the first fixed body 330 may be inner and outer rings of a ball bearing and a roller bearing.
  • the first rotating body 320 of the inner ring having a ring shape fixes the circular transparent window 310 and is spaced apart from the outside of the first rotating body 320 by a predetermined distance to have a larger diameter ring.
  • the first fixing body 330 of the outer ring having a shape is positioned.
  • the first rotating body 320 and the first fixed body 330 may be configured in one layer and two layers.
  • the camera cover 183 may further include a plurality of balls 340 between the first rotating body 320 and the first fixed body 330 to reduce frictional force during rotation.
  • the plurality of balls 340 may be disposed to be spaced apart from each other at regular intervals.
  • the first rotating body 320 and the first fixed body 330 are disposed on the outside of the circular transparent window 310 so as not to obstruct the view of the camera 181, the transparent window 310 and the first rotating body 320 can be rotated.
  • the first rotating body 320 and the first fixed body 330 may have a deformed structure for coupling and rigidity reinforcement.
  • FIG 5 illustrates a structure of the first rotating body 520 according to an embodiment of the present invention.
  • the first rotating body 520 may further include a bending unit 525 that is bent inward from the end of the first rotating body 520 to support the transparent window 510 .
  • a bending unit 525 that is bent inward from the end of the first rotating body 520 to support the transparent window 510 .
  • the bending part 525 may obstruct the view of the camera 181 , so the length of the bending part 525 is the camera 181 . It may be determined based on the distance between the and the transparent window 510 and the viewing angle of the camera 181 .
  • the first rotating body 320 and the first fixed body 330 do not form a bearing structure, and may further include a separate bearing.
  • FIG. 6 illustrates an example of the photographing unit 180 centering on the camera cover 183 of the mobile robot 100 according to an embodiment of the present invention.
  • the mobile robot 100 may further include a bearing 600 disposed between the first rotating body 320 and the first fixed body 330 .
  • the bearing 600 may be a rolling bearing, and may be a ball bearing illustrated in FIG. 4 .
  • the transparent window 310 and the first rotating body 320 can be rotated while holding the rotating shaft. have.
  • the mobile robot 100 may stably operate according to an outdoor environment and situation by rotating at least a portion of the camera cover 183 according to a predetermined standard.
  • the rotation of the first rotating body 320 is always possible, and when it is determined that foreign substances are attached to the camera cover 183, or when it is determined as bad weather weather through a temperature sensor, a rain sensor, etc. It may only work if
  • foreign substances do not adhere to the transparent window 310 and the first rotating body 320 due to the centrifugal force rotating, so a clear view can be secured, and by operating it when necessary, it can be operated even in bad weather conditions outdoors.
  • the camera view can be secured.
  • the controller 110 may stop the rotation by determining when the weather is good or there is no foreign material through a temperature sensor, a rain sensor, etc. provided in the mobile robot 110 .
  • the controller 110 extracts feature points of an image obtained only through the camera 181 to determine whether there is a foreign material, and if it is determined that there is a foreign material, drives the motor 185 to drive the first rotating body 320 ) can be controlled to rotate.
  • the control unit 110 may compare two or more images to determine whether foreign matter is present. For example, the controller 110 may detect the same object included in two or more consecutive images, and determine that the foreign material is present when the detected same object does not move. Alternatively, the controller 110 may detect the same object included in two or more consecutive images, and determine that the foreign material is present when a change in the size of the detected same object is smaller than a reference value. . Alternatively, the controller 110 may detect the same object included in two or more consecutive images and determine the properties of the detected same object to determine that the foreign material is present.
  • the control unit 110 extracts a feature point of an image obtained only through the camera 181 and there is a foreign substance. It can be determined whether When the transparent window 310 rotates at a sufficient speed according to the rotation of the first rotation body 320 , foreign substances do not adhere to the camera cover 183 , so the camera cover 183 such as the first rotation body 320 . ), it is possible to reduce the system load by determining the presence of foreign substances only during non-rotation.
  • control unit 110 may control the first rotating body 320 to rotate until the foreign material is removed.
  • the controller 110 may rotate the camera cover 183 until the foreign material is not detected, and may stop the rotation of the camera cover 183 after the foreign material is removed.
  • the controller 110 may determine whether it is raining through sensing data of a rain sensor.
  • the controller 110 may control the first rotating body 320 to rotate by driving the motor 185 based on the sensing data of the rain sensor.
  • FIGS. 8 and 9 are diagrams referenced in the description of a method for controlling a mobile robot according to an embodiment of the present invention.
  • the mobile robot 100 may extract a feature point of an image acquired only through the camera 181 ( S720 ), and the controller 110 may Based on the feature points of the extracted image, it may be determined whether there is a foreign substance (S740).
  • the motor 185 may be controlled to rotate the first rotating body 320 fixed to the transparent window 310 disposed in front of the camera 181 ( S750). As the first rotating body 320 rotates, the transparent window 310 also rotates.
  • the transparent window 310 may be a transparent cover glass that protects the camera 181 and does not obstruct the view of the camera 181 .
  • the cover glass may be rotated by the user by manipulating the input/output unit 130 .
  • the cover glass rotates at a sufficient speed (S710), the foreign material does not adhere to the camera cover 183, so whether the foreign material exists only when the camera cover 183, such as the first rotating body 320, is not rotated. By determining it, the system load can be reduced.
  • the control unit 110 may compare two or more images to determine whether foreign matter is present.
  • the control unit 110 may extract feature points from the images (S720) and match the feature points between consecutive images.
  • the controller 110 may detect the same object included in two or more consecutive images, and determine that the foreign material is present when the detected same object does not move.
  • the controller 110 may extract a feature point of a foreign substance from an image acquired only through the camera 181 ( S730 ). It is possible to determine whether or not a specific feature point in the image does not move under the condition that the continuous image is matched and a specific feature point and object are tracked (S730), that is, a feature point that does not move is extracted, and it is converted into a foreign material feature point. It can be determined (S730).
  • the control unit 110 compares the movement information of the mobile robot 100 with whether the feature points in the image change, and the feature points that do not move can be judged If the mobile robot 100 moves but the feature point does not move, the controller 110 may determine that a foreign material is attached to the cover glass (S740).
  • 8 and 9 illustrate two consecutive images 800 and 900 .
  • two objects 810 and 850 are detected in the first image 800 acquired through the camera 181 .
  • the second image 900 continuous to the first image 800 some objects 810 of the first image 800 disappear and only a specific object 850 can be detected.
  • an object 910 that is not present in the first image 800 may be additionally detected in the second image 900 .
  • the controller 110 may determine the object 850 commonly detected in the two consecutive images 800 and 900 as a foreign material.
  • the controller 110 may detect the same object included in two or more consecutive images, and determine that the foreign material is present when a change in the size of the detected same object is smaller than a reference value. .
  • a change in the size of the detected same object is smaller than a reference value.
  • the controller 110 considers the sensing data of a sensor such as an encoder together with the images 800 and 900 to determine the object 850 that does not move despite the movement of the mobile robot 100 as a foreign substance.
  • the controller 110 may detect the same object included in two or more consecutive images and determine the properties of the detected same object to determine that the foreign material is present.
  • the controller 110 may include deep-learning artificial intelligence to determine the properties of an object based on an image.
  • the mobile robot 100 may further include a separate foreign material learner previously learned. In this case, the control unit 110 may determine whether there is a foreign material such as grass or soil and the type of foreign material based on the image.
  • the controller 110 drives the motor 185 to rotate the cover glass to remove foreign substances (S750).
  • the controller 110 may determine whether it is raining through sensing data of a rain sensor.
  • the controller 110 may control the first rotating body 320 to rotate by driving the motor 185 based on the sensing data of the rain sensor. Accordingly, water droplets or water droplets adhering to the cover glass can be removed.
  • the control unit 110 may output a cleaning notification or the like through the input/output unit 130 . Accordingly, the user can efficiently manage the camera cover 183 .
  • the method for controlling a mobile robot may be implemented as a processor-readable code on a processor-readable recording medium.
  • the processor-readable recording medium includes all types of recording devices in which data readable by the processor is stored.
  • the processor-readable recording medium is distributed in a computer system connected through a network, so that the processor-readable code can be stored and executed in a distributed manner.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 실외 환경에서 작업하는 이동 로봇에 관한 것으로, 본체; 상기 본체를 이동시키는 주행부; 상기 본체의 내부에 수용되어 상기 본체의 외부를 촬영하는 카메라; 상기 카메라의 전방에 배치되는 투명창, 상기 투명창에 고정되는 제1 회전체, 상기 본체의 케이스에 고정되는 제1 고정체를 포함하는 카메라 커버; 및 상기 제1 회전체를 회전시키는 모터;를 포함한다. 본 발명의 일 측면에 따른 이동 로봇 및 그 제어 방법은, 소정 기준에 따라 카메라 커버를 회전함으로써 실외 환경과 상황에 맞게 안정적으로 동작할 수 있다.

Description

이동 로봇
본 발명은 이동 로봇 및 그 제어 방법에 관한 것으로, 실외 환경에서 자율주행하는 이동 로봇의 카메라 커버 및 그 제어 방법에 관한 것이다.
로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다. 이러한 로봇 중에서 자력으로 주행이 가능한 것을 이동 로봇이라고 한다. 가정의 야외 환경에서 사용되는 이동 로봇의 대표적인 예는 잔디깎이 로봇이다.
실내를 자율주행하는 이동 로봇의 경우 벽이나 가구 등에 의해 이동 가능 영역이 제한되나, 실외를 자율주행하는 이동 로봇의 경우 이동 가능한 영역을 사전에 설정해야 할 필요성이 있다. 또한, 상기 잔디깎이 로봇이 잔디가 심어진 영역을 주행하도록 이동 가능한 영역을 제한할 필요성이 있다.
종래 기술(한국공개특허공보 제2015-0125508호)에서는, 잔디깎이 로봇이 이동할 영역을 설정하기 와이어를 매설하고, 잔디깎이 로봇은 와이어에 의해 흐르는 전류에 의해 형성되는 자기장을 센싱(sensing)하여 와이어에 의해 설정된 영역 내에서 이동할 수 있다.
또한, 경계를 설정하여 이동을 제한하는 것에 있어서, 비콘(Becon) 방식으로 신호를 송출하여 가상의 벽(Virtual wall)을 설정하여 이동 로봇의 주행을 제한할 수 있다.
한편, 이동 로봇은 카메라를 구비하여, 장애물 인식, 위치 인식 등에 사용할 수 있다. 이때, 실외 환경에서 작업하는 로봇의 경우 카메라 또는 카메라 커버에 먼지, 진흙 등 이물질이 붙어서 카메라 인식에 어려움이 있었다.
본 발명의 목적은, 실외 환경에서 작업하는 이동 로봇의 카메라 시야를 방해하는 이물질을 방지, 제거할 수 있다.
본 발명의 목적은, 카메라 커버를 회전시켜 원심력으로 카메라 커버에 붙은 이물질을 제거할 수 있는 이동 로봇 및 그 제어 방법을 제공함에 있다.
본 발명의 목적은, 실외 악천우 상황에서도 카메라 커버를 회전시켜 카메라 시야를 확보할 수 있는 이동 로봇 및 그 제어 방법을 제공함에 있다.
본 발명의 목적은, 카메라 커버를 회전시켜 카메라 커버에 이물질이 붙는 것을 방지할 수 있는 이동 로봇 및 그 제어 방법을 제공함에 있다.
본 발명의 목적은, 실외 환경에서 효율 및 신뢰성이 높은 이동 로봇 및 그 제어 방법을 제공함에 있다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 이동 로봇 및 그 제어 방법은, 카메라 커버를 회전함으로써, 카메라 시야 방해를 최소화할 수 있다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 이동 로봇 및 그 제어 방법은, 소정 기준에 따라 카메라 커버를 회전함으로써 실외 환경과 상황에 맞게 안정적으로 동작할 수 있다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 실외 환경에서 작업하는 이동 로봇은, 본체, 상기 본체를 이동시키는 주행부, 상기 본체의 내부에 수용되어 상기 본체의 외부를 촬영하는 카메라, 상기 카메라의 전방에 배치되는 투명창, 상기 투명창에 고정되는 제1 회전체, 상기 본체의 케이스에 고정되는 제1 고정체를 포함하는 카메라 커버, 및, 상기 제1 회전체를 회전시키는 모터를 포함할 수 있다.
한편, 상기 제1 회전체와 상기 제1 고정체는 링(ring) 형상일 수 있다.
한편, 상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 이동 로봇은, 상기 모터의 회전에 의한 구동력을 상기 제1 회전체에 전달하는 기어 또는 풀리(pulley)를 더 포함할 수 있다.
또한, 상기 제1 회전체는 상기 카메라를 향하는 방향으로 연장되어 상기 기어 또는 풀리에 연결되는 홀더부를 더 포함할 수 있다.
한편, 상기 제1 회전체는, 상기 제1 회전체의 끝단에서 내측으로 벤딩(beinding)되어 상기 투명창을 지지하는 벤딩부를 더 포함할 수 있다.
또한, 상기 제1 회전체는 베어링의 내륜이고, 상기 제1 고정체는 상기 베어링의 외륜일 수 있다. 이 경우에, 상기 카메라 커버는, 상기 제1 회전체와 상기 제1 고정체 사이에 다수의 볼을 더 포함할 수 있다.
또는, 상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 이동 로봇은, 상기 제1 회전체와 상기 제1 고정체 사이에 배치되는 베어링을 더 포함할 수 있다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 이동 로봇은, 상기 카메라릍 통하여 획득되는 이미지(image)의 특징점을 추출하여 이물질 존재 여부를 판별하고, 이물질이 있다고 판별되면 상기 모터를 구동하여 상기 제1 회전체가 회전하도록 제어하는 제어부를 더 포함할 수 있다.
또한, 상기 제어부는, 2이상의 이미지들을 비교하여, 이물질 존재 여부를 판별하할 수 있다.
또한, 상기 제어부는, 연속되는 2이상의 이미지에 포함되는 동일 오브젝트(object)를 검출하고, 검출된 동일 오브젝트가 움직이지 않는 경우에 상기 이물질이 존재하는 것으로 판별할 수 있다.
또한, 상기 제어부는, 연속되는 2이상의 이미지에 포함되는 동일 오브젝트(object)를 검출하고, 검출된 동일 오브젝트의 크가 변화가 기준치보다 작은 경우에 상기 이물질이 존재하는 것으로 판별할 수 있다.
또한, 상기 제어부는, 연속되는 2이상의 이미지에 포함되는 동일 오브젝트(object)를 검출하고, 검출된 동일 오브젝트의 속성을 판별하여 상기 이물질이 존재하는 것으로 판별할 수 있다.
한편, 상기 제어부는, 상기 제1 회전체가 회전하지 않고 있으면, 상기 카메라릍 통하여 획득되는 이미지(image)의 특징점을 추출하여 이물질 존재 여부를 판별할 수 있다.
한편, 상기 제어부는, 상기 이물질이 제거될 때까지 상기 제1 회전체가 회전하도록 제어할 수 있다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 이동 로봇은, 레인 센서(rain sensor) 및 상기 레인 센서의 센싱 데이터에 기초하여 상기 모터를 구동하여 상기 제1 회전체가 회전하도록 제어하는 제어부를 더 포함할 수 있다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 실외 환경에서 작업하는 이동 로봇의 제어 방법은, 카메라릍 통하여 획득되는 이미지(image)의 특징점을 추출하는 단계, 상기 추출된 이미지의 특징점에 기초하여 이물질 존재 여부를 판별하는 단계, 상기 이물질이 존재하는 것으로 판별되면, 상기 카메라의 전방에 배치되는 투명창에 고정되는 제1 회전체가 회전하도록 모터를 제어하는 단계를 포함할 수 있다.
한편, 상기 이물질 존재 여부를 판별하는 단계는, 2이상의 이미지들을 비교하여, 이물질 존재 여부를 판별할 수 있다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 이동 로봇의 제어 방법은, 상기 카메라릍 통하여 획득되는 이미지(image)로부터 이물질의 특징점을 추출하는 단계를 더 포함할 수 있다.
상기 또는 다른 목적을 달성하기 위해 본 발명의 일 측면에 따른 실외 환경에서 작업하는 이동 로봇의 제어 방법은, 레인 센서(rain sensor)의 센싱 데이터에 기초하여 상기 모터를 구동하여 상기 제1 회전체가 회전하도록 제어할 수 있다.
본 발명의 실시 예들 중 적어도 하나에 의하면, 실외 환경에서 작업하는 이동 로봇의 카메라 시야를 방해하는 이물질을 방지, 제거할 수 있다는 장점이 있다.
또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 카메라 커버를 회전시켜 원심력으로 카메라 커버에 붙은 이물질을 제거할 수 있는 이동 로봇 및 그 제어 방법을 제공할 수 있다.
또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 실외 악천우 상황에서도 카메라 커버를 회전시켜 카메라 시야를 확보할 수 있는 이동 로봇 및 그 제어 방법을 제공할 수 있다.
또한, 본 발명의 실시 예들 중 적어도 하나에 의하면, 카메라 커버를 회전시켜 카메라 커버에 이물질이 붙는 것을 방지할 수 있다.
한편, 그 외의 다양한 효과는 후술될 본 발명의 실시 예에 따른 상세한 설명에서 직접적 또는 암시적으로 개시될 것이다.
도 1은 본 발명의 일 실시 예에 따른 이동 로봇의 사시도이다.
도 2는 본 발명의 일 실시 예에 따른 이동 로봇의 주요부들을 도시한 블록도이다.
도 3 내지 도 6은 본 발명의 실시 예에 따른 이동 로봇의 카메라 커버에 관한 설명에 참조되는 도면이다.
도 7은 본 발명의 일 실시 예에 따른 이동 로봇의 제어 방법의 순서도이다.
도 8과 도 9는 본 발명의 실시 예에 따른 이동 로봇의 제어 방법에 관한 설명에 참조되는 도면이다.
이하에서 언급되는 “전(F)/후(R)/좌(Le)/우(Ri)/상(U)/하(D)” 등의 방향을 지칭하는 표현은 도면에 표시된 바에 따라 정의하나, 이는 어디까지나 본 발명이 명확하게 이해될 수 있도록 설명하기 위한 것이며, 기준을 어디에 두느냐에 따라 각 방향들을 다르게 정의할 수도 있음은 물론이다.
이하에서 언급되는 구성요소 앞에 ‘제1 , 제2' 등의 표현이 붙는 용어 사용은, 지칭하는 구성요소의 혼동을 피하기 위한 것일 뿐, 구성요소들 사이의 순서, 중요도 또는 주종관계 등과는 무관하다. 예를 들면, 제1 구성요소 없이 제2 구성요소 만을 포함하는 발명도 구현 가능하다.
이하 도 1과 도 2를 참조하여, 이동 로봇 중 잔디깎이 로봇(100)을 예로 들어 설명하나, 반드시 이에 한정될 필요는 없다.
도 1은 본 발명의 일 실시 예에 따른 이동 로봇의 사시도이다.
도 1을 참조하면, 본 발명의 일 실시 예에 따라 실외 환경에서 작업하는 이동 로봇(100)은, 본체(101)의 외관을 형성하며 내측으로 부품들이 수납되는 공간을 형성하는 케이싱을 포함하고, 케이싱 내부에는 주행에 따른 동력을 제공하는 배터리(미도시) 등 각종 부품들이 수용될 수 있다.
본 발명의 일 실시 예에 따른 이동 로봇(100)은, 구동력에 의해 회전하는 적어도 한 쌍의 구동 휠(171)을 포함할 수 있다. 구동 휠(171)은 좌륜과 우륜을 포함할 수 있다. 구동 휠(171)은 본체(101)가 지면에 대해 회전 운동 및 전진 운동이 가능하도록 각각 독립적으로 회전 가능하게 구비된다.
또한, 본 발명의 일 실시 예에 따른 이동 로봇(100)은 적어도 하나의 보조 휠(172)을 포함할 수 있다. 보조 휠(172)은 모터에 의한 구동력을 전달받지 않는 휠로서, 본체(101)를 지면에 대해 보조적으로 지지하는 역할을 한다.
구동 휠(171)은 보조 휠(172)보다 크게 형성될 수 있다. 보조 휠(172)은 구동 휠(171)보다 앞에 배치될 수 있고, 이 경우에 구동 휠(171)은 후륜으로 명명되고, 보조 휠(172)은 전륜으로 명명될 수 있다.
또한, 본 발명의 일 실시 예에 따른 이동 로봇(100)은, 카메라를 구비하는 촬영부(미도시)를 포함할 수 있다. 예를 들어, 카메라는 본체(101)의 전면부에 배치되고, 장애물을 감지할 수 있다. 실시 예에 따라서, 이동 로봇(100)은 카메라를 장애물 인식 외 상황 인식, 위치 인식 등에 사용할 수 있다.
이동 로봇(100)은 청소 로봇인 경우 바닥면의 먼지를 흡입하는 흡입유닛이 구비되고, 잔디깎이 로봇의 경우 바닥면으로부터 일정 크기로 잔디 또는 잡초를 깎도록 절삭유닛(미도시)이 전면부 하단 또는 본체의 바닥면에 형성된다.
이동 로봇(100)은 경계선에 의해 형성되는 영역을 주행한다. 이동 로봇(100)은 경계선을 감지하며, 경계선을 따라 주행할 수 있다.
이동 로봇(100)은 경계선에 의해 형성되는 영역 중 어느 일측을 영역으로 설정한다. 이동 로봇은 경계선의 내부 영역을 주행영역으로 설정한다.
이동 로봇은 경계를 벗어나지 않도록 유지하면서 설정된 영역 내에서 주행한다. 이동 로봇(100)은 경계선이 벽, 담장과 같은 물리적인 장애물이 위치하지 않는 경우에도 경계선을 넘거나 경계선을 통과하여 주행하지 않는다.
이동 로봇(100)은 주행중에 경계선을 감지하며, 주행방향에 위치한 장애물을 감지하고, 회피하여 주행한다. 이동 로봇(100)은 영역 내에서 바닥의 잔디를 깎으며 이동할 수 있다.
이동 로봇(100)은 감지되는 경계선과 장애물의 정보를 바탕으로 영역에 대해 지도를 생성할 수 있다. 이동 로봇(100)은 설정된 영역을 주행하면서, 주행 가능한 영역과 불가능한 영역을 구분하고, 지도에 저장할 수 있다.
이동 로봇(100)은 지도에 장애물 및 경계선에 대한 좌표를 산출하여 위치를 판단할 수 있다. 이동 로봇(100)은 충전대의 위치를 산출하여 지도에 저장하고, 위치를 판단할 수 있다.
이동 로봇(100)은 경계선 또는 장애물의 위치를 기준으로 특징점을 추출하여, 특징점을 기준으로 적어도 하나의 경유점을 설정하고, 경유점을 연결하는 이동경로를 설정할 수 있다.
이동 로봇은, 직선 주행할 수 없는 지점을 이동하는 일부 영역에 대하여 경계선을 침범하지 않도록 위치를 지정하는 것으로, 직선 이동이 방해가 되는 지점은 모두 특징점으로 설정할 수 있다.
이동 로봇(100)은 출발점으로부터 목표점까지 적어도 하나의 경유점을 포함하는 이동경로를 설정할 수 있다.
특징점은, 돌출된 영역의 어느 일지점으로, 경계선의 꺽인지점, 예를 들어 모서리, 장애물의 위치, 장애물에 의해 형성되는 경계의 모서리에 설정될 수 있다. 특징점은 볼록 모서리 뿐 아니라 오목 모서리에도 형성될 수 있다.
경유점은, 특징점을 포함하여, 특징점으로부터 소정 거리에 설정되는 복수의 경유후보 중 어느 하나로 설정될 수 있다. 특징점 또한 경유점으로 설정될 수 있다.
이동 로봇(100)은 배터리의 상태에 대응하여, 수행중인 동작을 정지하고 충전대(미도시)로 복귀하여 충전한다. 충전대는 이동 로봇의 복귀를 위한 안내신호를 송출하고, 이동 로봇은 안내신호를 수신하여 충전대로 복귀한다.
이동 로봇(100)은 단말(미도시)과 통신하여 지도를 공유하고, 단말의 제어명령에 따라 동작할 수 있다. 이동 로봇(100)은 단말로 현재 상태에 대한 데이터를 전송하여 충전중임을 알리는 메시지가 단말을 통해 출력되도록 할 수 있다.
도 2는 본 발명의 일 실시 예에 따른 이동 로봇의 주요부들을 도시한 블록도이다.
도 2를 참조하면, 이동 로봇(100)은, 장애물감지부(120), 입출력부(130), 주행부(170), 절삭부(160), 통신부(150), 데이터부(140) 그리고 동작 전반을 제어하는 제어부(110)를 포함할 수 있다. 실시 예에 따라서, 이동 로봇(100)은 카메라(181)를 구비하는 촬영부(180)를 더 포함할 수 있다. 제어부(110)는, 카메라(181)가 획득하는 영상에 기초하여 장애물 등 사물을 감지할 수 있다.
입출력부(130)는 적어도 하나의 버튼, 스위치, 터치패드 등의 입력수단과, 디스플레이부, 스피커 등의 출력수단을 포함하여 사용자명령을 입력받고, 이동 로봇의 동작상태를 출력한다. 입출력부(130)는 이동 로봇에 이상이 발생하는 경우, 주행불가상황 또는 고립상황이 발생하는 경우 경고를 출력할 수 있다.
데이터부(140)에는 입력되는 감지신호가 저장되고, 장애물을 판단하기 위한 기준데이터가 저장되며, 감지된 장애물에 대한 장애물정보가 저장된다. 또한, 데이터부(140)에는 이동 로봇의 동작을 제어하기 위한 제어데이터 및 이동 로봇의 동작모드에 따른 데이터가 저장된다.
데이터부(140)에는 수집되는 위치정보가 저장되고, 경계선 및 주행하는 영역에 대한 정보와 지도가 저장된다.
통신부(150)는 소정 거리 내에 위치하는 단말과 유선 또는 무선통신 방식으로 통신할 수 있다. 또한, 통신부(150)는 소정의 네트워크에 연결되어 외부의 서버 또는 이동 로봇을 제어하는 단말과 통신할 수 있다.
통신부(270)는 생성되는 지도를 단말로 전송하고, 단말로부터 명령을 수신하며, 이동 로봇의 동작상태에 대한 데이터를 단말로 전송한다. 통신부(270)는 지그비, 블루투스 등의 근거리 무선통신뿐 아니라, 와이파이, 와이브로 등의 통신모듈을 포함하여 데이터를 송수신한다.
주행부(170)는 적어도 하나의 구동모터를 포함하여 제어부(110)의 제어명령에 따라 이동 로봇이 주행하도록 한다. 주행부(170)는 구동 휠(171)의 좌륜을 회전시키는 좌륜 구동모터와 우륜을 회전시키는 우륜 구동모터를 포함할 수 있고, 또한 주행부(170)는 보조바퀴(172)를 포함할 수 있다. 본체가 직진 주행하는 경우에는 좌륜 구동모터와 우륜 구동모터가 같은 방향으로 회전되나, 좌륜 구동모터와 우륜 구동모터가 다른 속도로 회전되거나, 서로 반대 방향으로 회전되는 경우에는 본체(10)의 주행 방향이 전환될 수 있다. 본체(10)의 안정적인 지지를 위한 적어도 하나의 보조륜(미도시)이 더 구비될 수 있다.
절삭부(160)는 주행 중, 바닥면의 잔디를 깎는다. 절삭부(160)는 잔디를 깎기위한 브러쉬 또는 블레이드가 구비되어 회전을 통해 바닥의 잔디를 깎는다.
장애물감지부(120)는 복수의 센서를 포함하여 주행방향에 위치한 장애물을 감지한다. 또한, 장애물감지부(120)는 레이저, 초음파, 적외선, 3D센서 중 적어도 하나를 이용하여 본체의 전방, 즉 주행방향의 장애물을 감지할 수 있다. 또한, 장애물감지부는 본체의 배면에 설치되어 낭떠러지를 감지하는, 낭떠러지 감지센서를 더 포함할 수 있다.
이동 로봇(100)은 위치정보를 송수신하기 위한 복수의 센서모듈을 포함하는 위치감지부(미도시)를 더 포함할 수 있다.
위치감지부는 GPS신호를 송수신하는 GPS모듈, 또는 위치정보송출기로부터 위치정보를 송수신하는 위치센서모듈을 포함한다. 위치정보송출기가 초음파, UWB(Ultra Wide Band), 적외선 중 어느 하나의 방식으로 신호를 송신하는 경우, 그에 대응하여 초음파, UWB, 적외선신호를 송수신하는 센서모듈이 구비된다.
UWB 무선기술은 무선 반송파(RF carrier)를 사용하지 않고, 기저대역(Baseband)에서, 수 GHz 이상의 매우 넓은 주파수 대역을 사용하는 것이다. UWB 무선기술은 수 나노 혹은 수 피코 초의 매우 좁은 펄스를 사용한다. 이와 같은 UWB 센서에서 방출되는 펄스는 수 나노 혹은 수 피코이므로, 관통성이 좋고, 그에 따라 주변에 장애물이 존재하더라도 다른 UWB 센서에서 방출하는 매우 짧은 펄스를 수신할 수 있다. UWB 센서는 송신부와 수신부가 하나의 모듈로 형성될 수 있다.
앞서 설명한 바와 같이 UWB센서의 신호를 장애물을 관통하여 신호를 전송할 수 있으므로 사용자가 단말을 들고 이동하더라도 신호 전송에 영향을 주지 않는다. 다만, 일정크기 이상의 장애물인 경우, 신호가 전송되지 않거나 또는 관통은 하지만 전송거리가 감소될 수도 있다.
이동 로봇은 복수의 UWB센서가 구비될 수 있다. 두 개의 UWB센서가 구비되는 경우, 예를 들어 본체의 좌측과 우측에 각각 구비되어, 각각 신호를 수신함으로써, 수신되는 복수의 신호를 비교하여 정확한 위치 산출이 가능하다. 예를 들어 기준이 되는 위치정보송출기 또는 단말의 위치에 따라, 좌측의 센서와 우측의 센서에서 측정되는 거리가 상이한 경우, 이를 바탕으로 이동 로봇은 수신되는 신호의 차이를 이용하여 상대적 위치와, 이동 로봇의 방향을 판단할 수 있다. 위치정보송출기가 UWB센서를 구비하여 신호를 송출하는 경우, 단말은 구비되는 UWB신호를 통해 위치정보송출기의 신호를 수신할 수 있다.
또한, 이동 로봇은 본체의 움직임을 감지하기 위해 적어도 하나의 기울기센서(미도시)를 포함할 수 있다. 기울기센서는 본체의 전, 후, 좌, 우 방향으로 기울어지는 경우, 기울어진 방향과 각도를 산출한다. 기울기센서는 틸트센서, 가속도센서 등이 사용될 수 있고, 가속도센서의 경우 자이로식, 관성식, 실리콘반도체식 중 어느 것이나 적용 가능하다. 또한, 그 외에 본체의 움직임을 감지할 수 있는 다양한 센서 또는 장치가 사용될 수 있을 것이다.
실시 예에 따라서, 이동 로봇(100)은 카메라(181)를 구비하는 촬영부(180)를 더 포함할 수 있다. 제어부(110)는, 카메라(181)가 획득하는 영상에 기초하여 장애물 등 사물을 감지하거나 현재 상황을 인식할 수 있다. 예를 들어, 카메라(181)는 본체(101)의 전면부에 배치되고, 장애물을 감지할 수 있다. 실시 예에 따라서, 이동 로봇(100)은 카메라를 장애물 인식 외 상황 인식, 위치 인식 등에 사용할 수 있다.
카메라(181)는, 디지털 카메라로, 이미지센서(미도시)와 영상처리부(미도시)를 포함할 수 있다. 이미지센서는 광학 영상(image)을 전기적 신호로 변환하는 장치로, 다수개의 광 다이오드(photo diode)가 집적된 칩으로 구성되며, 광 다이오드로는 픽셀(pixel)을 예로 들 수 있다. 렌즈를 통과한 광에 의해 칩에 맺힌 영상에 의해 각각의 픽셀들에 전하가 축적되며, 픽셀에 축적된 전하들은 전기적 신호(예를들어, 전압)로 변환된다. 이미지센서로는 CCD(Charge Coupled Device), CMOS(Complementary Metal Oxide Semiconductor) 등이 잘 알려져 있다. 또한, 카메라(181)는는 촬영된 영상을 처리하는 영상처리부(DSP)를 포함할 수 있다.
제어부(110)는 데이터의 입출력을 제어하고, 설정에 따라 이동 로봇이 주행하도록 주행부를 제어한다. 제어부(110)는 주행부(170)를 제어하여 좌륜 구동모터와 우륜 구동모터의 작동을 독립적으로 제어함으로써 본체(10)가 직진 또는 회전하여 주행하도록 한다.
제어부(110)는 감지되는 경계선과 장애물을 인식하여 주행을 제어한다.
제어부(110)는 경계선에 의해 형성되는 영역 중 어느 일 영역을 주행 가능한 영역으로 설정할 수 있다. 또한, 제어부(110)는 불연속적인 위치정보를 선 또는 곡선으로 연결하여 폐루프(closed loop) 형태로 경계선을 설정하고, 내부 영역을 주행 가능한 영역으로 설정한다. 또한, 제어부(110)는 경계선이 복수로 설정되는 경우에는 경계선에 의해 형성되는 영역 중 어느 하나를 주행 가능한 영역으로 설정할 수 있다.
제어부(110)는 경계선으로 따라 획득되는 정보와 위치정보, 주행중에 감지되는 영역내의 장애물에 대한 정보를 바탕으로 지도를 생성한다. 제어부는 지도로부터 좌표를 산출하여 경계선에 의해 형성되는 영역과 매칭하여 위치를 판단한다.
제어부(110)는 주행영역 및 그에 따른 경계가 설정되면, 영역 내에서 주행하며 경계선을 벗어나지 않도록 주행부를 제어한다.
제어부(110)는 주행중에 감지되는 경계선과 장애물의 정보를 바탕으로 주행을 제어한다.
또한, 제어부(110)는 장애물감지부(120)에 의해 입력되는 장애물정보를 판단하여 장애물을 회피하여 주행하고, 경우에 따라 기 설정된 영역을 수정할 수 있다. 제어부(110)는 장애물 정보에 대응하여 장애물의 위치를 판단하고 또한 장애물의 종류를 판단하여 회피방향을 설정하고, 또한, 낭떠러지가 감지되는 경우 일정거리 이상 접근하지 않도록 설정할 수 있다.
제어부(110)는 입력되는 제어명령에 따라 영역을 주행하며 잔디를 깎도록 절삭부와 주행부를 제어한다.
제어부(110)는 제어명령에 대응하여, 특정 위치로 이동하여 동작을 시작할 수 있다. 제어부는 현재위치와 출발점, 목표점을 지도를 바탕으로 산출하여 이동경로를 설정한다.
제어부(110)는 지도에 기초하여, 경계선 및 장애물을 기준으로 복수의 특징점을 산출하고 특징점을 기준으로 이동경로를 설정할 수 있다. 제어부(110)는 경계선 또는 장애물에 의해 형성되는 영역의 꺽인지점, 모서리, 돌출된 영역의 어느 지점을 특징점으로 설정할 수 있다.
제어부(110)는 특징점을 기준으로 소정거리, 소정 각도에 복수의 경유후보를 설정하고, 경유후보 중 적어도 하나를 경유점으로 지정하여, 출발점, 경유점, 목표점을 연결하는 이동경로를 설정할 수 있다. 제어부(110)는 특징점을 기준으로 경유점을 설정하되, 특징점 또한 경유점으로 설정할 수 있다.
제어부(110)는 지도를 기준으로 목표점까지의 직선주행이 불가능한 경우 경유점을 지정하여 이동경로를 설정한다.
제어부(110)는 목표점이 영역의 외부에 위치하는 경우에는, 영역 내에서 목표점에 인접한 지점을 경유점으로 설정하여 주행할 수 있다. 이때 설정되는 경유점은 새로운 목표점이 될 수 있다.
제어부(110)는 주행 중에, 장애물감지부(120) 및/또는 촬영부(180)로부터 새로운 장애물이 감지되는 경우 장애물의 위치와 크기, 장애물의 형상(외곽선)을 판단하여 장애물 정보를 저장하고 지도에 위치를 표시할 수 있다. 제어부(110)는 장애물의 크기가 일정 크기 이상인 경우 장애물이 위치한 영역을 이동불가 영역으로 설정할 수 있다.
제어부(110)는 이동경로에 따라 주행하는 중에, 새로운 장애물이 감지되거나 경계선을 침범하는 경우, 장애물에 접근 또는 충돌하는 경우, 새로운 경유점을 설정하여 이동경로를 변경할 수 있다.
또한, 제어부(110)는 새로운 장애물이 발생하거나 경계선을 침범하는 경우에도 경계선을 따라 일정시간 주행한 후 새로운 이동경로를 설정하여 목표점으로 주행할 수 있다.
본 발명의 일 실시 예에 따른 실외 환경에서 작업하는 이동 로봇(100)은, 본체(101), 상기 본체(101)를 이동시키는 주행부(170), 및, 상기 본체(101)의 외부를 촬영하는 촬영부(180)를 포함할 수 있다.
촬영부(180)는 카메라(181)를 보호하는 카메라 커버(183) 및 상기 카메라 커버(183)의 적어도 일부를 회전시키는 모터(185)를 더 포함할 수 있다.
카메라 커버(183)는 투명한 소재로 형성되는 투명창(미도시)을 포함하며, 투명창은 카메라(181)의 전방에 소정 거리 이격되어 배치될 수 있다. 투명창이 카메라(181)의 전방에 배치됨으로써 카메라(181)의 촬영을 방해하지 않고 카메라(181)에 잔디, 흙, 쓰레기 등 이물질이 묻는 것을 방지할 수 있다.
본 발명의 일 실시 예에 따르면, 카메라 커버(183)의 적어도 일부가 회전함으로써, 카메라 커버(183)에 장애물이 붙는 것을 최소화하고, 장애물이 붙더라도 이를 제거할 수 있다. 제어부(110)는 상기 카메라 커버(183)의 적어도 일부가 회전하도록 모터(185)를 제어할 수 있다.
도 3 내지 도 6은 본 발명의 실시 예에 따른 이동 로봇(100)의 카메라 커버(183)에 관한 설명에 참조되는 도면이다.
도 3은 본 발명의 실시 예에 따른 이동 로봇(100)의 카메라 커버(183)를 중심으로 촬영부(180)의 일례를 도시한 것이다.
도 3을 참조하면, 촬영부(180)는, 본체(101)의 내부에 수용되어 상기 본체(101)의 외부를 촬영하는 카메라(181), 카메라(181)의 전방에 위치하고 일부가 본체(101) 외부로 노출되어 카메라(181)를 보호하는 카메라 커버(183)를 포함할 수 있다.
카메라 커버(183)는, 상기 카메라(181)의 전방에 배치되는 투명창(310)를 포함할 수 있다. 상기 투명창(310)은 투명 소재로 제작되어 카메라(181)의 촬영을 방해하지 않으면서 카메라(181)를 보호할 수 있다. 예를 들어, 상기 투명창(310)은 유리로 형성될 수 있다.
카메라 커버(183)는, 상기 투명창(310)에 고정되는 제1 회전체(320)와 상기 본체(101)의 케이스에 고정되는 제1 고정체(320)를 포함할 수 있다.
상기 투명창(310)은 원형의 형상을 가질 수 있다. 예를 들어, 상기 투명창(310)은 둥근 유리로 제작될 수 있다.
또한, 상기 제1 회전체(320)와 상기 제1 고정체(330)는 링(ring) 형상일 수 있다. 상기 제1 회전체(320)와 상기 제1 고정체(330)는 중앙이 개구된 링 형상으로 제작되어 상기 제1 회전체(320)는 원형의 투명창(310) 외측에서 상기 투명창(310)에 고정되고 상기 제1 고정체(320)는 상기 제1 회전체(320)의 외측에 배치될 수 있다.
상기 투명창(310)은 원형의 형상을 가지고, 상기 제1 회전체(320)와 상기 제1 고정체(330)는 링 형상을 가짐에 따라, 카메라(181)의 중앙에서 전방으로 연장되는 가상의 선을 회전축으로 한 회전에 적합하다. 또한, 상기 투명창(310)의 전방 투시 영역에 상기 제1 회전체(320)와 상기 제1 고정체(330)가 노출되지 않으므로 카메라(181)의 시야를 방해하지 않을 수 있다. 따라서, 투명창(310) 전면을 활용할 수 있고, 카메라(183)가 획득하는 영상에도 가리는 부분이 발생하지 않는다.
제1 고정체(330)의 외측면과 본체(101)의 케이스는 실링이 되어 고정되고 기밀성을 유지할 수 있다.
실시 예에 따라서, 제1 회전체(320)와 투명창(310) 사이에는 탄성이 있는 고무, 합성수지 등 완충재가 배치될 수 있다. 또한, 제1 고정체(330)와 본체(101)의 케이스 사이에는 탄성이 있는 고무, 합성수지 등 완충재가 배치될 수 있다.
한편, 촬영부(180)는, 상기 제1 회전체(320)를 회전시키는 모터(185)를 포함할 수 있다. 제어부(110)는 상기 모터(185)를 구동하여 상기 제1 회전체(320)를 회전시킬 수 있다. 상기 제1 회전체(320)의 회전에 따라 상기 제1 회전체(320) 및 상기 제1 회전체(320)에 고정된 투명창(310)이 회전할 수 있다.
한편, 본 발명의 일 실시 예에 따른 촬영부(180)는, 상기 모터(185)의 회전에 의한 구동력을 상기 제1 회전체(320)에 전달하는 기어 또는 풀리(pulley, 350)를 더 포함할 수 있다. 경우에 따라서, 상기 제1 회전체(320)는 상기 카메라(181)를 향하는 방향으로 연장되어 상기 기어 또는 풀리에 연결되는 홀더부(321)를 더 포함할 수 있다.
실외에서 작업하는 로봇의 경우 카메라 및 카메라 커버에 먼지, 진흙 등 이물질이 붙거나 비가 많이오는 악천후시 카메라를 통한 인식에 어려움이 발생할 수 있었다.
본 발명의 일 실시 예에 따르면, 카메라 커버(183) 중 적어도 일부를 회전함으로써, 이물질에 의한 카메라 시야 방해를 최소화할 수 있다. 예를 들어, 상기 제어부(110)는 상기 모터(185)를 구동하여 상기 제1 회전체(320)를 회전시켜 원심력으로 상기 투명창(310)에 이물질이 붙는 것을 최소화하고 투명창(310)에 붙은 이물질을 떨어뜨릴 수 있다.
본 발명의 일 실시 예에 따르면, 카메라(181) 전방 투시영역 상에 회전축이 형성되지 않기 때문에 카메라 커버(183) 구조물에 의한 시야 방해가 없다는 장점 있다.
본 발명의 일 실시 예에 따르면, 카메라 커버(183)가 내부의 카메라(181)를 보호할 수 있다.
한편, 본 발명의 일 실시 예에 따르면, 카메라 커버(183)의 회전에 베어링(bearing)을 이용할 수 있다.베어링은 회전하는 축에 결합되어, 축을 고정하며 축을 회전시킬 수 있다.
예를 들어, 카메라 커버(183)의 회전에 구름 베어링(rolling bearing)을 이용할 수 있다. 상기 제1 회전체(320)는 베어링의 내륜이고, 상기 제1 고정체(330)는 상기 베어링의 외륜일 수 있다. 상기 제1 회전체(320)와 상기 제1 고정체(330)는 볼 베어링, 롤러 베어링의 내륜과 외륜일 수 있다.
도 4는 볼 베어링과 같은 방식으로 회전축을 고정하는 일례를 도시한 것이다.
도 4를 참조하면, 원형의 투명창(310)을 링 형상을 가지는 내륜의 제1 회전체(320)가 고정하고, 제1 회전체(320)의 외측으로부터 소정 간격 이격되어 더 큰 지름의 링 형상을 가지는 외륜의 제1 고정체(330)가 위치한다. 제1 회전체(320)와 제1 고정체(330)는 1층, 2층 레이어(layer)로 구성을 할 수 있다.
상기 카메라 커버(183)는, 상기 제1 회전체(320)와 상기 제1 고정체(330) 사이에 다수의 볼(340)을 더 포함하여, 회전 시 마찰력을 감소시킬 수 있다. 바람직하게는 다수의 볼(340)은 일정한 간격으로 서로 이격되어 배치될 수 있다.
원형의 투명창(310)의 외측에 제1 회전체(320)와 제1 고정체(330)가 배치됨으로써 카메라(181)의 시야를 방해하지 않으면서, 투명창(310)과 제1 회전체(320)를 회전시킬 수 있다.
실시 예에 따라서, 제1 회전체(320)와 제1 고정체(330)는 결합 및 강성 보강을 위해 변형된 구조를 가질 수 있다.
도 5는 본 발명의 일 실시 예에 따른 제1 회전체(520) 구조를 예시한 것이다.
도 5를 참조하면, 제1 회전체(520)는, 상기 제1 회전체(520)의 끝단에서 내측으로 벤딩(beinding)되어 투명창(510)을 지지하는 벤딩부(525)를 더 포함할 수 있다. 이에 따라, 제1 회전체(520)와 투명체(510)의 고정력이 증가하여 반복적인 회전에도 제1 회전체(520) 및/또는 투명체(510)가 이탈하거나 분리되는 것을 방지할 수 있다.
한편, 벤딩부(525)가 상기 제1 회전체(520)의 끝단에서 내측으로 너무 길어지면 상기 카메라(181)의 시야를 방해할 수 있으므로, 벤딩부(525)의 길이는 상기 카메라(181)와 상기 투명창(510) 사이의 거리 및 상기 카메라(181)의 시야각에 기초하여 결정될 수 있다.
한편, 본 발명의 일 실시 예에 따르면, 상기 제1 회전체(320)와 상기 제1 고정체(330)가 베어링 구조를 형성하지 않고, 별도의 베어링을 더 포함할 수 있다.
도 6은 본 발명의 실시 예에 따른 이동 로봇(100)의 카메라 커버(183)를 중심으로 촬영부(180)의 일례를 도시한 것이다.
도 6을 참조하면, 본 발명의 일 실시 예에 따른 이동 로봇(100)은, 상기 제1 회전체(320)와 상기 제1 고정체(330) 사이에 배치되는 베어링(600)을 더 포함할 수 있다. 베어링(600)은 구름 베어링(rolling bearing)일 수 있고, 도 4에서 예시한는 볼 베어링일 수 있다.
상기 제1 회전체(320)와 상기 제1 고정체(330) 사이에 베어링(600)이 배치됨으로써, 회전축을 잡아주면서 상기 투명창(310) 및 상기 제1 회전체(320)를 회전시킬 수 있다.
본 발명의 일 실시 예에 따른 이동 로봇(100)은, 소정 기준에 따라 카메라 커버(183) 중 적어도 일부를 회전함으로써 실외 환경과 상황에 맞게 안정적으로 동작할 수 있다.
예를 들어, 제1 회전체(320)의 회전은 상시 가능하며, 카메라 커버(183)에 이물질이 붙었다는 판단이 되는 경우, 또는 온도 센서, 레인(Rain) 센서 등을 통해 악천후 기후로 판단되는 경우에만 동작시킬 수도 있다.
본 발명의 실시 예에 따르면, 상기 투명창(310) 및 상기 제1 회전체(320)가 회전하는 원심력에 의해 이물질이 붙지 않아 깨끗한 시야를 확보할 수 있고, 필요 시 동작을 시켜 실외 악천후 상황에서도 카메라 시야를 확보할 수 있다.
제어부(110)는, 이동 로봇(110)에 구비되어 있는 온도 센서, 레인(Rain) 센서 등을 통해 날씨가 좋거나 이물질이 없는 경우를 판단하여 회전을 중단시킬 수 있다.
제어부(110)는, 카메라(181)릍 통하여 획득되는 이미지(image)의 특징점을 추출하여 이물질 존재 여부를 판별하고, 이물질이 있다고 판별되면 상기 모터(185)를 구동하여 상기 제1 회전체(320)가 회전하도록 제어할 수 있다.
상기 제어부(110)는, 2이상의 이미지들을 비교하여, 이물질 존재 여부를 판별할 수 있다. 예를 들어, 상기 제어부(110)는, 연속되는 2이상의 이미지에 포함되는 동일 오브젝트(object)를 검출하고, 검출된 동일 오브젝트가 움직이지 않는 경우에 상기 이물질이 존재하는 것으로 판별할 수 있다. 또는, 상기 제어부(110)는, 연속되는 2이상의 이미지에 포함되는 동일 오브젝트(object)를 검출하고, 검출된 동일 오브젝트의 크가 변화가 기준치보다 작은 경우에 상기 이물질이 존재하는 것으로 판별할 수 있다. 또는, 상기 제어부(110)는, 연속되는 2이상의 이미지에 포함되는 동일 오브젝트(object)를 검출하고, 검출된 동일 오브젝트의 속성을 판별하여 상기 이물질이 존재하는 것으로 판별할 수 있다.
이미지 기반으로 이물질 여부를 판별하므로 별도의 이물질 감지 센서를 구비하지 않아도 되고 제조비를 저감할 수 있다.
한편, 실시 예에 따라서, 상기 제어부(110)는, 상기 제1 회전체(320)가 회전하지 않고 있는 경우에, 상기 카메라(181)릍 통하여 획득되는 이미지(image)의 특징점을 추출하여 이물질 존재 여부를 판별할 수 있다. 상기 제1 회전체(320)의 회전에 따라 투명창(310)이 충분한 속도로 회전하고 있으면, 이물질이 카메라 커버(183)에 붙지 못하므로, 상기 제1 회전체(320) 등 카메라 커버(183)의 미회전 시에만 이물질 존재 여부를 판별함으로써 시스템 부하를 감소시킬 수 있다.
실시 예에 따라서, 상기 제어부(110)는, 상기 이물질이 제거될 때까지 상기 제1 회전체(320)가 회전하도록 제어할 수 있다. 상기 제어부(110)는, 이물질이 감지되면 해당 이물질이 감지되지 않을 때까지 카메라 커버(183)를 회전시키고, 이물질 제거 후에 카메라 커버(183)의 회전을 정지시킬 수 있다.
본 발명의 일 실시 예에 따르면, 상기 제어부(110)는, 레인 센서(rain sensor)의 센싱 데이터를 통하여 비가 오는 지 여부를 판별할 수 있다. 상기 제어부(110)는, 상기 레인 센서의 센싱 데이터에 기초하여 상기 모터(185)를 구동하여 상기 제1 회전체(320)가 회전하도록 제어할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 이동 로봇의 제어 방법의 순서도이고, 도 8과 도 9는 본 발명의 실시 예에 따른 이동 로봇의 제어 방법에 관한 설명에 참조되는 도면이다.
도 7을 참조하면, 본 발명의 실시 예에 따른 이동 로봇(100)은, 카메라(181)릍 통하여 획득되는 이미지(image)의 특징점을 추출할 수 있고(S720), 제어부(110)는, 상기 추출된 이미지의 특징점에 기초하여 이물질 존재 여부를 판별할 수 있다(S740).
상기 이물질이 존재하는 것으로 판별되면(S740), 상기 카메라(181)의 전방에 배치되는 투명창(310)에 고정되는 제1 회전체(320)가 회전하도록 모터(185)를 제어할 수 있다(S750). 제1 회전체(320)가 회전함에 따라 투명창(310)도 회전하게 된다.
실시 예에 따라서, 투명창(310)은 카메라(181)를 보호하고 카메라(181)의 시야를 방해하지 않는 투명한 커버 유리일 수 있다. 커버 유리는 입/출력부(130) 조작으로 사용자가 직접 회전을 시킬 수 있다. 또는, 도 7과 같이 이물질이 붙는 경우를 판단하여 커버 유리 회전 여부를 자동으로 결정할 수 있다.
즉, 사용자 조작에 의해서 커버 유리가 회전하고 있으면(S710), 회전 여부를 결정할 필요가 없으므로 특징점 추출(S720) 및 이물질 판별(S740)을 수행하지 않는다.
또한, 커버 유리가 충분한 속도로 회전하고 있으면(S710), 이물질이 카메라 커버(183)에 붙지 못하므로, 상기 제1 회전체(320) 등 카메라 커버(183)의 미회전 시에만 이물질 존재 여부를 판별함으로써 시스템 부하를 감소시킬 수 있다.
상기 제어부(110)는, 2이상의 이미지들을 비교하여, 이물질 존재 여부를 판별할 수 있다.
상기 제어부(110)는, 이미지들에서 특징점들을 추출하고(S720), 연속된 이미지간 특징점을 매칭(Matching)시킬 수 있다. 상기 제어부(110)는, 연속되는 2이상의 이미지에 포함되는 동일 오브젝트(object)를 검출하고, 검출된 동일 오브젝트가 움직이지 않는 경우에 상기 이물질이 존재하는 것으로 판별할 수 있다.
실시 예에 따라서, 상기 제어부(110)는, 상기 카메라(181)릍 통하여 획득되는 이미지(image)로부터 이물질의 특징점을 추출할 수 있다(S730). 연속된 이미지가 매칭되어 특정 특징점, 오브젝트가 트래킹(Tracking)이 되는 조건 하에, 영상 내 특정 특징점이 움직이지 않는 지 판별할 수 있다(S730), 즉 움직이지 않는 특징점을 추출하고, 이를 이물질 특징점으로 판별할 수 있다(S730).
한편, 제어부(110)는, 이동 로봇(100)의 이동 정보를 엔코더(encoder) 등 센서를 통해 수신한 경우에 이동 로봇(100)의 이동 정보와 영상 내 특징점 변화 여부를 비교하여 움직이지 않는 특징점을 판단할 수 있다. 이동 로봇(100)은 움직이는 데, 특징점이 움직이지 않는다면, 제어부(110)는 이물질이 커버 유리에 붙었다고 판단할 수 있다(S740).
도 8과 도 9는 연속되는 2 이미지들(800, 900)을 예시한 것이다.
도 8과 도 9를 참조하면, 카메라(181)를 통하여 획득된 제1 이미지(800)에는 2개의 오브젝트(810, 850)가 검출된다. 제1 이미지(800)에 연속되는 제2 이미지(900)에는 제1 이미지(800) 중 일부 오브젝트(810)는 사라지고 특정 오브젝트(850)만 검출 가능하다. 또한, 제2 이미지(900)에는 제1 이미지(800)에는 없던 오브젝트(910)가 추가로 검출될 수 있다. 한편, 제어부(110)는, 연속되는 2 이미지들(800, 900)에서 공통적으로 검출되는 오브젝트(850)를 이물질로 판별할 수 있다.
또는, 상기 제어부(110)는, 연속되는 2이상의 이미지에 포함되는 동일 오브젝트(object)를 검출하고, 검출된 동일 오브젝트의 크가 변화가 기준치보다 작은 경우에 상기 이물질이 존재하는 것으로 판별할 수 있다. 도 8과 도 9의 예시에서 오브젝트(850)의 크기 변화는 거의 없으므로 이물질로 판별할 수 있다.
또는, 상기 제어부(110)는, 엔코더 등 센서의 센싱 데이터를 이미지들(800, 900)과 함께 고려하여, 이동 로봇(100)의 이동에도 불구하고 움직이지 않는 오브젝트(850)를 이물질로 판별할 수 있다.
또는, 상기 제어부(110)는, 연속되는 2이상의 이미지에 포함되는 동일 오브젝트(object)를 검출하고, 검출된 동일 오브젝트의 속성을 판별하여 상기 이물질이 존재하는 것으로 판별할 수 있다. 상기 제어부(110)는, 이미지 기반으로 오브젝트의 속성을 판별할 수 있도록 딥러닝된 인공 지능을 포함할 수 있다. 또는, 이동 로봇(100)은 기학습된 별도의 이물질 학습기를 더 포함할 수 있다. 이 경우에, 상기 제어부(110)는, 이미지 기반으로 잔디, 흙 등 이물질 여부, 이물질 종류를 판별할 수 있다.
제어부(110)는 모터(185)를 구동하여 커버 유리를 회전시켜 이물질을 제거할 수 있다(S750).
본 발명의 일 실시 예에 따르면, 상기 제어부(110)는, 레인 센서(rain sensor)의 센싱 데이터를 통하여 비가 오는 지 여부를 판별할 수 있다. 상기 제어부(110)는, 상기 레인 센서의 센싱 데이터에 기초하여 상기 모터(185)를 구동하여 상기 제1 회전체(320)가 회전하도록 제어할 수 있다. 이에 따라 커버 유리에 물방울이 붙거나 붙은 물방울을 제거할 수 있다.
한편, 카메라 커버(183)에 내부 이물질이 생겨 모터 부하가 증가하면 제어부(110)는 입/출력부(130)를 통하여 청소 알림 등을 출력할 수 있다. 이에 따라, 사용자는 카메라 커버(183)를 효율적으로 관리할 수 있다.
본 발명에 따른 이동 로봇 및 그 제어 방법은 상기한 바와 같이 설명된 실시 예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시 예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나, 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다.
한편, 본 발명의 실시 예에 따른 이동 로봇의 제어 방법은, 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.

Claims (20)

  1. 실외 환경에서 작업하는 이동 로봇에 있어서,
    본체;
    상기 본체를 이동시키는 주행부;
    상기 본체의 내부에 수용되어 상기 본체의 외부를 촬영하는 카메라;
    상기 카메라의 전방에 배치되는 투명창, 상기 투명창에 고정되는 제1 회전체, 상기 본체의 케이스에 고정되는 제1 고정체를 포함하는 카메라 커버; 및,
    상기 제1 회전체를 회전시키는 모터;를 포함하는 이동 로봇.
  2. 제1항에 있어서,
    상기 제1 회전체와 상기 제1 고정체는 링(ring) 형상인 것을 특징으로 하는 이동 로봇.
  3. 제1항에 있어서,
    상기 모터의 회전에 의한 구동력을 상기 제1 회전체에 전달하는 기어 또는 풀리(pulley);를 더 포함하는 이동 로봇.
  4. 제3항에 있어서,
    상기 제1 회전체는 상기 카메라를 향하는 방향으로 연장되어 상기 기어 또는 풀리에 연결되는 홀더부를 더 포함하는 이동 로봇.
  5. 제1항에 있어서,
    상기 제1 회전체는, 상기 제1 회전체의 끝단에서 내측으로 벤딩(beinding)되어 상기 투명창을 지지하는 벤딩부를 더 포함하는 이동 로봇.
  6. 제1항에 있어서,
    상기 제1 회전체는 베어링의 내륜이고, 상기 제1 고정체는 상기 베어링의 외륜인 것을 특징으로 하는 이동 로봇.
  7. 제6항에 있어서,
    상기 카메라 커버는, 상기 제1 회전체와 상기 제1 고정체 사이에 다수의 볼을 더 포함하는 것을 특징으로 하는 이동 로봇.
  8. 제1항에 있어서,
    상기 제1 회전체와 상기 제1 고정체 사이에 배치되는 베어링;을 더 포함하는 이동 로봇.
  9. 제1항에 있어서,
    상기 카메라릍 통하여 획득되는 이미지(image)의 특징점을 추출하여 이물질 존재 여부를 판별하고, 이물질이 있다고 판별되면 상기 모터를 구동하여 상기 제1 회전체가 회전하도록 제어하는 제어부;를 더 포함하는 이동 로봇.
  10. 제9항에 있어서,
    상기 제어부는, 2이상의 이미지들을 비교하여, 이물질 존재 여부를 판별하는 것을 특징으로 하는 이동 로봇.
  11. 제10항에 있어서,
    상기 제어부는, 연속되는 2이상의 이미지에 포함되는 동일 오브젝트(object)를 검출하고, 검출된 동일 오브젝트가 움직이지 않는 경우에 상기 이물질이 존재하는 것으로 판별하는 것을 특징으로 하는 이동 로봇.
  12. 제10항에 있어서,
    상기 제어부는, 연속되는 2이상의 이미지에 포함되는 동일 오브젝트(object)를 검출하고, 검출된 동일 오브젝트의 크가 변화가 기준치보다 작은 경우에 상기 이물질이 존재하는 것으로 판별하는 것을 특징으로 하는 이동 로봇.
  13. 제10항에 있어서,
    상기 제어부는, 연속되는 2이상의 이미지에 포함되는 동일 오브젝트(object)를 검출하고, 검출된 동일 오브젝트의 속성을 판별하여 상기 이물질이 존재하는 것으로 판별하는 것을 특징으로 하는 이동 로봇.
  14. 제9항에 있어서,
    상기 제어부는, 상기 제1 회전체가 회전하지 않고 있으면, 상기 카메라릍 통하여 획득되는 이미지(image)의 특징점을 추출하여 이물질 존재 여부를 판별하는 것을 특징으로 하는 이동 로봇.
  15. 제9항에 있어서,
    상기 제어부는, 상기 이물질이 제거될 때까지 상기 제1 회전체가 회전하도록 제어하는 것을 특징으로 하는 이동 로봇.
  16. 제1항에 있어서,
    레인 센서(rain sensor);
    상기 레인 센서의 센싱 데이터에 기초하여 상기 모터를 구동하여 상기 제1 회전체가 회전하도록 제어하는 제어부;를 더 포함하는 이동 로봇.
  17. 실외 환경에서 작업하는 이동 로봇의 제어 방법에 있어서,
    카메라릍 통하여 획득되는 이미지(image)의 특징점을 추출하는 단계;
    상기 추출된 이미지의 특징점에 기초하여 이물질 존재 여부를 판별하는 단계;
    상기 이물질이 존재하는 것으로 판별되면, 상기 카메라의 전방에 배치되는 투명창에 고정되는 제1 회전체가 회전하도록 모터를 제어하는 단계;를 포함하는 이동 로봇의 제어 방법.
  18. 제17항에 있어서,
    상기 이물질 존재 여부를 판별하는 단계는, 2이상의 이미지들을 비교하여, 이물질 존재 여부를 판별하는 것을 특징으로 하는 이동 로봇의 제어 방법.
  19. 제17항에 있어서,
    상기 카메라릍 통하여 획득되는 이미지(image)로부터 이물질의 특징점을 추출하는 단계;를 더 포함하는 이동 로봇의 제어 방법.
  20. 제17항에 있어서,
    레인 센서(rain sensor)의 센싱 데이터에 기초하여 상기 모터를 구동하여 상기 제1 회전체가 회전하도록 제어하는 단계;를 더 포함하는 이동 로봇의 제어 방법.
PCT/KR2021/002931 2020-03-12 2021-03-09 이동 로봇 WO2021182858A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200030876A KR20210115305A (ko) 2020-03-12 2020-03-12 이동 로봇
KR10-2020-0030876 2020-03-12

Publications (1)

Publication Number Publication Date
WO2021182858A1 true WO2021182858A1 (ko) 2021-09-16

Family

ID=77672186

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/002931 WO2021182858A1 (ko) 2020-03-12 2021-03-09 이동 로봇

Country Status (2)

Country Link
KR (1) KR20210115305A (ko)
WO (1) WO2021182858A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06178175A (ja) * 1992-12-02 1994-06-24 Canon Inc カメラ用防水防滴装置
US20020139394A1 (en) * 2001-04-03 2002-10-03 Barry Bronson Self-cleaning lens shield
KR20100011119A (ko) * 2008-07-24 2010-02-03 송영일 회전이 가능한 렌즈
KR20150065972A (ko) * 2013-11-28 2015-06-16 삼성전자주식회사 로봇 청소기 및 로봇 청소기의 제어방법
KR20190102149A (ko) * 2019-08-14 2019-09-03 엘지전자 주식회사 카메라 시야 확보를 위한 세척 기능을 구비하는 로봇 및 그의 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06178175A (ja) * 1992-12-02 1994-06-24 Canon Inc カメラ用防水防滴装置
US20020139394A1 (en) * 2001-04-03 2002-10-03 Barry Bronson Self-cleaning lens shield
KR20100011119A (ko) * 2008-07-24 2010-02-03 송영일 회전이 가능한 렌즈
KR20150065972A (ko) * 2013-11-28 2015-06-16 삼성전자주식회사 로봇 청소기 및 로봇 청소기의 제어방법
KR20190102149A (ko) * 2019-08-14 2019-09-03 엘지전자 주식회사 카메라 시야 확보를 위한 세척 기능을 구비하는 로봇 및 그의 제어 방법

Also Published As

Publication number Publication date
KR20210115305A (ko) 2021-09-27

Similar Documents

Publication Publication Date Title
EP3829832A1 (en) Moving robot, moving robot system, and method for moving to charging station of moving robot
WO2019132419A1 (en) Moving apparatus for cleaning and method of controlling the same
WO2016200098A1 (ko) 이동 로봇 및 그 제어방법
WO2018043957A1 (en) Robot cleaner
WO2020027611A1 (en) Moving robot, moving robot system, and method for moving to charging station of moving robot
WO2020032413A1 (en) Moving robot and controlling method thereof
WO2019194628A1 (ko) 이동 로봇 및 그 제어방법
WO2020032501A1 (en) Station apparatus and moving robot system
WO2020122582A1 (en) Artificial intelligence moving robot and method for controlling the same
WO2021230441A1 (ko) 이동 로봇 시스템의 송출기 및 이의 이탈 감지 방법
WO2021066343A1 (ko) 이동 로봇 및 그 제어방법
WO2019093831A1 (en) Robot cleaner and control method thereof
WO2020159277A2 (ko) 이동 로봇 및 이의 제어 방법
WO2020027496A1 (en) Moving robot and controlling method thereof
WO2019194415A1 (en) Mover robot system and controlling method for the same
WO2021182858A1 (ko) 이동 로봇
WO2020122583A1 (en) Moving robot system and control method of the same
WO2021182855A1 (ko) 이동 로봇
WO2020159100A1 (en) Artificial intelligence moving robot and method for controlling the same
WO2021020911A1 (en) Mobile robot
WO2020122579A1 (en) Moving robot and method for controlling the same
WO2020027598A1 (en) Moving robot, moving robot system, and method for moving to charging station of moving robot
WO2020159101A1 (en) Artificial intelligence moving robot and method for controlling the same
EP3478143A1 (en) Robot cleaner
WO2021182857A1 (ko) 이동 로봇 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21767254

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21767254

Country of ref document: EP

Kind code of ref document: A1