KR101542498B1 - Robot cleaner and method for detecting position thereof - Google Patents

Robot cleaner and method for detecting position thereof Download PDF

Info

Publication number
KR101542498B1
KR101542498B1 KR1020090017748A KR20090017748A KR101542498B1 KR 101542498 B1 KR101542498 B1 KR 101542498B1 KR 1020090017748 A KR1020090017748 A KR 1020090017748A KR 20090017748 A KR20090017748 A KR 20090017748A KR 101542498 B1 KR101542498 B1 KR 101542498B1
Authority
KR
South Korea
Prior art keywords
information
detecting
robot cleaner
position information
downward
Prior art date
Application number
KR1020090017748A
Other languages
Korean (ko)
Other versions
KR20100098997A (en
Inventor
백승민
김영기
윤정석
이성수
김예빈
최유진
나상익
최수욱
이동훈
이제훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020090017748A priority Critical patent/KR101542498B1/en
Publication of KR20100098997A publication Critical patent/KR20100098997A/en
Application granted granted Critical
Publication of KR101542498B1 publication Critical patent/KR101542498B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/02Nozzles
    • A47L9/04Nozzles with driven brushes or agitators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

로봇 청소기 및 그의 위치 검출 방법이 개시된다. 본 발명은 위치 및 자세 변화를 감지하는 다양한 센서들을 구비하고, 상기 센서 정보에 따라 로봇 청소기의 주행 조건을 판단하며, 판단된 주행 조건에 따라 적합한 센서 조합을 선택하거나 불확실성을 고려한 센서 융합을 수행함으로써 미끄러짐, 충돌 등에 강인하게 로봇 청소기의 위치를 검출하고, 환경 지도를 생성한다. A robot cleaner and a method for detecting its position are disclosed. According to the present invention, various sensors for detecting a change in position and attitude are provided. The traveling condition of the robot cleaner is determined according to the sensor information, and a suitable sensor combination is selected according to the determined traveling condition or sensor fusion is performed considering uncertainty The position of the robot cleaner is detected robustly, and an environment map is generated.

로봇 청소기, 위치, 카메라, OFS Robot cleaner, position, camera, OFS

Description

로봇 청소기 및 그의 위치 검출 방법{ROBOT CLEANER AND METHOD FOR DETECTING POSITION THEREOF}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a robot cleaner,

본 발명은 미끄러짐이나 충돌 등에 강인하게 정밀한 위치를 검출하는 로봇 청소기 및 그의 위치 검출 방법에 관한 것이다.The present invention relates to a robot cleaner capable of detecting a precise position such as a slip or a collision, and a position detecting method therefor.

일반적으로 로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다.In general, robots have been developed for industrial use and have been part of factory automation. In recent years, medical robots, aerospace robots, and the like have been developed, and household robots that can be used in ordinary homes are being developed.

상기 가정용 로봇의 대표적인 예는 로봇 청소기로서, 일정 영역을 스스로 주행하면서 주변의 먼지 또는 이물질을 흡입하여 청소하는 가전기기의 일종이다. 이러한 로봇 청소기는 일반적으로 충전 가능한 배터리를 구비하고, 주행 중 장애물을 피할 수 있는 장애물 센서를 구비하여 스스로 주행하며 청소할 수 있다.A representative example of the domestic robot is a robot cleaner, which is a type of household appliance that sucks and cleanes dust or foreign matter around the robot while traveling in a certain area by itself. Such a robot cleaner is generally equipped with a rechargeable battery and has an obstacle sensor capable of avoiding obstacles during traveling, so that it can run and clean by itself.

상기 로봇 청소기가 스스로 주행하면서 영역을 모두 청소하기 위해서는 청소가 된 영역과 청소를 하여야 할 영역 등 청소 영역을 판단할 수 있어야 하고, 이러한 청소 영역을 파악하기 위해서는 자기 위치를 파악하는 기능을 보유하여야 한다.In order to clean the entire area while the robot cleaner is traveling on its own, it is necessary to be able to determine a cleaning area such as a cleaned area and an area to be cleaned. In order to grasp the cleaning area, .

종래 기술에 따른 로봇 청소기는 위치인식을 위하여 바퀴 회전을 감지하는 인코더(Encoder), 자이로 스코프 (Gyroscope, 각속도 센서)등 상대적인 로봇 동작의 변화를 추정할 수 있는 센서들만을 이용하거나 상기 상대 센서와 카메라를 같이 이용하여 로봇의 위치를 추정하였다.The robot cleaner according to the related art uses only sensors that can estimate a change in relative robot operation such as an encoder, a gyroscope, or the like that detects the rotation of the wheel for position recognition, The position of the robot is estimated.

그러나, 종래 기술에 따른 로봇 청소기는 미끄러짐 상황을 판단할 수 있는 센서정보가 없고 이동에 대한 상보적인 센서 정보가 부족하여 카메라를 사용하여도 위치 오차가 크게 발생하는 문제점이 있다.However, the robot cleaner according to the related art does not have sensor information for determining a slip situation, and lacks complementary sensor information for movement, resulting in a large position error even when the camera is used.

본 발명은 위치 및 자세 변화를 감지하는 다양한 센서들을 구비하여 주행 조건에 따라 적합한 센서 조합을 선택하거나 불확실성을 고려한 센서 융합을 수행함으로써 미끄러짐, 충돌 등에 강인한 로봇 청소기 및 그의 위치 검출 방법을 제공함에 그 목적이 있다.The present invention provides a robot cleaner robust against slippage or collision by selecting various sensor combinations according to driving conditions or performing sensor fusion considering uncertainty by providing various sensors for detecting changes in position and attitude, .

상기 목적을 달성하기 위한 본 발명의 일 예에 따른 로봇 청소기는, 상방 영상 정보를 근거로 위치를 검출하여 제1 위치 정보를 출력하는 제1 검출유닛과, 하방 영상 정보를 근거로 위치를 검출하여 제2 위치 정보를 출력하는 제2 검출유닛과, 바퀴를 구동하는 휠모터의 회전을 근거로 위치를 검출하여 제3 위치 정보를 출력하는 제3 검출유닛과, 상기 위치 정보들 중 둘 이상의 위치 정보들을 근거로 로봇 청소기의 현재 위치를 결정하고, 주행 상태를 판단하는 제어유닛을 포함하여 구성된다.According to an aspect of the present invention, there is provided a robot cleaner including a first detection unit for detecting a position based on upper image information and outputting first position information, a position detection unit for detecting a position based on downward image information, A third detection unit for detecting a position based on the rotation of the wheel motor for driving the wheels and outputting the third position information; And a control unit for determining the current position of the robot cleaner on the basis of the current position of the robot cleaner and determining the running state.

또한, 본 발명의 일 예에 따른 로봇 청소기의 위치 검출 방법은, 상방 영상 정보를 근거로 위치를 검출하여 제1 위치 정보를 출력하는 제1 검출단계와, 하방 영상 정보를 근거로 위치를 검출하여 제2 위치 정보를 출력하는 제2 검출단계와, 바퀴를 구동하는 휠모터의 회전을 근거로 위치를 검출하여 제3 위치 정보를 출력하는 제3 검출단계와, 상기 위치 정보들 중 둘 이상의 위치 정보들을 비교하고, 상기 비교결과에 따라 로봇 청소기의 현재 위치를 결정하는 위치결정단계를 포함하여 구 성된다.According to another aspect of the present invention, there is provided a method for detecting a position of a robot cleaner including a first detecting step of detecting a position based on upper image information and outputting first position information, A third detecting step of detecting a position based on the rotation of the wheel motor for driving the wheels and outputting the third position information; And determining a current position of the robot cleaner based on the comparison result.

본 발명에 따라 위치 및 자세 변화를 감지하는 다양한 센서들을 구비하고, 상기 센서 정보에 따라 로봇 청소기의 주행 조건을 판단하며, 판단된 주행 조건에 따라 적합한 센서 조합을 선택하거나 불확실성을 고려한 센서 융합을 수행함으로써 미끄러짐, 충돌 등에 강인하게 로봇 청소기의 위치를 검출할 수 있다.According to the present invention, various sensors for detecting a change in position and attitude are provided. In accordance with the sensor information, a driving condition of the robot cleaner is determined, a suitable sensor combination is selected according to the determined driving condition, or sensor fusion is performed considering uncertainty The position of the robot cleaner can be detected robustly by slipping, collision, or the like.

이하, 첨부한 도면을 참조하여 본 발명에 따른 로봇 청소기 및 그의 위치 검출 방법을 상세히 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a robot cleaner and a position detecting method according to the present invention will be described in detail with reference to the accompanying drawings.

도 1 및 도 6을 참조하면, 본 발명의 일 예에 따른 로봇 청소기는, 상방 영상 정보를 근거로 위치를 검출하여 제1 위치 정보를 출력하는 제1 검출유닛(100)과, 하방 영상 정보를 근거로 위치를 검출하여 제2 위치 정보를 출력하는 제2 검출유닛(200)과, 바퀴를 구동하는 휠모터의 회전을 근거로 위치를 검출하여 제3 위치 정보를 출력하는 제3 검출유닛(300)과, 상기 위치 정보들 중 둘 이상의 위치 정보들을 근거로 로봇 청소기의 현재 위치를 결정하고, 주행 상태를 판단하는 제어유닛(500)을 포함하여 구성된다.1 and 6, a robot cleaner according to an exemplary embodiment of the present invention includes a first detection unit 100 for detecting a position based on upper image information and outputting first position information, A third detection unit 300 for detecting the position based on the rotation of the wheel motor for driving the wheels and outputting the third position information, And a control unit 500 for determining the current position of the robot cleaner based on two or more pieces of positional information of the positional information and determining the running state of the robot cleaner.

상기 제1 검출유닛(100)은, 도 2에 도시한 바와 같이, 상방을 촬영하여 상방 영상 정보를 출력하는 카메라(110)와, 상기 상방 영상 정보로부터 특징점을 추출하고, 상기 특징점을 근거로 제1 위치 정보를 생성하는 영상처리유닛(120)을 포함하여 구성된다. 또한, 상기 제1 검출유닛(100)은 상기 카메라(110)에 연결되어 피사 체의 촛점을 맞추는 렌즈(130)와, 상기 카메라(110)를 조절하는 카메라조절유닛(140)과, 상기 렌즈(130)를 조절하는 렌즈조절유닛(150)을 더 포함할 수 있다.2, the first detection unit 100 includes a camera 110 that captures an image of the upper side and outputs upper image information, a feature extraction unit 110 that extracts feature points from the upper image information, And an image processing unit (120) for generating one position information. The first detection unit 100 includes a lens 130 coupled to the camera 110 to focus the subject, a camera control unit 140 to control the camera 110, 130) for adjusting the angle of view of the lens.

상기 렌즈(130)는 소정의 위치에서도 상방의 모든 영역, 예를 들어 천장의 모든 영역이 촬영될 수 있도록 화각이 넓은 렌즈를 사용한다. 예를 들어 화각이 160도 이상인 렌즈를 포함한다. 상기 영상처리유닛(120)은 임의의 표식으로부터 특징점을 추출할 수 있는데, 특히 천장면을 포함하는 상방 영역에 존재하는 형광등, 인테리어 구조물 등의 자연 표식을 이용하여 특징점을 추출한다.The lens 130 uses a lens having a wide angle of view so that all the areas above the predetermined position, for example, the entire area of the ceiling, can be photographed. For example, a lens having an angle of view of 160 degrees or more. The image processing unit 120 can extract feature points from an arbitrary landmark. In particular, feature points are extracted using natural markers such as fluorescent lamps and interior structures existing in an upper region including a ceiling scene.

도 7을 참조하여 본 발명에 따른 특징점 추출 과정을 예를 들어 설명한다. 상방을 일 회 촬영한 후 특징점을 추출할 수 있으나, 설명의 편의를 위해 이동 중 2회 촬영하여 특징점을 추출하는 동작을 설명한다. 도 7에 도시한 바와 같이, 제1 마크(C1)와 제2 마크(N1)를 비교할 때, 로봇 청소기가 이동하면서 상기 카메라(110)를 통해 제1 시간(k)과 제2 시간(k+1)에 천장면을 포함한 상방을 각각 촬영한다. 이때, 제1 시간(k)과 제2 시간(k+1)에 촬영되는 상방 영상 정보에서의 제1 마크(C1)과 제2 마크(N1)는 제1 특징점(M1)과 제2 특징점(M2)으로 나타나게 된다. 이때, 제1 마크(C1)와 제2 마크(N1)는 제1 특징점(M1(k)), 제2 특징점(M2(k))으로 나타난다. 한편, 제2 시간(k+1)에서의 제1 마크(C1)와 제2 마크(N1)는 제1 특징점(M1(k+1)), 제2 특징점(M2(k+1))으로 나타난다.The minutiae extraction process according to the present invention will be described with reference to FIG. The minutiae can be extracted after the image is photographed once. However, for convenience of explanation, the operation of picking up the minutiae by photographing twice during the movement will be described. 7, when the first mark C1 and the second mark N1 are compared with each other, the robot cleaner moves while the first time k and the second time k + 1) and the upper part including the ceiling scene, respectively. At this time, the first mark C1 and the second mark N1 in the upper image information photographed at the first time (k) and the second time (k + 1) are the first feature point M1 and the second feature point M2). At this time, the first mark C1 and the second mark N1 appear as a first feature point M1 (k) and a second feature point M2 (k). On the other hand, the first mark C1 and the second mark N1 at the second time (k + 1) correspond to the first feature point M1 (k + 1) and the second feature point M2 (k + 1) appear.

상기 영상처리유닛(120)은 제1 마크(C1)과 제2 마크(N1)에 대한 상방 영상 정보의 특징점인 제1 특징점(M1(k)), 제2 특징점(M2(k))과, 제1 특징점(M1(k+1)), 제2 특징점(M2(k+1))을 각각 매칭하고, 비교하여 특징점 간의 이동거리를 산출한 다. 즉 도 7의 (c)에 도시한 바와 같이, 제1 시간(k) 및 제2 시간(k+1)에 촬영된 영상 정보의 특징점을 상호 비교하여 제1 특징점의 이동거리(PL1), 제2 특징점의 이동거리(PL2)를 연산한다. 이때, 로봇 청소기의 이동에 따른 제1 마크(C1) 및 제2 마크(N1)와 로봇 청소기 간의 이동거리(L1)는 일정하고 로봇 청소기의 실제 이동거리와 동일하다. 그러나, 촬영된 영상 정보의 특징점의 이동거리인 PL1과 PL2는 서로 상이하다. 마크의 거리가 멀수록 마크에 대한 특징점의 이동거리는 작은데 반하여 마크가 로봇 청소기에 가까이 있을 수록, 즉 천장면보다 낮은 벽면에 위치할 수록 특징점의 이동거리 차가 커지게 된다. 그에 따라, 상기 영상처리유닛(120)은 제2 마크(N1)와 같이 로봇 청소기의 이동에 따른 특징점의 이동비율이 소정비율 이상인 경우, 불필요한 특징점인 것으로 판단하여 제거한다.The image processing unit 120 generates the first feature point M1 (k), the second feature point M2 (k), which are feature points of the upper image information for the first mark C1 and the second mark N1, The first feature point M1 (k + 1) and the second feature point M2 (k + 1) are respectively matched and compared, and the movement distance between the feature points is calculated. That is, as shown in FIG. 7C, the movement distance PL1 of the first feature point is compared with the feature point of the image information photographed at the first time k and the second time k + 1, And calculates the movement distance PL2 of two minutiae. At this time, the moving distance L1 between the first mark C1 and the second mark N1 and the robot cleaner according to the movement of the robot cleaner is constant and equal to the actual moving distance of the robot cleaner. However, the movement distances PL1 and PL2 of the feature points of the photographed image information are different from each other. As the distance of the mark increases, the travel distance of the minutiae to the mark is smaller, whereas the closer the mark is to the robot cleaner, that is, the lower the wall surface than the ceiling, the greater the difference in travel distance. Accordingly, when the moving rate of the minutiae corresponding to the movement of the robot cleaner is equal to or larger than a predetermined ratio, the image processing unit 120 determines that the unnecessary minutia is present and removes it as in the second mark N1.

또한, 상기 영상처리유닛(120)은 제1 마크(C1)와 제2 마크(N1) 중 제1 마크(C1)는 천장면에 위치한 것이므로 로봇 청소기로부터 천장면까지의 거리를 이용하여 제2 마크(N1)의 높이를 연산하고, 연산된 높이가 기준 높이 이하인 경우에는 불필요한 특징점으로 판단하여 제거한다. 제1 특징점(M1)과 제2 특징점(M2)을 비교하면, 각각의 이동거리에 대하여 제1 특징점(M1)의 이동거리 PL1과 제2 특징점(M2)의 이동거리 PL2는 제1 마크, 제2 마크, 및 로봇 청소기의 실제 이동거리와 높이의 비에 비례한다. 이때, 실제 이동거리는 동일하고, 제1 특징점(M1)에 대한 높이는 천장높이 이므로, 제2 특징점(M2), 즉 제2 마크(N1)에 대한 높이 산출이 가능해진다. 여기서, 촬영된 상방 영상 정보의 중심부분에 위치하는 특징점은 천장면에 위치하는 것으로 판단하고, 중심부분에 위치한 특징점을 기준으로 특징점의 높이를 산출한다.Since the first mark C1 of the first mark C1 and the first mark C1 of the second mark N1 are located in the ceiling scene, the image processing unit 120 may use the distance from the robot cleaner to the ceiling scene, (N1) is calculated. If the calculated height is equal to or lower than the reference height, it is determined as an unnecessary feature point and removed. When the first feature point M1 and the second feature point M2 are compared, the movement distance PL1 of the first feature point M1 and the movement distance PL2 of the second feature point M2 with respect to the respective movement distances, 2 mark, and the ratio of the actual moving distance and height of the robot cleaner. At this time, since the actual moving distance is the same and the height of the first characteristic point M1 is the ceiling height, the height of the second characteristic point M2, i.e., the second mark N1, can be calculated. Here, it is determined that the feature points located in the central part of the captured upper image information are located in the ceiling scene, and the height of the feature points is calculated based on the feature points located in the center part.

상기 제어유닛(500)은 상기 영상처리유닛(120)의 특징을 구비하거나, 상기 특징점 추출 알고리즘을 구비할 수 있으며, SLAM(Simultaneous Localizaion and Mapping)을 이용하여 위치 검출 및 환경 지도 생성을 동시에 수행할 수 있다.The control unit 500 may include features of the image processing unit 120 or may include the feature point extraction algorithm and simultaneously perform position detection and environment map generation using SLAM (Simultaneous Localization and Mapping) .

상기 제2 검출유닛(200)은, 도 3에 도시한 바와 같이, 하방을 촬영하여 하방 영상 정보를 출력하는 영상센서(210)와, 상기 하방에 조사되는 광량을 조절하는 광량조절유닛(220)과, 상기 하방 영상 정보를 근거로 제2 위치 정보를 생성하는 영상제어유닛(230)을 포함하여 구성된다. 또한, 상기 제2 검출유닛(200)은 상기 영상센서(210)로부터 바닥면까지의 거리를 측정하는 거리측정유닛(240)을 더 구비하고, 상기 거리측정유닛(240)은 적외선 또는 초음파 등을 송출하여 송출신호가 반사되어 돌아오는 시간으로부터 거리를 측정한다.3, the second detection unit 200 includes an image sensor 210 for capturing downward and outputting downward image information, a light amount control unit 220 for controlling the light amount irradiated downward, And an image control unit 230 for generating second position information based on the downward image information. The second detection unit 200 may further include a distance measurement unit 240 for measuring a distance from the image sensor 210 to the floor surface. The distance measurement unit 240 may measure an infrared ray, an ultrasonic wave, And measures the distance from the time when the transmitted signal is reflected and returned.

상기 영상센서(210)는 상기 카메라(110)와 동일한 기능의 카메라를 사용할 수 있으나, 상기 카메라(110)와 달리 하방, 즉 바닥을 촬영하여 하방 영상 정보를 획득하는 것이므로, 다른 사양의 이미지를 획득하는 센서를 사용한다. 상기 영상센서로는 빛을 이용하여 상기 하방 영상 정보를 획득하는 옵티컬 플로우 센서(Optical Flow Sensor; OFS)를 사용하는 것이 좋다.The image sensor 210 may use a camera having the same function as the camera 110. However, unlike the camera 110, the image sensor 210 acquires downward image information by capturing a downward image, that is, . As the image sensor, it is preferable to use an optical flow sensor (OFS) for acquiring the downward image information using light.

이하, 제2 검출유닛(200)의 동작을 설명한다. 상기 영상센서(210)는 로봇 청소기의 배면에 구비되어, 로봇 청소기의 이동 중에 하방, 즉 바닥을 촬영한다. 상기 영상센서(210)는 하방 영상을 촬영하여 소정 형식의 하방 영상 정보를 생성한다. 이때, 상기 제2 검출유닛(200)은 렌즈(미도시)와 상기 렌즈를 조절하는 렌즈조 절부(미도시)를 더 구비하는데, 상기 렌즈로는 초점거리가 짧고 심도가 깊은 팬포커스형 렌즈를 사용하는 것이 적절하고, 상기 렌즈조절부는 전후 이동되도록 하는 소정 모터와 이동수단을 구비하여 상기 렌즈를 조절한다. 또한, 상기 광량조절부(220)는 상기 영상센서(210)에 인접하여 설치되고, 하나 이상의 광원(미도시)을 조절하여 상기 영상센서(210)에 의해 촬영되는 바닥면의 영역에 빛을 조사한다. 즉, 로봇 청소기가 평탄한 바닥을 이동하는 경우에는 상기 영상센서(210)가 바닥면까지 일정한 거리가 유지되는 반면, 불균일한 표면의 바닥면을 이동하는 경우에는 바닥물의 요철 및 장애물에 의해 일정 거리 이상 멀어지게 된다. 이때 광량조절유닛(220)은 상기 거리측정유닛(240)으로부터 측정된 거리에 대응하여 하나 이상의 광원을 동작시켜 상기 조사되는 빛의 양을 조절한다. 반면, 상기 영상센서(210), 특히 옵티컬 플로우 센서는 미끄러짐과 무관하에 상대 위치를 검출할 수 있다. 즉, 상기 옵티컬 플로우 센서를 이용하여 로봇 청소기의 하방을 관찰하도록 함으로써, 미끄러짐에 강인한 위치 보정이 가능하다.Hereinafter, the operation of the second detection unit 200 will be described. The image sensor 210 is provided on the back side of the robot cleaner, and photographs the bottom, that is, the bottom of the robot cleaner. The image sensor 210 captures a downward image and generates downward image information of a predetermined format. The second detecting unit 200 may further include a lens (not shown) and a lens adjusting unit (not shown) for adjusting the lens. The lens may be a pan-focus lens having a short focal length and a deep depth, And the lens adjusting unit includes a predetermined motor and moving means for moving the lens adjusting unit back and forth to adjust the lens. The light amount adjusting unit 220 is disposed adjacent to the image sensor 210 and adjusts one or more light sources (not shown) to illuminate a bottom surface area photographed by the image sensor 210 do. In other words, when the robot cleaner moves on a flat floor, the image sensor 210 maintains a certain distance to the bottom surface. On the other hand, when the robot cleaner moves on the bottom surface of an uneven surface, It will move away. At this time, the light amount adjusting unit 220 operates one or more light sources corresponding to the distance measured from the distance measuring unit 240 to adjust the amount of the irradiated light. On the other hand, the image sensor 210, particularly the optical flow sensor, can detect a relative position regardless of slip. That is, by observing the underside of the robot cleaner using the optical flow sensor, it is possible to perform position correction that is robust against slippage.

상기 제어유닛(500)은 상기 위치 정보들 중 둘 이상의 위치 정보들을 비교하는 비교유닛(미도시)과, 상기 비교 결과를 근거로 환경 지도를 생성하는 지도생성유닛(미도시)을 구비하여 상기 위치 정보들을 근거로 환경 지도를 작성한다. 즉, 상기 제어유닛(500)은 상기 제1 검출유닛(100)을 통해 상방 영상 정보로부터 추출된 특징점들을 이용하여 환경 지도를 생성하고, 상기 제2 검출유닛(200)을 통해 하방 영상 정보로부터 검출된 미끄러짐에 강인한 위치 정보를 융합하여 상기 로봇 청소기의 위치를 결정하고, 상기 환경 지도를 다시 생성할 수 있다.The control unit 500 includes a comparison unit (not shown) for comparing two or more pieces of position information among the position information, and a map generation unit (not shown) for generating an environment map based on the comparison result, Create an environmental map based on information. That is, the control unit 500 generates an environment map using the feature points extracted from the upper image information through the first detection unit 100, and detects the environment map from the downward image information through the second detection unit 200 The position of the robot cleaner can be determined by fusing the positional information robust to the slip, and the environment map can be generated again.

반대로, 예를 들어 레이저 타입이 아닌 옵티컬 플로우 센서의 경우에 바닥이 반사 재질일 때 신호가 끊기는 현상이 있다. 이 때, 상기 제1 검출유닛(100)의 영상 정보를 이용하면 슬립에 의해 신호가 끊긴 것인지, 바닥이 반사 재질이기 때문에 끊긴 것인지를 명확히 알 수 있다.Conversely, for example, in the case of an optical flow sensor other than a laser type, there is a phenomenon that the signal is interrupted when the bottom is a reflective material. At this time, if the video information of the first detection unit 100 is used, it can be clearly seen whether the signal is lost due to slip or the bottom is broken because of the reflection material.

상기 제3 검출유닛(300)은 로봇 청소기의 주행유닛(620)에 구비된 휠모터의 회전을 감지하여 회전속도 또는 직진속도를 검출하고, 상기 회전속도 또는 직진속도를 이중 적분 등의 소정 연산을 이용하여 제3 위치 정보를 생성한다. 상기 제3 검출유닛(300)으로는 일반적으로 인코더(Encoder)를 사용한다.The third detection unit 300 senses the rotation speed of the wheel motor provided in the traveling unit 620 of the robot cleaner and detects the rotation speed or the linear velocity. The rotation speed or the linear velocity is subjected to a predetermined operation such as double integration To generate third position information. As the third detection unit 300, an encoder is generally used.

또한, 본 발명의 다른 예에 따른 로봇 청소기는, 상기 로봇 청소기의 방향 정보를 근거로 위치를 검출하여 제4 위치 정보를 출력하는 제4 검출유닛(400)을 더 포함하여 구성된다. 다른 구성에 대한 설명은 상기 일 예에 따른 로봇 청소기의 구성을 참조한다.The robot cleaner according to another exemplary embodiment of the present invention further includes a fourth detection unit 400 for detecting the position based on the direction information of the robot cleaner and outputting fourth position information. Other configurations are described with reference to the configuration of the robot cleaner according to the above example.

즉, 상기 제4 검출유닛(400)은 로봇 청소기의 이동 중에 방향의 변화를 감지하여 회전속도, 즉 각속도를 검출하고, 상기 각속도로부터 이중 적분 등의 소정 연산을 통하여 제4 위치 정보를 생성한다. 상기 제4 검출유닛(400)으로는 일반적으로 자이로스코프(Gyroscope, 각속도 센서)를 사용한다.That is, the fourth detection unit 400 detects the rotation speed, that is, the angular velocity, while sensing the change in direction during movement of the robot cleaner, and generates the fourth position information from the angular velocity through a predetermined operation such as double integration. As the fourth detection unit 400, a gyroscope (angular velocity sensor) is generally used.

상기 제1 내지 제3 검출유닛, 또는 상기 제1 내지 제4 검출유닛들을 조합하거나, 또는 선택적으로 적용하여 로봇 청소기의 위치를 정밀하게 검출할 수 있다. 예를 들어, 로봇 청소기는 제1 검출유닛(100)에 구비된 카메라(110)를 이용하면 영상처리를 통해 특징점을 획득하고 환경지도를 그릴 수 있으며, 상기 환경지도를 근 거로 로봇 청소기의 위치를 검출할 수 있으나, 로봇 청소기의 이동에 따라 미끄러짐, 충돌 등에 의해 환경 지도가 부정확해지면서 위치 검출 오차가 발생한다. 이러한 위치 검출 오차는 상기 인코더(300)를 이용하거나, 상기 자이로스코프(400)를 이용하거나, 상기 인코더와 자이로스코프를 이용하여 용이하게 속도로부터 로봇 청소기의 위치를 검출하고, 바닥의 재질 등에 의해 발생하는 미끄러짐에 강인한 상기 영상센서(210)를 이용하여 보정한다. 한편, 상기 제3 검출유닛(300)인 인코더나, 상기 제4 검출유닛(400)으로 사용된 자이로스코프 등의 상대 위치를 검출하는 검출 유닛만으로는 카펫과 같이 바퀴의 미끄리짐이 큰 바닥과 같은 조건에서 오차가 크게 발생하나, 상기 제2 검출유닛(200)인 옵티컬 플로우 센서는 미끄러짐과 무관하게 위치 정보를 생성할 수 있다.The first to third detection units or the first to fourth detection units may be combined or selectively applied to precisely detect the position of the robot cleaner. For example, the robot cleaner can acquire feature points and draw an environmental map through image processing using the camera 110 provided in the first detection unit 100, and can calculate the position of the robot cleaner based on the environmental map However, due to slippage and collision, the environment map becomes inaccurate due to the movement of the robot cleaner, resulting in a position detection error. This position detection error can be easily detected from the speed by using the encoder 300, the gyroscope 400 or the encoder and the gyroscope, and is detected by the material of the floor By using the image sensor 210 which is resistant to slippage. On the other hand, only the detecting unit for detecting the relative position of the encoder as the third detecting unit 300 or the relative position of the gyroscope used as the fourth detecting unit 400 can be set to a condition such as a floor having a large slip of the wheel The optical flow sensor, which is the second detection unit 200, can generate the position information irrespective of the slip.

상기 제어유닛(500)은 상기 제1 내지 제3 검출유닛, 또는 상기 제1 내지 제4 검출유닛으로부터 생성된 위치 정보들을 비교하여 현재 로봇 청소기의 주행 조건을 판단하고, 이 판단에 따라 적절한 센서 조합을 선택하거나 각 센서 정보 별 불확실성을 조정하여 센서 융합을 수행한다. 또한, 상기 제어유닛(500)은 상기 위치 정보들 중 둘 이상의 위치 정보들을 비교하는 비교유닛(미도시)과, 상기 비교 결과를 근거로 환경 지도를 생성하는 지도생성유닛(미도시)을 구비하여 상기 위치 정보들을 근거로 환경 지도를 작성한다. The control unit 500 compares the position information generated from the first to third detection units or the first to fourth detection units to determine the running condition of the current robot cleaner, Or sensor fusion is performed by adjusting the uncertainty of each sensor information. Also, the control unit 500 may include a comparison unit (not shown) for comparing two or more pieces of position information among the position information, and a map generation unit (not shown) for generating an environment map based on the comparison result And creates an environmental map based on the location information.

예를 들어, 상기 제어유닛(500)은 상기 인코더로부터 계산된 주행 거리가 상기 옵티컬 플로우 센서로부터 계산된 주행거리보다 현저히 작다면, 로봇 청소기가 카펫과 같이 미끄러운 바닥을 지나고 있다고 판단하여, 상기 인코더를 제외하고, 상기 자이로스코프와 옵티컬 플로우 센서의 위치 정보들만으로 위치를 결정하거나 인코더 정보의 불확실성을 높여서 센서 융합을 수행한다.For example, if the travel distance calculated from the encoder is significantly smaller than the travel distance calculated from the optical flow sensor, the control unit 500 determines that the robot cleaner is passing through a slippery floor like a carpet, The sensor fusion is performed by determining the position based only on the position information of the gyroscope and the optical flow sensor or increasing the uncertainty of the encoder information.

한편, 상기 제1 검출유닛으로부터 생성된 제1 위치 정보인 영상정보는 다른 검출유닛들의 위치 정보보다 갱신 주기가 길기 때문에 센서 융합되는 빈도가 적고, 영상정보의 밝기 정도, 매칭되는 특징점의 숫자 등에 따라 불확실성이 조정될 수 있다. 또한, 제1 검출유닛이 동작하지 못하는 어두운 환경에서도 상기 제2 내지 제3 검출유닛, 또는 상기 제2 내지 제4 검출유닛의 위치 정보들을 이용하면 위치 인식 오차를 줄일 수 있다.On the other hand, since the image information which is the first position information generated from the first detection unit has a longer update period than the position information of the other detection units, the frequency of the sensor fusion is small, and the degree of brightness of the image information, Uncertainties can be adjusted. Further, even in a dark environment where the first detection unit can not operate, positional error can be reduced by using the position information of the second to third detection units or the second to fourth detection units.

다른 예로, 문턱 등반 등 로봇 청소기가 평면 바닥이 아닌 곳을 주행할 때는 제1 위치 정보와 다른 위치 정보들이 크게 달라지므로 위치 검출 오차가 크게 발생하고, 불확실성도 이에 따라 조정된다.As another example, when the robot cleaner travels in a place other than the floor of the plane, such as a threshold climb, the first position information and other position information greatly vary, so that the position detection error is largely generated and the uncertainty is also adjusted accordingly.

또한, 상기 로봇 청소기는 충전 가능한 배터리 형식의 전원 공급 수단을 구비한 전원유닛(610)과, 다수의 바퀴를 구비하여 로봇 청소기를 이동시키는 주행유닛(620)과, 이동 중 주변과 바닥면의 먼지 및 이물질을 흡입하는 청소유닛(630)과, 하나 이상의 버튼을 구비하여 데이터 입력이 가능한 입력유닛(640)과, 현재 동작 상태 및 설정 모드에 대한 정보 등을 표시하는 출력유닛(650)과, 상기 환경 지도와 주행 경로 등을 저장하는 저장유닛(660)을 더 포함한다.In addition, the robot cleaner includes a power unit 610 having a battery type power supply unit that can be charged, a traveling unit 620 having a plurality of wheels to move the robot cleaner, An input unit 640 for inputting data by having one or more buttons, an output unit 650 for displaying information on the current operation state and the setting mode, And a storage unit 660 for storing an environment map, a driving route, and the like.

상기 전원유닛(610)은 로봇 청소기가 이동하고, 청소를 수행하는데 따른 동작 전원을 공급하며, 상기 배터리 잔량이 부족하면 충전대로부터 충전 전류를 공급받아 충전한다. 상기 주행유닛(620)은 복수의 주바퀴와 하나 이상의 보조바퀴를 포 함하는 상기 다수의 바퀴를 회전시키는 소정의 휠모터(Wheel Motor)를 구비하고, 상기 제어유닛(500)은 상기 휠모터를 구동하여 로봇 청소기가 이동하도록 한다. 상기 청소유닛(630)은 공기를 빨이들이기 위한 소정의 흡입 모터와, 먼지를 응집하는 수단을 구비하고, 주행 중 발생되는 주변의 먼지 또는 이물질을 흡입한다. 또한, 상기 로봇 청소기는 다수의 센서를 구비하여 주변의 장애물을 감지하는 장애물감지유닛(미도시)을 더 포함할 수 있다. 상기 장애물감지유닛으로는 적외선 센서(Infra-RED Sensor), 초음파 센서(Supersonic Wave Sensor), RF 센서(Radio Frequency Sensor)나 범퍼(Bumper) 등을 사용할 수 있다.The power supply unit 610 supplies the operating power for moving the robot cleaner and performing cleaning, and when the remaining battery level is insufficient, the charging current is supplied from the charging stand to charge the battery. The driving unit 620 includes a predetermined wheel motor for rotating the plurality of wheels including a plurality of main wheels and one or more auxiliary wheels, So that the robot cleaner is moved. The cleaning unit 630 includes a suction motor for washing the air and a means for agglomerating the dust, and sucks dust or foreign matter from the surroundings generated during traveling. In addition, the robot cleaner may further include an obstacle detection unit (not shown) for detecting obstacles in the vicinity of the robot cleaner. As the obstacle detecting unit, an infrared sensor (Infra-RED sensor), an ultrasonic sensor (Supersonic Wave Sensor), a RF sensor (Radio Frequency Sensor), a bumper or the like can be used.

도 3을 참조하면, 본 발명의 일 예에 따른 로봇 청소기의 위치 검출 방법은, 상방 영상 정보를 근거로 위치를 검출하여 제1 위치 정보를 출력하는 제1 검출단계(S100)와, 하방 영상 정보를 근거로 위치를 검출하여 제2 위치 정보를 출력하는 제2 검출단계(S200)와, 바퀴를 구동하는 휠모터의 회전을 근거로 위치를 검출하여 제3 위치 정보를 출력하는 제3 검출단계(S300)와, 상기 위치 정보들 중 둘 이상의 위치 정보들을 비교하고, 상기 비교결과에 따라 로봇 청소기의 현재 위치를 결정하는 위치결정단계(S500)를 포함하여 구성된다. 또한, 상기 위치 정보들 중 둘 이상의 위치 정보들을 근거로 로봇 청소기의 주행 상태를 판단하는 상태판단단계(S600)를 더 포함한다. 아울러, 상기 위치 정보들을 근거로 환경지도를 생성하는 환경지도생성단계(S700)를 더 포함하여 구성된다. 이하, 장치의 구성은 도 1 및 도 2의 구성을 참조한다.Referring to FIG. 3, the method for detecting a position of a robot cleaner according to an exemplary embodiment of the present invention includes a first detecting step (S100) of detecting a position based on upper image information and outputting first position information, A second detecting step S200 of detecting a position based on the detected position of the wheel motor and outputting second position information, a third detecting step of detecting the position based on the rotation of the wheel motor driving the wheel and outputting the third position information (S500) for comparing two or more pieces of position information among the position information and determining a current position of the robot cleaner according to the comparison result. The method further includes a state determination step (S600) of determining a traveling state of the robot cleaner based on two or more position information among the position information. The method further includes an environment map generation step (S700) of generating an environment map based on the location information. Hereinafter, the configuration of the apparatus will be described with reference to Figs. 1 and 2. Fig.

상기 제1 검출단계(S100)는, 상방을 촬영하여 상방 영상 정보를 생성하는 상 방촬영과정(S110)과, 상기 상방 영상 정보로부터 특징점을 추출하는 특징점추출과정(S120)과, 상기 특징점을 근거로 제1 위치 정보를 생성하는 제1 위치정보생성과정(S130)을 포함하여 구성된다.The first detection step S100 includes an image capturing step S110 for capturing an image of an upper side and generating upper image information, a minutiae point extracting step S120 for extracting minutiae from the upper image information, And a first position information generating step (S130) for generating first position information by the first position information generating step.

상기 상방촬영과정(S100)은 카메라를 이용하여 상방을 촬영하고, 촬영된 상방 영상으로부터 상방 영상 정보를 생성한다. 여기서, 상기 상방촬영과정(S100)은 소정의 위치에서도 상방의 모든 영역, 예를 들어 천장의 모든 영역이 촬영될 수 있도록 화각이 넓은 렌즈를 사용한다. 예를 들어 화각이 160도 이상인 렌즈를 포함한다.The upper photographing process S100 photographs the upper side using the camera and generates the upper side image information from the captured upper side image. Here, the upward photographing process (S100) uses a lens having a wide angle of view such that all the areas above the predetermined position, for example, the entire area of the ceiling, can be photographed. For example, a lens having an angle of view of 160 degrees or more.

상기 특징점추출과정(S120)은 임의의 표식으로부터 특징점을 추출할 수 있는데, 특히 천장면을 포함하는 상방 영역에 존재하는 형광등, 인테리어 구조물 등의 자연 표식을 이용하여 특징점을 추출한다.The minutiae point extracting step S120 extracts minutiae from an arbitrary landmark. In particular, minutiae points are extracted using natural markers such as fluorescent lights and interior structures existing in an upper region including a ceiling scene.

도 7을 참조하여 본 발명에 따른 상기 특징점추출과정(S120)을 예를 들어 설명한다. 상방을 일 회 촬영한 후 특징점을 추출할 수 있으나, 설명의 편의를 위해 이동 중 2회 촬영하여 특징점을 추출하는 동작을 설명한다. 도 7에 도시한 바와 같이, 제1 마크(C1)와 제2 마크(N1)를 비교할 때, 로봇 청소기가 이동하면서 상기 카메라(110)를 통해 제1 시간(k)과 제2 시간(k+1)에 천장면을 포함한 상방을 각각 촬영한다. 이때, 제1 시간(k)과 제2 시간(k+1)에 촬영되는 상방 영상 정보에서의 제1 마크(C1)과 제2 마크(N1)는 제1 특징점(M1)과 제2 특징점(M2)으로 나타나게 된다. 이때, 제1 마크(C1)와 제2 마크(N1)는 제1 특징점(M1(k)), 제2 특징점(M2(k))으로 나타난다. 한편, 제2 시간(k+1)에서의 제1 마크(C1)와 제2 마크(N1)는 제1 특징 점(M1(k+1)), 제2 특징점(M2(k+1))으로 나타난다.The minutiae point extraction process (S120) according to the present invention will be described with reference to FIG. The minutiae can be extracted after the image is photographed once. However, for convenience of explanation, the operation of picking up the minutiae by photographing twice during the movement will be described. 7, when the first mark C1 and the second mark N1 are compared with each other, the robot cleaner moves while the first time k and the second time k + 1) and the upper part including the ceiling scene, respectively. At this time, the first mark C1 and the second mark N1 in the upper image information photographed at the first time (k) and the second time (k + 1) are the first feature point M1 and the second feature point M2). At this time, the first mark C1 and the second mark N1 appear as a first feature point M1 (k) and a second feature point M2 (k). On the other hand, the first mark C1 and the second mark N1 at the second time (k + 1) are the first feature point M1 (k + 1) and the second feature point M2 (k + .

상기 제1 마크(C1)과 제2 마크(N1)에 대한 상방 영상 정보의 특징점인 제1 특징점(M1(k)), 제2 특징점(M2(k))과, 제1 특징점(M1(k+1)), 제2 특징점(M2(k+1))을 각각 매칭하고, 비교하여 특징점 간의 이동거리를 산출한다. 즉 도 7의 (c)에 도시한 바와 같이, 제1 시간(k) 및 제2 시간(k+1)에 촬영된 영상 정보의 특징점을 상호 비교하여 제1 특징점의 이동거리(PL1), 제2 특징점의 이동거리(PL2)를 연산한다. 이때, 로봇 청소기의 이동에 따른 제1 마크(C1) 및 제2 마크(N1)와 로봇 청소기 간의 이동거리(L1)는 일정하고 로봇 청소기의 실제 이동거리와 동일하다. 그러나, 촬영된 영상 정보의 특징점의 이동거리인 PL1과 PL2는 서로 상이하다. 마크의 거리가 멀수록 마크에 대한 특징점의 이동거리는 작은데 반하여 마크가 로봇 청소기에 가까이 있을 수록, 즉 천장면보다 낮은 벽면에 위치할 수록 특징점의 이동거리 차가 커지게 된다. 그에 따라, 제2 마크(N1)와 같이 로봇 청소기의 이동에 따른 특징점의 이동비율이 소정비율 이상인 경우, 불필요한 특징점인 것으로 판단하여 제거한다.The first feature point M1 (k), the second feature point M2 (k), and the first feature point M1 (k (k)), which are feature points of the upper image information for the first mark C1 and the second mark N1, +1)) and the second feature point M2 (k + 1), respectively, and compares them to calculate the movement distance between the feature points. That is, as shown in FIG. 7C, the movement distance PL1 of the first feature point is compared with the feature point of the image information photographed at the first time k and the second time k + 1, And calculates the movement distance PL2 of two minutiae. At this time, the moving distance L1 between the first mark C1 and the second mark N1 and the robot cleaner according to the movement of the robot cleaner is constant and equal to the actual moving distance of the robot cleaner. However, the movement distances PL1 and PL2 of the feature points of the photographed image information are different from each other. As the distance of the mark increases, the travel distance of the minutiae to the mark is smaller, whereas the closer the mark is to the robot cleaner, that is, the lower the wall surface than the ceiling, the greater the difference in travel distance. Accordingly, when the moving ratio of the minutiae corresponding to the movement of the robot cleaner is equal to or larger than a predetermined ratio as in the second mark N1, it is judged to be an unnecessary minutia and removed.

또한, 제1 마크(C1)와 제2 마크(N1) 중 제1 마크(C1)는 천장면에 위치한 것이므로 로봇 청소기로부터 천장면까지의 거리를 이용하여 제2 마크(N1)의 높이를 연산하고, 연산된 높이가 기준 높이 이하인 경우에는 불필요한 특징점으로 판단하여 제거한다. 제1 특징점(M1)과 제2 특징점(M2)을 비교하면, 각각의 이동거리에 대하여 제1 특징점(M1)의 이동거리 PL1과 제2 특징점(M2)의 이동거리 PL2는 제1 마크, 제2 마크, 및 로봇 청소기의 실제 이동거리와 높이의 비에 비례한다. 이때, 실 제 이동거리는 동일하고, 제1 특징점(M1)에 대한 높이는 천장높이 이므로, 제2 특징점(M2), 즉 제2 마크(N1)에 대한 높이 산출이 가능해진다. 여기서, 촬영된 상방 영상 정보의 중심부분에 위치하는 특징점은 천장면에 위치하는 것으로 판단하고, 중심부분에 위치한 특징점을 기준으로 특징점의 높이를 산출한다.Since the first mark C1 among the first mark C1 and the second mark N1 is located in the ceiling scene, the height of the second mark N1 is calculated using the distance from the robot cleaner to the ceiling scene , And when the calculated height is equal to or lower than the reference height, it is determined as an unnecessary feature point and removed. When the first feature point M1 and the second feature point M2 are compared, the movement distance PL1 of the first feature point M1 and the movement distance PL2 of the second feature point M2 with respect to the respective movement distances, 2 mark, and the ratio of the actual moving distance and height of the robot cleaner. At this time, since the actual moving distance is the same and the height of the first characteristic point M1 is the ceiling height, the height of the second characteristic point M2, i.e., the second mark N1, can be calculated. Here, it is determined that the feature points located in the central part of the captured upper image information are located in the ceiling scene, and the height of the feature points is calculated based on the feature points located in the center part.

상기 제2 검출단계(S200)는, 하방을 촬영하여 하방 영상 정보를 생성하는 하방촬영과정(S210)과, 상기 하방 영상 정보로부터 제2 위치 정보를 생성하는 제2 위치정보생성과정(S230)을 포함하여 구성된다. 또한, 상기 제2 검출단계(S200)는, 상기 하방 영상 정보의 상태를 판단하는 하방정보판단과정(S220)과, 상기 판단 결과를 근거로 상기 하방에 조사되는 광량을 조절하는 광량조절과정을 더 포함한다.The second detection step S200 includes a down-shooting process S210 for photographing downward and downward image information, and a second positional information generating process S230 for generating second positional information from the downward image information . The second detection step S200 may include a downward information determination step S220 for determining the state of the downward image information and a light amount adjustment process for adjusting the amount of light irradiated downward based on the determination result .

상기 제2 검출단계(S200)는 로봇 청소기의 배면에 구비된 영상센서(210)을 이용하여 로봇 청소기의 이동 중에 하방, 즉 바닥을 촬영한다. 촬영된 하방 영상으로부터 소정 형식의 하방 영상 정보를 생성한다(S210). 또한, 상기 제2 검출단계(S200)는 필요에 따라 상기 광량조절부(220)를 이용하여 하나 이상의 광원을 조절하여 상기 영상센서(210)에 의해 촬영되는 바닥면의 영역에 빛을 조사한다(S220). 즉, 로봇 청소기가 평탄한 바닥을 이동하는 경우에는 상기 영상센서(210)가 바닥면까지 일정한 거리가 유지되는 반면, 불균일한 표면의 바닥면을 이동하는 경우에는 바닥물의 요철 및 장애물에 의해 일정 거리 이상 멀어지게 된다. 이때 상기 하방촬영과정(S210)에서 생성된 하방 영상 정보가 정상인가, 또는 기준 영상 정보 이상인가를 비교 판단하고(S220), 판단 결과 이상이 있으면 하나 이상의 광원을 동작시켜 상기 조사되는 빛의 양을 조절한다. 반면, 상기 제2 검출단 계(S200)는 상기 하방 영상 정보를 이용하여 미끄러짐에 강인한 위치를 검출할 수 있다(S230).In the second detection step S200, the image sensor 210 provided on the back surface of the robot cleaner is used to photograph the bottom, that is, the floor during the movement of the robot cleaner. And downward image information of a predetermined format is generated from the photographed downward image (S210). The second detecting step S200 adjusts one or more light sources using the light amount adjusting unit 220 as necessary to irradiate light on a bottom surface area photographed by the image sensor 210 S220). In other words, when the robot cleaner moves on a flat floor, the image sensor 210 maintains a certain distance to the bottom surface. On the other hand, when the robot cleaner moves on the bottom surface of an uneven surface, It will move away. At this time, it is determined whether the downward image information generated in the downward image capturing process (S210) is normal or more than the reference image information (S220). If it is determined that there is an error, at least one light source is operated, . On the other hand, the second detection step S200 can detect a position that is robust against slip using the downward image information (S230).

상기 제3 검출단계(S300)는 로봇 청소기의 주행유닛(620)에 구비된 휠모터의 회전을 감지하여 회전속도 또는 직진속도를 검출하고(S310), 상기 회전속도 또는 직진속도를 이중 적분 등의 소정 연산을 이용하여 제3 위치 정보를 생성한다(S320). 상기 제3 검출단계(S300)는 일반적으로 인코더(Encoder)를 사용한다.The third detection step S300 detects the rotation speed of the wheel motor provided in the driving unit 620 of the robot cleaner to detect the rotation speed or the linear velocity (S310). The rotation speed or the linear velocity is detected as a double integral The third location information is generated using a predetermined operation (S320). The third detection step S300 generally uses an encoder.

또한, 본 발명의 다른 예에 따른 로봇 청소기의 위치 결정 방법은, 로봇 청소기의 방향 정보를 근거로 위치를 검출하여 제4 위치 정보를 출력하는 제4 검출단계(S400)를 더 포함하여 구성된다. 다른 구성에 대한 설명은 상기 일 예에 따른 위치 검출 방법의 구성에 대한 설명에 갈음하고, 이하 생략한다.According to another aspect of the present invention, there is provided a method of positioning a robot cleaner, the method further comprising a fourth detecting step (S400) of detecting a position based on direction information of the robot cleaner and outputting fourth position information. The description of other configurations is omitted from the description of the configuration of the position detection method according to the above example, and the following description is omitted.

즉, 상기 제4 검출단계(S400)는 로봇 청소기의 이동 중에 방향의 변화를 감지하여 회전속도, 즉 각속도를 검출하고(S410), 상기 각속도로부터 이중 적분 등의 소정 연산을 통하여 제4 위치 정보를 생성한다(S420). 상기 제4 검출단계(S400)는 일반적으로 자이로스코프(Gyroscope, 각속도 센서)를 사용한다.That is, the fourth detection step (S400) detects the rotation speed, that is, the angular velocity (S410) by detecting a change in the direction of movement of the robot cleaner, and obtains fourth position information from the angular velocity through a predetermined operation such as double integration (S420). The fourth detection step (S400) generally uses a gyroscope (angular velocity sensor).

상기 제1 내지 제3 위치 정보, 또는 상기 제1 내지 제4 위치 정보들을 조합하거나, 또는 선택적으로 적용하여 로봇 청소기의 위치를 정밀하게 검출할 수 있다. 예를 들어, 로봇 청소기는 상기 제1 위치 정보를 근거로 영상처리를 통해 특징점을 획득하고 환경지도를 그릴 수 있으며, 상기 환경지도를 근거로 로봇 청소기의 위치를 검출할 수 있으나, 로봇 청소기의 이동에 따라 미끄러짐, 충돌 등에 의해 환경 지도가 부정확해지면서 위치 검출 오차가 발생한다. 이러한 위치 검출 오차는 상기 제3 위치 정보를 이용하거나, 상기 제4 위치 정보를 이용하거나, 상기 제3 내지 제4 위치 정보를 함께 이용하여 더욱 용이하게 속도로부터 로봇 청소기의 위치를 검출하고, 바닥의 재질 등에 의해 발생하는 미끄러짐에 강인한 상기 제2 위치 정보를 이용하여 보정한다. 한편, 상기 제3 검출유닛(300)인 인코더나, 상기 제4 검출유닛(400)으로 사용된 자이로스코프 등의 상대 위치를 검출하는 검출 유닛만으로는 카펫과 같이 바퀴의 미끄리짐이 큰 바닥과 같은 조건에서 오차가 크게 발생하나, 상기 제2 검출유닛(200)인 옵티컬 플로우 센서는 미끄러짐과 무관하게 위치 정보를 생성할 수 있다.The first to third positional information, or the first to fourth positional information may be combined or selectively applied to precisely detect the position of the robot cleaner. For example, the robot cleaner can acquire feature points through image processing based on the first position information, draw an environmental map, and can detect the position of the robot cleaner based on the environmental map. However, The position error is generated due to inaccuracy of the environmental map due to slippage or collision. The position detection error may be detected by detecting the position of the robot cleaner from the velocity more easily by using the third positional information, using the fourth positional information, or using the third and fourth positional information together, By using the second position information which is resistant to slippage caused by a material or the like. On the other hand, only the detecting unit for detecting the relative position of the encoder as the third detecting unit 300 or the relative position of the gyroscope used as the fourth detecting unit 400 can be set to a condition such as a floor having a large slip of the wheel The optical flow sensor, which is the second detection unit 200, can generate the position information irrespective of the slip.

상기 상태판단단계(S600)은 상기 제1 내지 제3 검출유닛, 또는 상기 제1 내지 제4 검출유닛으로부터 생성된 위치 정보들을 비교하여 현재 로봇 청소기의 주행 조건을 판단하고, 이 판단에 따라 적절한 센서 조합을 선택하거나 각 센서 정보 별 불확실성을 조정하여 센서 융합을 수행한다. 또한, 본 발명에 따른 위치 검출 방법은, 상기 위치 정보들 중 둘 이상의 위치 정보들을 상호 비교하는 정보비교단계(미도시)와, 상기 비교 결과를 근거로 환경 지도를 생성하는 지도생성단계(S700)를 더 포함하여 상기 위치 정보들을 근거로 환경 지도를 작성한다.The state determination step S600 compares the position information generated from the first to third detection units or the first to fourth detection units to determine the running condition of the current robot cleaner, Sensor fusion is performed by selecting a combination or by adjusting the uncertainty of each sensor information. In addition, the position detecting method according to the present invention may further include an information comparing step (not shown) for comparing two or more pieces of position information among the position information, a map generating step (S700) for generating an environment map based on the comparison result, And creates an environment map based on the location information.

예를 들어, 본 발명에 따른 위치 검출 방법은, 상기 인코더로부터 계산된 주행 거리가 상기 옵티컬 플로우 센서로부터 계산된 주행거리보다 현저히 작다면, 로봇 청소기가 카펫과 같이 비끄러운 바닥을 지나고 있다고 판단하여, 상기 인코더를 제외하고, 상기 자이로스코프와 옵티컬 플로우 센서의 위치 정보들만으로 위치를 결정하거나 인코더 정보의 불확실성을 높여서 센서 융합을 수행한다.For example, in the position detecting method according to the present invention, if the travel distance calculated from the encoder is significantly smaller than the travel distance calculated from the optical flow sensor, it is determined that the robot cleaner is passing through a slippery floor like a carpet, Except for the encoder, the sensor fusion is performed by determining the position based only on the position information of the gyroscope and the optical flow sensor or increasing the uncertainty of the encoder information.

한편, 상기 제1 위치 정보인 영상정보는 다른 위치 정보들보다 갱신 주기가 길기 때문에 센서 융합되는 빈도가 적고, 영상정보의 밝기 정도, 매칭되는 특징점의 숫자 등에 따라 불확실성이 조정될 수 있다. 또한, 상기 제1 위치 정보를 획득하기 어려운 어두운 환경에서도 상기 제2 내지 제3 위치 정보, 또는 상기 제2 내지 제4 위치 정보들을 이용하면 위치 인식 오차를 줄일 수 있다.On the other hand, since the first location information has a longer update period than other location information, the frequency of the sensor fusion is small, and the uncertainty can be adjusted according to the brightness of the image information, the number of matching feature points, In addition, if the second to third position information or the second to fourth position information are used in a dark environment where it is difficult to obtain the first position information, the position recognition error can be reduced.

다른 예로, 문턱 등반 등 로봇 청소기가 평면 바닥이 아닌 곳을 주행할 때는 제1 위치 정보와 다른 위치 정보들이 크게 달라지므로 위치 검출 오차가 크게 발생하고, 불확실성도 이에 따라 조정된다.As another example, when the robot cleaner travels in a place other than the floor of the plane, such as a threshold climb, the first position information and other position information greatly vary, so that the position detection error is largely generated and the uncertainty is also adjusted accordingly.

상기와 같이, 본 발명에 따른 로봇 청소기 및 그의 위치 검출 방법은, 위치 및 자세 변화를 감지하는 다양한 센서들을 구비하고, 상기 센서 정보에 따라 로봇 청소기의 주행 조건을 판단하며, 판단된 주행 조건에 따라 적합한 센서 조합을 선택하거나 불확실성을 고려한 센서 융합을 수행함으로써 미끄러짐, 충돌 등에 강인하게 로봇 청소기의 위치를 검출할 수 있고, 이에 따라 더욱 정밀한 환경지도를 생성할 수 있다.As described above, the robot cleaner and the position detecting method according to the present invention include various sensors for detecting a change in position and attitude, determine the running condition of the robot cleaner according to the sensor information, It is possible to detect the position of the robot cleaner robustly by slipping, collision or the like by selecting a suitable sensor combination or by performing sensor fusion considering uncertainty, thereby generating a more precise environment map.

도 1은 본 발명에 따른 로봇 청소기의 구성을 개략적으로 보인 블록도;1 is a block diagram schematically illustrating the configuration of a robot cleaner according to the present invention;

도 2는 도 1의 제1 검출유닛의 세부 구성을 개략적으로 보인 블록도;Fig. 2 is a block diagram schematically showing a detailed configuration of the first detection unit of Fig. 1; Fig.

도 3은 도 1의 제2 검출유닛의 세부 구성을 개략적으로 보인 블록도;FIG. 3 is a block diagram schematically showing a detailed configuration of the second detection unit of FIG. 1; FIG.

도 4는 본 발명에 따른 로봇 청소기의 위치 검출 방법을 개략적으로 보인 흐름도;4 is a flowchart schematically illustrating a method for detecting a position of a robot cleaner according to the present invention;

도 5는 도 4의 일 예를 보인 흐름도;FIG. 5 is a flowchart illustrating an example of FIG. 4; FIG.

도 6은 본 발명에 따른 로봇 청소기의 외관을 보인 사시도;FIG. 6 is a perspective view showing the appearance of a robot cleaner according to the present invention; FIG.

도 7은 본 발명에 따른 제2 위치 정보를 검출하는 동작을 설명하기 위한 도이다.7 is a view for explaining an operation of detecting second position information according to the present invention.

Claims (12)

상방 영상 정보를 근거로 위치를 검출하여 제1 위치 정보를 출력하는 제1 검출유닛;A first detection unit for detecting a position based on the upward image information and outputting first position information; 하방 영상 정보를 근거로 위치를 검출하여 제2 위치 정보를 출력하는 제2 검출유닛;A second detection unit for detecting a position based on the downward image information and outputting second position information; 바퀴를 구동하는 휠모터의 회전을 근거로 위치를 검출하여 제3 위치 정보를 출력하는 제3 검출유닛; 및A third detecting unit for detecting the position based on the rotation of the wheel motor that drives the wheel and outputting the third position information; And 상기 위치 정보들 중 둘 이상의 위치 정보들을 근거로 로봇 청소기의 현재 위치를 결정하고, 주행 상태를 판단하는 제어유닛;을 포함하며, And a control unit for determining a current position of the robot cleaner based on two or more pieces of positional information of the positional information and determining a running state of the robot cleaner, 상기 제1 검출유닛은,The first detection unit includes: 상방을 촬영하여 상방 영상 정보를 출력하는 카메라와,A camera for photographing an upper part and outputting upward video information, 상기 상방 영상 정보로부터 복수의 특징점을 추출하고, 상기 추출한 복수의 특징점에 근거하여, 상기 제1 위치 정보를 생성하는 영상처리유닛;을 포함하고,And an image processing unit that extracts a plurality of feature points from the upside image information and generates the first position information based on the extracted plurality of feature points, 상기 제2 검출유닛은,The second detection unit includes: 하방을 촬영하여 하방 영상 정보를 출력하는 영상센서와,An image sensor for photographing the downward direction and outputting downward image information, 상기 영상센서로부터 바닥면까지의 거리를 측정하는 거리측정유닛,A distance measuring unit for measuring a distance from the image sensor to the floor, 상기 측정된 거리에 근거하여 하방에 조사되는 광량을 조절하는 광량조절유닛을 포함하는 로봇 청소기.And a light amount adjusting unit for adjusting an amount of light irradiated downward based on the measured distance. 제1 항에 있어서,The method according to claim 1, 로봇 청소기의 방향 정보를 근거로 위치를 검출하여 제4 위치 정보를 출력하는 제4 검출유닛;을 더 포함하는 로봇 청소기.And a fourth detection unit for detecting the position based on the direction information of the robot cleaner and outputting the fourth position information. 삭제delete 제1 항에 있어서,The method according to claim 1, 상기 거리측정유닛은,Wherein the distance measuring unit comprises: 적외선 및 초음파 중 적어도 하나로 형성된 신호를 송출하고,A signal formed by at least one of an infrared ray and an ultrasonic wave is transmitted, 송출된 신호가 반사되어 돌아오는 시간에 근거하여 상기 영상센서로부터 바닥면까지의 거리를 측정하는 것을 특징으로 하는 로봇 청소기.And measures the distance from the image sensor to the bottom surface based on a time when the transmitted signal is reflected and returned. 제1 항 또는 제2 항에 있어서, 상기 제어유닛은,3. The apparatus according to claim 1 or 2, 상기 위치 정보들 중 둘 이상의 위치 정보들을 비교하는 비교유닛; 및A comparison unit for comparing two or more pieces of position information among the pieces of position information; And 상기 비교 결과를 근거로 환경 지도를 생성하는 지도생성유닛;을 포함하는 로봇 청소기.And a map generation unit for generating an environment map based on the comparison result. 상방 영상 정보를 근거로 위치를 검출하여 제1 위치 정보를 출력하는 제1 검출단계;A first detecting step of detecting a position based on the upper image information and outputting first position information; 하방 영상 정보를 근거로 위치를 검출하여 제2 위치 정보를 출력하는 제2 검출단계;A second detecting step of detecting a position based on the downward image information and outputting second position information; 바퀴를 구동하는 휠모터의 회전을 근거로 위치를 검출하여 제3 위치 정보를 출력하는 제3 검출단계; 및A third detecting step of detecting the position based on the rotation of the wheel motor driving the wheel and outputting the third position information; And 상기 위치 정보들 중 둘 이상의 위치 정보들을 비교하고, 상기 비교결과에 따라 로봇 청소기의 현재 위치를 결정하는 위치결정단계;를 포함하며, And a positioning step of comparing two or more positional information among the positional information and determining a current position of the robot cleaner in accordance with the comparison result, 상기 제1 검출단계는,Wherein the first detecting step comprises: 상방을 촬영하여 상방 영상 정보를 생성하는 상방촬영과정,An upper photographing process of photographing the upper part and generating the upper image information, 상기 상방 영상 정보로부터 복수의 특징점을 추출하는 특징점추출과정 및A feature point extracting step of extracting a plurality of feature points from the upside image information, 상기 추출한 복수의 특징점에 근거하여, 상기 제1 위치 정보를 생성하는 제1 위치정보생성과정;을 포함하고,And a first position information generating step of generating the first position information based on the extracted plurality of feature points, 상기 제2 검출단계는,Wherein the second detecting step comprises: 하방을 촬영하여 하방 영상 정보를 출력하는 하방촬영과정,A downward photographing process of photographing a downward direction and outputting downward image information, 상기 하방 영상 정보로부터 제2 위치 정보를 생성하는 제2 위치정보생성과정,A second position information generating step of generating second position information from the downward image information, 영상센서로부터 바닥면까지의 거리를 측정하는 거리측정과정,A distance measurement process for measuring the distance from the image sensor to the floor, 상기 측정된 거리에 근거하여 상기 하방에 조사되는 광량을 조절하는 광량조절과정을 포함하는 것을 특징으로 하는 로봇 청소기의 위치 검출 방법.And adjusting an amount of light irradiated downward based on the measured distance. 제6 항에 있어서,The method according to claim 6, 로봇 청소기의 방향 정보를 근거로 위치를 검출하여 제4 위치 정보를 출력하는 제4 검출단계;를 더 포함하는 로봇 청소기의 위치 검출 방법.And a fourth detecting step of detecting the position based on the direction information of the robot cleaner and outputting the fourth position information. 제6 항 또는 제7 항에 있어서,8. The method according to claim 6 or 7, 상기 위치 정보들 중 둘 이상의 위치 정보들을 근거로 로봇 청소기의 주행 상태를 판단하는 상태판단단계;를 더 포함하는 로봇 청소기의 위치 검출 방법.And determining a traveling state of the robot cleaner based on at least two of the position information. 삭제delete 제6 항에 있어서,The method according to claim 6, 상기 거리측정과정은,The distance measuring process includes: 적외선 및 초음파 중 적어도 하나로 형성된 신호를 송출하는 과정 및A process of transmitting a signal formed of at least one of infrared rays and ultrasonic waves; 송출된 신호가 반사되어 돌아오는 시간에 근거하여 상기 영상센서로부터 바닥면까지의 거리를 측정하는 과정을 포함하는 로봇 청소기의 위치 검출 방법.And measuring a distance from the image sensor to a bottom surface based on a time when the transmitted signal is reflected and returned. 제10 항에 있어서, 상기 제2 검출단계는,11. The method according to claim 10, 상기 하방 영상 정보의 상태를 판단하는 하방정보판단과정 및A downward information determination process for determining a status of the downward video information, 상기 판단 결과를 근거로 상기 하방에 조사되는 광량을 조절하는 광량조절과정;을 더 포함하는 로봇 청소기의 위치 검출 방법.And adjusting a light amount irradiated downward on the basis of the determination result. 제8 항에 있어서,9. The method of claim 8, 상기 위치 정보들 중 둘 이상의 위치 정보들을 상호 비교하는 정보비교단계; 및An information comparing step of comparing two or more pieces of position information among the pieces of position information; And 상기 비교 결과를 근거로 환경 지도를 생성하는 지도생성단계;를 더 포함하는 로봇 청소기의 위치 검출 방법.And generating an environment map based on the comparison result.
KR1020090017748A 2009-03-02 2009-03-02 Robot cleaner and method for detecting position thereof KR101542498B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090017748A KR101542498B1 (en) 2009-03-02 2009-03-02 Robot cleaner and method for detecting position thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090017748A KR101542498B1 (en) 2009-03-02 2009-03-02 Robot cleaner and method for detecting position thereof

Publications (2)

Publication Number Publication Date
KR20100098997A KR20100098997A (en) 2010-09-10
KR101542498B1 true KR101542498B1 (en) 2015-08-06

Family

ID=43005590

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090017748A KR101542498B1 (en) 2009-03-02 2009-03-02 Robot cleaner and method for detecting position thereof

Country Status (1)

Country Link
KR (1) KR101542498B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019221524A1 (en) * 2018-05-16 2019-11-21 엘지전자 주식회사 Vacuum cleaner and control method thereof

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101181228B1 (en) 2010-10-11 2012-09-10 포항공과대학교 산학협력단 Organic solar cell and method for preparing the same
KR101052044B1 (en) * 2011-03-22 2011-07-26 삼성탈레스 주식회사 Motor controlling apparatus including resolver sensor and gyro sensor
KR101306690B1 (en) * 2011-12-08 2013-09-10 전자부품연구원 Gondola robot and Method for controlling thereof
KR101305954B1 (en) * 2011-12-08 2013-09-12 전자부품연구원 Apparatus and method for grasping position and establishing map of gondola robot through image matching
KR101476206B1 (en) 2012-05-24 2014-12-24 엘지전자 주식회사 A robot cleaner
KR101439921B1 (en) * 2012-06-25 2014-09-17 서울대학교산학협력단 Slam system for mobile robot based on vision sensor data and motion sensor data fusion
KR102056664B1 (en) 2012-10-04 2019-12-17 한국전자통신연구원 Method for work using the sensor and system for performing thereof
GB2529846B (en) 2014-09-03 2019-02-20 Dyson Technology Ltd Illumination Control of a Vision System for a Mobile Robot
GB2529847B (en) 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile Robot with Independently Adjustable Light Sources
KR102620361B1 (en) * 2016-08-30 2024-01-04 삼성전자주식회사 Robot cleaner
KR102035018B1 (en) * 2016-12-06 2019-10-22 주식회사 유진로봇 Apparatus for controlling cleaning function and robotic cleaner with the apparatus
KR102135559B1 (en) * 2018-05-16 2020-07-20 주식회사 유진로봇 Compact 3D Scanning Lidar Sensor
US11579298B2 (en) 2017-09-20 2023-02-14 Yujin Robot Co., Ltd. Hybrid sensor and compact Lidar sensor
US11874399B2 (en) 2018-05-16 2024-01-16 Yujin Robot Co., Ltd. 3D scanning LIDAR sensor
KR102206388B1 (en) * 2019-01-31 2021-01-22 엘지전자 주식회사 Lawn mover robot and controlling method for the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019221524A1 (en) * 2018-05-16 2019-11-21 엘지전자 주식회사 Vacuum cleaner and control method thereof
CN112153928A (en) * 2018-05-16 2020-12-29 Lg电子株式会社 Sweeper and control method thereof
CN112153928B (en) * 2018-05-16 2022-04-01 Lg电子株式会社 Sweeper and control method thereof
US11998159B2 (en) 2018-05-16 2024-06-04 Lg Electronics Inc. Vacuum cleaner and control method thereof

Also Published As

Publication number Publication date
KR20100098997A (en) 2010-09-10

Similar Documents

Publication Publication Date Title
KR101542498B1 (en) Robot cleaner and method for detecting position thereof
KR101822942B1 (en) Robot cleaner and controlling method of the same
KR101553950B1 (en) Robot cleaner and method for detecting position thereof
KR102275300B1 (en) Moving robot and control method thereof
KR101366860B1 (en) Mobile robot and controlling method of the same
AU2005201155B2 (en) Method compensating gyro sensor for robot cleaner
EP3415281B1 (en) Robot cleaner and method for controlling the same
KR101772084B1 (en) Moving robot and controlling method thereof
KR101677634B1 (en) Robot cleaner and controlling method of the same
US7227327B2 (en) System and method for automatically returning self-moving robot to charger
KR20160146379A (en) Moving robot and controlling method thereof
EP3409177A1 (en) Moving robot and controlling method thereof
CN112153928B (en) Sweeper and control method thereof
JP2018500624A (en) System and method for use of an optical mileage sensor in a mobile robot
US20190220033A1 (en) Moving robot and controlling method for the moving robot
KR20130141979A (en) Autonomous mobile robot
KR20120006407A (en) Robot cleaner and controlling method of the same
KR101897775B1 (en) Moving robot and controlling method thereof
KR101938668B1 (en) Cleaner and controlling method thereof
KR101513639B1 (en) Mobile robot robot cleaner and method for detecting angles of the mobile robot
KR101303161B1 (en) Mobile robot and controlling method of the same
KR20170108656A (en) Moving robot and controlling method thereof
KR20200105916A (en) Robot vacuum cleaner and its control method
KR100825919B1 (en) Distance measurement sensor, moving robot having the distance measurement sensor and driving method for moving robot using the moving robot
KR20130000278A (en) Robot cleaner and controlling method of the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
LAPS Lapse due to unpaid annual fee