KR101542498B1 - Robot cleaner and method for detecting position thereof - Google Patents
Robot cleaner and method for detecting position thereof Download PDFInfo
- Publication number
- KR101542498B1 KR101542498B1 KR1020090017748A KR20090017748A KR101542498B1 KR 101542498 B1 KR101542498 B1 KR 101542498B1 KR 1020090017748 A KR1020090017748 A KR 1020090017748A KR 20090017748 A KR20090017748 A KR 20090017748A KR 101542498 B1 KR101542498 B1 KR 101542498B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- detecting
- robot cleaner
- position information
- downward
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/02—Nozzles
- A47L9/04—Nozzles with driven brushes or agitators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
로봇 청소기 및 그의 위치 검출 방법이 개시된다. 본 발명은 위치 및 자세 변화를 감지하는 다양한 센서들을 구비하고, 상기 센서 정보에 따라 로봇 청소기의 주행 조건을 판단하며, 판단된 주행 조건에 따라 적합한 센서 조합을 선택하거나 불확실성을 고려한 센서 융합을 수행함으로써 미끄러짐, 충돌 등에 강인하게 로봇 청소기의 위치를 검출하고, 환경 지도를 생성한다. A robot cleaner and a method for detecting its position are disclosed. According to the present invention, various sensors for detecting a change in position and attitude are provided. The traveling condition of the robot cleaner is determined according to the sensor information, and a suitable sensor combination is selected according to the determined traveling condition or sensor fusion is performed considering uncertainty The position of the robot cleaner is detected robustly, and an environment map is generated.
로봇 청소기, 위치, 카메라, OFS Robot cleaner, position, camera, OFS
Description
본 발명은 미끄러짐이나 충돌 등에 강인하게 정밀한 위치를 검출하는 로봇 청소기 및 그의 위치 검출 방법에 관한 것이다.The present invention relates to a robot cleaner capable of detecting a precise position such as a slip or a collision, and a position detecting method therefor.
일반적으로 로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다.In general, robots have been developed for industrial use and have been part of factory automation. In recent years, medical robots, aerospace robots, and the like have been developed, and household robots that can be used in ordinary homes are being developed.
상기 가정용 로봇의 대표적인 예는 로봇 청소기로서, 일정 영역을 스스로 주행하면서 주변의 먼지 또는 이물질을 흡입하여 청소하는 가전기기의 일종이다. 이러한 로봇 청소기는 일반적으로 충전 가능한 배터리를 구비하고, 주행 중 장애물을 피할 수 있는 장애물 센서를 구비하여 스스로 주행하며 청소할 수 있다.A representative example of the domestic robot is a robot cleaner, which is a type of household appliance that sucks and cleanes dust or foreign matter around the robot while traveling in a certain area by itself. Such a robot cleaner is generally equipped with a rechargeable battery and has an obstacle sensor capable of avoiding obstacles during traveling, so that it can run and clean by itself.
상기 로봇 청소기가 스스로 주행하면서 영역을 모두 청소하기 위해서는 청소가 된 영역과 청소를 하여야 할 영역 등 청소 영역을 판단할 수 있어야 하고, 이러한 청소 영역을 파악하기 위해서는 자기 위치를 파악하는 기능을 보유하여야 한다.In order to clean the entire area while the robot cleaner is traveling on its own, it is necessary to be able to determine a cleaning area such as a cleaned area and an area to be cleaned. In order to grasp the cleaning area, .
종래 기술에 따른 로봇 청소기는 위치인식을 위하여 바퀴 회전을 감지하는 인코더(Encoder), 자이로 스코프 (Gyroscope, 각속도 센서)등 상대적인 로봇 동작의 변화를 추정할 수 있는 센서들만을 이용하거나 상기 상대 센서와 카메라를 같이 이용하여 로봇의 위치를 추정하였다.The robot cleaner according to the related art uses only sensors that can estimate a change in relative robot operation such as an encoder, a gyroscope, or the like that detects the rotation of the wheel for position recognition, The position of the robot is estimated.
그러나, 종래 기술에 따른 로봇 청소기는 미끄러짐 상황을 판단할 수 있는 센서정보가 없고 이동에 대한 상보적인 센서 정보가 부족하여 카메라를 사용하여도 위치 오차가 크게 발생하는 문제점이 있다.However, the robot cleaner according to the related art does not have sensor information for determining a slip situation, and lacks complementary sensor information for movement, resulting in a large position error even when the camera is used.
본 발명은 위치 및 자세 변화를 감지하는 다양한 센서들을 구비하여 주행 조건에 따라 적합한 센서 조합을 선택하거나 불확실성을 고려한 센서 융합을 수행함으로써 미끄러짐, 충돌 등에 강인한 로봇 청소기 및 그의 위치 검출 방법을 제공함에 그 목적이 있다.The present invention provides a robot cleaner robust against slippage or collision by selecting various sensor combinations according to driving conditions or performing sensor fusion considering uncertainty by providing various sensors for detecting changes in position and attitude, .
상기 목적을 달성하기 위한 본 발명의 일 예에 따른 로봇 청소기는, 상방 영상 정보를 근거로 위치를 검출하여 제1 위치 정보를 출력하는 제1 검출유닛과, 하방 영상 정보를 근거로 위치를 검출하여 제2 위치 정보를 출력하는 제2 검출유닛과, 바퀴를 구동하는 휠모터의 회전을 근거로 위치를 검출하여 제3 위치 정보를 출력하는 제3 검출유닛과, 상기 위치 정보들 중 둘 이상의 위치 정보들을 근거로 로봇 청소기의 현재 위치를 결정하고, 주행 상태를 판단하는 제어유닛을 포함하여 구성된다.According to an aspect of the present invention, there is provided a robot cleaner including a first detection unit for detecting a position based on upper image information and outputting first position information, a position detection unit for detecting a position based on downward image information, A third detection unit for detecting a position based on the rotation of the wheel motor for driving the wheels and outputting the third position information; And a control unit for determining the current position of the robot cleaner on the basis of the current position of the robot cleaner and determining the running state.
또한, 본 발명의 일 예에 따른 로봇 청소기의 위치 검출 방법은, 상방 영상 정보를 근거로 위치를 검출하여 제1 위치 정보를 출력하는 제1 검출단계와, 하방 영상 정보를 근거로 위치를 검출하여 제2 위치 정보를 출력하는 제2 검출단계와, 바퀴를 구동하는 휠모터의 회전을 근거로 위치를 검출하여 제3 위치 정보를 출력하는 제3 검출단계와, 상기 위치 정보들 중 둘 이상의 위치 정보들을 비교하고, 상기 비교결과에 따라 로봇 청소기의 현재 위치를 결정하는 위치결정단계를 포함하여 구 성된다.According to another aspect of the present invention, there is provided a method for detecting a position of a robot cleaner including a first detecting step of detecting a position based on upper image information and outputting first position information, A third detecting step of detecting a position based on the rotation of the wheel motor for driving the wheels and outputting the third position information; And determining a current position of the robot cleaner based on the comparison result.
본 발명에 따라 위치 및 자세 변화를 감지하는 다양한 센서들을 구비하고, 상기 센서 정보에 따라 로봇 청소기의 주행 조건을 판단하며, 판단된 주행 조건에 따라 적합한 센서 조합을 선택하거나 불확실성을 고려한 센서 융합을 수행함으로써 미끄러짐, 충돌 등에 강인하게 로봇 청소기의 위치를 검출할 수 있다.According to the present invention, various sensors for detecting a change in position and attitude are provided. In accordance with the sensor information, a driving condition of the robot cleaner is determined, a suitable sensor combination is selected according to the determined driving condition, or sensor fusion is performed considering uncertainty The position of the robot cleaner can be detected robustly by slipping, collision, or the like.
이하, 첨부한 도면을 참조하여 본 발명에 따른 로봇 청소기 및 그의 위치 검출 방법을 상세히 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a robot cleaner and a position detecting method according to the present invention will be described in detail with reference to the accompanying drawings.
도 1 및 도 6을 참조하면, 본 발명의 일 예에 따른 로봇 청소기는, 상방 영상 정보를 근거로 위치를 검출하여 제1 위치 정보를 출력하는 제1 검출유닛(100)과, 하방 영상 정보를 근거로 위치를 검출하여 제2 위치 정보를 출력하는 제2 검출유닛(200)과, 바퀴를 구동하는 휠모터의 회전을 근거로 위치를 검출하여 제3 위치 정보를 출력하는 제3 검출유닛(300)과, 상기 위치 정보들 중 둘 이상의 위치 정보들을 근거로 로봇 청소기의 현재 위치를 결정하고, 주행 상태를 판단하는 제어유닛(500)을 포함하여 구성된다.1 and 6, a robot cleaner according to an exemplary embodiment of the present invention includes a
상기 제1 검출유닛(100)은, 도 2에 도시한 바와 같이, 상방을 촬영하여 상방 영상 정보를 출력하는 카메라(110)와, 상기 상방 영상 정보로부터 특징점을 추출하고, 상기 특징점을 근거로 제1 위치 정보를 생성하는 영상처리유닛(120)을 포함하여 구성된다. 또한, 상기 제1 검출유닛(100)은 상기 카메라(110)에 연결되어 피사 체의 촛점을 맞추는 렌즈(130)와, 상기 카메라(110)를 조절하는 카메라조절유닛(140)과, 상기 렌즈(130)를 조절하는 렌즈조절유닛(150)을 더 포함할 수 있다.2, the
상기 렌즈(130)는 소정의 위치에서도 상방의 모든 영역, 예를 들어 천장의 모든 영역이 촬영될 수 있도록 화각이 넓은 렌즈를 사용한다. 예를 들어 화각이 160도 이상인 렌즈를 포함한다. 상기 영상처리유닛(120)은 임의의 표식으로부터 특징점을 추출할 수 있는데, 특히 천장면을 포함하는 상방 영역에 존재하는 형광등, 인테리어 구조물 등의 자연 표식을 이용하여 특징점을 추출한다.The
도 7을 참조하여 본 발명에 따른 특징점 추출 과정을 예를 들어 설명한다. 상방을 일 회 촬영한 후 특징점을 추출할 수 있으나, 설명의 편의를 위해 이동 중 2회 촬영하여 특징점을 추출하는 동작을 설명한다. 도 7에 도시한 바와 같이, 제1 마크(C1)와 제2 마크(N1)를 비교할 때, 로봇 청소기가 이동하면서 상기 카메라(110)를 통해 제1 시간(k)과 제2 시간(k+1)에 천장면을 포함한 상방을 각각 촬영한다. 이때, 제1 시간(k)과 제2 시간(k+1)에 촬영되는 상방 영상 정보에서의 제1 마크(C1)과 제2 마크(N1)는 제1 특징점(M1)과 제2 특징점(M2)으로 나타나게 된다. 이때, 제1 마크(C1)와 제2 마크(N1)는 제1 특징점(M1(k)), 제2 특징점(M2(k))으로 나타난다. 한편, 제2 시간(k+1)에서의 제1 마크(C1)와 제2 마크(N1)는 제1 특징점(M1(k+1)), 제2 특징점(M2(k+1))으로 나타난다.The minutiae extraction process according to the present invention will be described with reference to FIG. The minutiae can be extracted after the image is photographed once. However, for convenience of explanation, the operation of picking up the minutiae by photographing twice during the movement will be described. 7, when the first mark C1 and the second mark N1 are compared with each other, the robot cleaner moves while the first time k and the second time k + 1) and the upper part including the ceiling scene, respectively. At this time, the first mark C1 and the second mark N1 in the upper image information photographed at the first time (k) and the second time (k + 1) are the first feature point M1 and the second feature point M2). At this time, the first mark C1 and the second mark N1 appear as a first feature point M1 (k) and a second feature point M2 (k). On the other hand, the first mark C1 and the second mark N1 at the second time (k + 1) correspond to the first feature point M1 (k + 1) and the second feature point M2 (k + 1) appear.
상기 영상처리유닛(120)은 제1 마크(C1)과 제2 마크(N1)에 대한 상방 영상 정보의 특징점인 제1 특징점(M1(k)), 제2 특징점(M2(k))과, 제1 특징점(M1(k+1)), 제2 특징점(M2(k+1))을 각각 매칭하고, 비교하여 특징점 간의 이동거리를 산출한 다. 즉 도 7의 (c)에 도시한 바와 같이, 제1 시간(k) 및 제2 시간(k+1)에 촬영된 영상 정보의 특징점을 상호 비교하여 제1 특징점의 이동거리(PL1), 제2 특징점의 이동거리(PL2)를 연산한다. 이때, 로봇 청소기의 이동에 따른 제1 마크(C1) 및 제2 마크(N1)와 로봇 청소기 간의 이동거리(L1)는 일정하고 로봇 청소기의 실제 이동거리와 동일하다. 그러나, 촬영된 영상 정보의 특징점의 이동거리인 PL1과 PL2는 서로 상이하다. 마크의 거리가 멀수록 마크에 대한 특징점의 이동거리는 작은데 반하여 마크가 로봇 청소기에 가까이 있을 수록, 즉 천장면보다 낮은 벽면에 위치할 수록 특징점의 이동거리 차가 커지게 된다. 그에 따라, 상기 영상처리유닛(120)은 제2 마크(N1)와 같이 로봇 청소기의 이동에 따른 특징점의 이동비율이 소정비율 이상인 경우, 불필요한 특징점인 것으로 판단하여 제거한다.The
또한, 상기 영상처리유닛(120)은 제1 마크(C1)와 제2 마크(N1) 중 제1 마크(C1)는 천장면에 위치한 것이므로 로봇 청소기로부터 천장면까지의 거리를 이용하여 제2 마크(N1)의 높이를 연산하고, 연산된 높이가 기준 높이 이하인 경우에는 불필요한 특징점으로 판단하여 제거한다. 제1 특징점(M1)과 제2 특징점(M2)을 비교하면, 각각의 이동거리에 대하여 제1 특징점(M1)의 이동거리 PL1과 제2 특징점(M2)의 이동거리 PL2는 제1 마크, 제2 마크, 및 로봇 청소기의 실제 이동거리와 높이의 비에 비례한다. 이때, 실제 이동거리는 동일하고, 제1 특징점(M1)에 대한 높이는 천장높이 이므로, 제2 특징점(M2), 즉 제2 마크(N1)에 대한 높이 산출이 가능해진다. 여기서, 촬영된 상방 영상 정보의 중심부분에 위치하는 특징점은 천장면에 위치하는 것으로 판단하고, 중심부분에 위치한 특징점을 기준으로 특징점의 높이를 산출한다.Since the first mark C1 of the first mark C1 and the first mark C1 of the second mark N1 are located in the ceiling scene, the
상기 제어유닛(500)은 상기 영상처리유닛(120)의 특징을 구비하거나, 상기 특징점 추출 알고리즘을 구비할 수 있으며, SLAM(Simultaneous Localizaion and Mapping)을 이용하여 위치 검출 및 환경 지도 생성을 동시에 수행할 수 있다.The
상기 제2 검출유닛(200)은, 도 3에 도시한 바와 같이, 하방을 촬영하여 하방 영상 정보를 출력하는 영상센서(210)와, 상기 하방에 조사되는 광량을 조절하는 광량조절유닛(220)과, 상기 하방 영상 정보를 근거로 제2 위치 정보를 생성하는 영상제어유닛(230)을 포함하여 구성된다. 또한, 상기 제2 검출유닛(200)은 상기 영상센서(210)로부터 바닥면까지의 거리를 측정하는 거리측정유닛(240)을 더 구비하고, 상기 거리측정유닛(240)은 적외선 또는 초음파 등을 송출하여 송출신호가 반사되어 돌아오는 시간으로부터 거리를 측정한다.3, the
상기 영상센서(210)는 상기 카메라(110)와 동일한 기능의 카메라를 사용할 수 있으나, 상기 카메라(110)와 달리 하방, 즉 바닥을 촬영하여 하방 영상 정보를 획득하는 것이므로, 다른 사양의 이미지를 획득하는 센서를 사용한다. 상기 영상센서로는 빛을 이용하여 상기 하방 영상 정보를 획득하는 옵티컬 플로우 센서(Optical Flow Sensor; OFS)를 사용하는 것이 좋다.The
이하, 제2 검출유닛(200)의 동작을 설명한다. 상기 영상센서(210)는 로봇 청소기의 배면에 구비되어, 로봇 청소기의 이동 중에 하방, 즉 바닥을 촬영한다. 상기 영상센서(210)는 하방 영상을 촬영하여 소정 형식의 하방 영상 정보를 생성한다. 이때, 상기 제2 검출유닛(200)은 렌즈(미도시)와 상기 렌즈를 조절하는 렌즈조 절부(미도시)를 더 구비하는데, 상기 렌즈로는 초점거리가 짧고 심도가 깊은 팬포커스형 렌즈를 사용하는 것이 적절하고, 상기 렌즈조절부는 전후 이동되도록 하는 소정 모터와 이동수단을 구비하여 상기 렌즈를 조절한다. 또한, 상기 광량조절부(220)는 상기 영상센서(210)에 인접하여 설치되고, 하나 이상의 광원(미도시)을 조절하여 상기 영상센서(210)에 의해 촬영되는 바닥면의 영역에 빛을 조사한다. 즉, 로봇 청소기가 평탄한 바닥을 이동하는 경우에는 상기 영상센서(210)가 바닥면까지 일정한 거리가 유지되는 반면, 불균일한 표면의 바닥면을 이동하는 경우에는 바닥물의 요철 및 장애물에 의해 일정 거리 이상 멀어지게 된다. 이때 광량조절유닛(220)은 상기 거리측정유닛(240)으로부터 측정된 거리에 대응하여 하나 이상의 광원을 동작시켜 상기 조사되는 빛의 양을 조절한다. 반면, 상기 영상센서(210), 특히 옵티컬 플로우 센서는 미끄러짐과 무관하에 상대 위치를 검출할 수 있다. 즉, 상기 옵티컬 플로우 센서를 이용하여 로봇 청소기의 하방을 관찰하도록 함으로써, 미끄러짐에 강인한 위치 보정이 가능하다.Hereinafter, the operation of the
상기 제어유닛(500)은 상기 위치 정보들 중 둘 이상의 위치 정보들을 비교하는 비교유닛(미도시)과, 상기 비교 결과를 근거로 환경 지도를 생성하는 지도생성유닛(미도시)을 구비하여 상기 위치 정보들을 근거로 환경 지도를 작성한다. 즉, 상기 제어유닛(500)은 상기 제1 검출유닛(100)을 통해 상방 영상 정보로부터 추출된 특징점들을 이용하여 환경 지도를 생성하고, 상기 제2 검출유닛(200)을 통해 하방 영상 정보로부터 검출된 미끄러짐에 강인한 위치 정보를 융합하여 상기 로봇 청소기의 위치를 결정하고, 상기 환경 지도를 다시 생성할 수 있다.The
반대로, 예를 들어 레이저 타입이 아닌 옵티컬 플로우 센서의 경우에 바닥이 반사 재질일 때 신호가 끊기는 현상이 있다. 이 때, 상기 제1 검출유닛(100)의 영상 정보를 이용하면 슬립에 의해 신호가 끊긴 것인지, 바닥이 반사 재질이기 때문에 끊긴 것인지를 명확히 알 수 있다.Conversely, for example, in the case of an optical flow sensor other than a laser type, there is a phenomenon that the signal is interrupted when the bottom is a reflective material. At this time, if the video information of the
상기 제3 검출유닛(300)은 로봇 청소기의 주행유닛(620)에 구비된 휠모터의 회전을 감지하여 회전속도 또는 직진속도를 검출하고, 상기 회전속도 또는 직진속도를 이중 적분 등의 소정 연산을 이용하여 제3 위치 정보를 생성한다. 상기 제3 검출유닛(300)으로는 일반적으로 인코더(Encoder)를 사용한다.The
또한, 본 발명의 다른 예에 따른 로봇 청소기는, 상기 로봇 청소기의 방향 정보를 근거로 위치를 검출하여 제4 위치 정보를 출력하는 제4 검출유닛(400)을 더 포함하여 구성된다. 다른 구성에 대한 설명은 상기 일 예에 따른 로봇 청소기의 구성을 참조한다.The robot cleaner according to another exemplary embodiment of the present invention further includes a
즉, 상기 제4 검출유닛(400)은 로봇 청소기의 이동 중에 방향의 변화를 감지하여 회전속도, 즉 각속도를 검출하고, 상기 각속도로부터 이중 적분 등의 소정 연산을 통하여 제4 위치 정보를 생성한다. 상기 제4 검출유닛(400)으로는 일반적으로 자이로스코프(Gyroscope, 각속도 센서)를 사용한다.That is, the
상기 제1 내지 제3 검출유닛, 또는 상기 제1 내지 제4 검출유닛들을 조합하거나, 또는 선택적으로 적용하여 로봇 청소기의 위치를 정밀하게 검출할 수 있다. 예를 들어, 로봇 청소기는 제1 검출유닛(100)에 구비된 카메라(110)를 이용하면 영상처리를 통해 특징점을 획득하고 환경지도를 그릴 수 있으며, 상기 환경지도를 근 거로 로봇 청소기의 위치를 검출할 수 있으나, 로봇 청소기의 이동에 따라 미끄러짐, 충돌 등에 의해 환경 지도가 부정확해지면서 위치 검출 오차가 발생한다. 이러한 위치 검출 오차는 상기 인코더(300)를 이용하거나, 상기 자이로스코프(400)를 이용하거나, 상기 인코더와 자이로스코프를 이용하여 용이하게 속도로부터 로봇 청소기의 위치를 검출하고, 바닥의 재질 등에 의해 발생하는 미끄러짐에 강인한 상기 영상센서(210)를 이용하여 보정한다. 한편, 상기 제3 검출유닛(300)인 인코더나, 상기 제4 검출유닛(400)으로 사용된 자이로스코프 등의 상대 위치를 검출하는 검출 유닛만으로는 카펫과 같이 바퀴의 미끄리짐이 큰 바닥과 같은 조건에서 오차가 크게 발생하나, 상기 제2 검출유닛(200)인 옵티컬 플로우 센서는 미끄러짐과 무관하게 위치 정보를 생성할 수 있다.The first to third detection units or the first to fourth detection units may be combined or selectively applied to precisely detect the position of the robot cleaner. For example, the robot cleaner can acquire feature points and draw an environmental map through image processing using the
상기 제어유닛(500)은 상기 제1 내지 제3 검출유닛, 또는 상기 제1 내지 제4 검출유닛으로부터 생성된 위치 정보들을 비교하여 현재 로봇 청소기의 주행 조건을 판단하고, 이 판단에 따라 적절한 센서 조합을 선택하거나 각 센서 정보 별 불확실성을 조정하여 센서 융합을 수행한다. 또한, 상기 제어유닛(500)은 상기 위치 정보들 중 둘 이상의 위치 정보들을 비교하는 비교유닛(미도시)과, 상기 비교 결과를 근거로 환경 지도를 생성하는 지도생성유닛(미도시)을 구비하여 상기 위치 정보들을 근거로 환경 지도를 작성한다. The
예를 들어, 상기 제어유닛(500)은 상기 인코더로부터 계산된 주행 거리가 상기 옵티컬 플로우 센서로부터 계산된 주행거리보다 현저히 작다면, 로봇 청소기가 카펫과 같이 미끄러운 바닥을 지나고 있다고 판단하여, 상기 인코더를 제외하고, 상기 자이로스코프와 옵티컬 플로우 센서의 위치 정보들만으로 위치를 결정하거나 인코더 정보의 불확실성을 높여서 센서 융합을 수행한다.For example, if the travel distance calculated from the encoder is significantly smaller than the travel distance calculated from the optical flow sensor, the
한편, 상기 제1 검출유닛으로부터 생성된 제1 위치 정보인 영상정보는 다른 검출유닛들의 위치 정보보다 갱신 주기가 길기 때문에 센서 융합되는 빈도가 적고, 영상정보의 밝기 정도, 매칭되는 특징점의 숫자 등에 따라 불확실성이 조정될 수 있다. 또한, 제1 검출유닛이 동작하지 못하는 어두운 환경에서도 상기 제2 내지 제3 검출유닛, 또는 상기 제2 내지 제4 검출유닛의 위치 정보들을 이용하면 위치 인식 오차를 줄일 수 있다.On the other hand, since the image information which is the first position information generated from the first detection unit has a longer update period than the position information of the other detection units, the frequency of the sensor fusion is small, and the degree of brightness of the image information, Uncertainties can be adjusted. Further, even in a dark environment where the first detection unit can not operate, positional error can be reduced by using the position information of the second to third detection units or the second to fourth detection units.
다른 예로, 문턱 등반 등 로봇 청소기가 평면 바닥이 아닌 곳을 주행할 때는 제1 위치 정보와 다른 위치 정보들이 크게 달라지므로 위치 검출 오차가 크게 발생하고, 불확실성도 이에 따라 조정된다.As another example, when the robot cleaner travels in a place other than the floor of the plane, such as a threshold climb, the first position information and other position information greatly vary, so that the position detection error is largely generated and the uncertainty is also adjusted accordingly.
또한, 상기 로봇 청소기는 충전 가능한 배터리 형식의 전원 공급 수단을 구비한 전원유닛(610)과, 다수의 바퀴를 구비하여 로봇 청소기를 이동시키는 주행유닛(620)과, 이동 중 주변과 바닥면의 먼지 및 이물질을 흡입하는 청소유닛(630)과, 하나 이상의 버튼을 구비하여 데이터 입력이 가능한 입력유닛(640)과, 현재 동작 상태 및 설정 모드에 대한 정보 등을 표시하는 출력유닛(650)과, 상기 환경 지도와 주행 경로 등을 저장하는 저장유닛(660)을 더 포함한다.In addition, the robot cleaner includes a
상기 전원유닛(610)은 로봇 청소기가 이동하고, 청소를 수행하는데 따른 동작 전원을 공급하며, 상기 배터리 잔량이 부족하면 충전대로부터 충전 전류를 공급받아 충전한다. 상기 주행유닛(620)은 복수의 주바퀴와 하나 이상의 보조바퀴를 포 함하는 상기 다수의 바퀴를 회전시키는 소정의 휠모터(Wheel Motor)를 구비하고, 상기 제어유닛(500)은 상기 휠모터를 구동하여 로봇 청소기가 이동하도록 한다. 상기 청소유닛(630)은 공기를 빨이들이기 위한 소정의 흡입 모터와, 먼지를 응집하는 수단을 구비하고, 주행 중 발생되는 주변의 먼지 또는 이물질을 흡입한다. 또한, 상기 로봇 청소기는 다수의 센서를 구비하여 주변의 장애물을 감지하는 장애물감지유닛(미도시)을 더 포함할 수 있다. 상기 장애물감지유닛으로는 적외선 센서(Infra-RED Sensor), 초음파 센서(Supersonic Wave Sensor), RF 센서(Radio Frequency Sensor)나 범퍼(Bumper) 등을 사용할 수 있다.The
도 3을 참조하면, 본 발명의 일 예에 따른 로봇 청소기의 위치 검출 방법은, 상방 영상 정보를 근거로 위치를 검출하여 제1 위치 정보를 출력하는 제1 검출단계(S100)와, 하방 영상 정보를 근거로 위치를 검출하여 제2 위치 정보를 출력하는 제2 검출단계(S200)와, 바퀴를 구동하는 휠모터의 회전을 근거로 위치를 검출하여 제3 위치 정보를 출력하는 제3 검출단계(S300)와, 상기 위치 정보들 중 둘 이상의 위치 정보들을 비교하고, 상기 비교결과에 따라 로봇 청소기의 현재 위치를 결정하는 위치결정단계(S500)를 포함하여 구성된다. 또한, 상기 위치 정보들 중 둘 이상의 위치 정보들을 근거로 로봇 청소기의 주행 상태를 판단하는 상태판단단계(S600)를 더 포함한다. 아울러, 상기 위치 정보들을 근거로 환경지도를 생성하는 환경지도생성단계(S700)를 더 포함하여 구성된다. 이하, 장치의 구성은 도 1 및 도 2의 구성을 참조한다.Referring to FIG. 3, the method for detecting a position of a robot cleaner according to an exemplary embodiment of the present invention includes a first detecting step (S100) of detecting a position based on upper image information and outputting first position information, A second detecting step S200 of detecting a position based on the detected position of the wheel motor and outputting second position information, a third detecting step of detecting the position based on the rotation of the wheel motor driving the wheel and outputting the third position information (S500) for comparing two or more pieces of position information among the position information and determining a current position of the robot cleaner according to the comparison result. The method further includes a state determination step (S600) of determining a traveling state of the robot cleaner based on two or more position information among the position information. The method further includes an environment map generation step (S700) of generating an environment map based on the location information. Hereinafter, the configuration of the apparatus will be described with reference to Figs. 1 and 2. Fig.
상기 제1 검출단계(S100)는, 상방을 촬영하여 상방 영상 정보를 생성하는 상 방촬영과정(S110)과, 상기 상방 영상 정보로부터 특징점을 추출하는 특징점추출과정(S120)과, 상기 특징점을 근거로 제1 위치 정보를 생성하는 제1 위치정보생성과정(S130)을 포함하여 구성된다.The first detection step S100 includes an image capturing step S110 for capturing an image of an upper side and generating upper image information, a minutiae point extracting step S120 for extracting minutiae from the upper image information, And a first position information generating step (S130) for generating first position information by the first position information generating step.
상기 상방촬영과정(S100)은 카메라를 이용하여 상방을 촬영하고, 촬영된 상방 영상으로부터 상방 영상 정보를 생성한다. 여기서, 상기 상방촬영과정(S100)은 소정의 위치에서도 상방의 모든 영역, 예를 들어 천장의 모든 영역이 촬영될 수 있도록 화각이 넓은 렌즈를 사용한다. 예를 들어 화각이 160도 이상인 렌즈를 포함한다.The upper photographing process S100 photographs the upper side using the camera and generates the upper side image information from the captured upper side image. Here, the upward photographing process (S100) uses a lens having a wide angle of view such that all the areas above the predetermined position, for example, the entire area of the ceiling, can be photographed. For example, a lens having an angle of view of 160 degrees or more.
상기 특징점추출과정(S120)은 임의의 표식으로부터 특징점을 추출할 수 있는데, 특히 천장면을 포함하는 상방 영역에 존재하는 형광등, 인테리어 구조물 등의 자연 표식을 이용하여 특징점을 추출한다.The minutiae point extracting step S120 extracts minutiae from an arbitrary landmark. In particular, minutiae points are extracted using natural markers such as fluorescent lights and interior structures existing in an upper region including a ceiling scene.
도 7을 참조하여 본 발명에 따른 상기 특징점추출과정(S120)을 예를 들어 설명한다. 상방을 일 회 촬영한 후 특징점을 추출할 수 있으나, 설명의 편의를 위해 이동 중 2회 촬영하여 특징점을 추출하는 동작을 설명한다. 도 7에 도시한 바와 같이, 제1 마크(C1)와 제2 마크(N1)를 비교할 때, 로봇 청소기가 이동하면서 상기 카메라(110)를 통해 제1 시간(k)과 제2 시간(k+1)에 천장면을 포함한 상방을 각각 촬영한다. 이때, 제1 시간(k)과 제2 시간(k+1)에 촬영되는 상방 영상 정보에서의 제1 마크(C1)과 제2 마크(N1)는 제1 특징점(M1)과 제2 특징점(M2)으로 나타나게 된다. 이때, 제1 마크(C1)와 제2 마크(N1)는 제1 특징점(M1(k)), 제2 특징점(M2(k))으로 나타난다. 한편, 제2 시간(k+1)에서의 제1 마크(C1)와 제2 마크(N1)는 제1 특징 점(M1(k+1)), 제2 특징점(M2(k+1))으로 나타난다.The minutiae point extraction process (S120) according to the present invention will be described with reference to FIG. The minutiae can be extracted after the image is photographed once. However, for convenience of explanation, the operation of picking up the minutiae by photographing twice during the movement will be described. 7, when the first mark C1 and the second mark N1 are compared with each other, the robot cleaner moves while the first time k and the second time k + 1) and the upper part including the ceiling scene, respectively. At this time, the first mark C1 and the second mark N1 in the upper image information photographed at the first time (k) and the second time (k + 1) are the first feature point M1 and the second feature point M2). At this time, the first mark C1 and the second mark N1 appear as a first feature point M1 (k) and a second feature point M2 (k). On the other hand, the first mark C1 and the second mark N1 at the second time (k + 1) are the first feature point M1 (k + 1) and the second feature point M2 (k + .
상기 제1 마크(C1)과 제2 마크(N1)에 대한 상방 영상 정보의 특징점인 제1 특징점(M1(k)), 제2 특징점(M2(k))과, 제1 특징점(M1(k+1)), 제2 특징점(M2(k+1))을 각각 매칭하고, 비교하여 특징점 간의 이동거리를 산출한다. 즉 도 7의 (c)에 도시한 바와 같이, 제1 시간(k) 및 제2 시간(k+1)에 촬영된 영상 정보의 특징점을 상호 비교하여 제1 특징점의 이동거리(PL1), 제2 특징점의 이동거리(PL2)를 연산한다. 이때, 로봇 청소기의 이동에 따른 제1 마크(C1) 및 제2 마크(N1)와 로봇 청소기 간의 이동거리(L1)는 일정하고 로봇 청소기의 실제 이동거리와 동일하다. 그러나, 촬영된 영상 정보의 특징점의 이동거리인 PL1과 PL2는 서로 상이하다. 마크의 거리가 멀수록 마크에 대한 특징점의 이동거리는 작은데 반하여 마크가 로봇 청소기에 가까이 있을 수록, 즉 천장면보다 낮은 벽면에 위치할 수록 특징점의 이동거리 차가 커지게 된다. 그에 따라, 제2 마크(N1)와 같이 로봇 청소기의 이동에 따른 특징점의 이동비율이 소정비율 이상인 경우, 불필요한 특징점인 것으로 판단하여 제거한다.The first feature point M1 (k), the second feature point M2 (k), and the first feature point M1 (k (k)), which are feature points of the upper image information for the first mark C1 and the second mark N1, +1)) and the second feature point M2 (k + 1), respectively, and compares them to calculate the movement distance between the feature points. That is, as shown in FIG. 7C, the movement distance PL1 of the first feature point is compared with the feature point of the image information photographed at the first time k and the second
또한, 제1 마크(C1)와 제2 마크(N1) 중 제1 마크(C1)는 천장면에 위치한 것이므로 로봇 청소기로부터 천장면까지의 거리를 이용하여 제2 마크(N1)의 높이를 연산하고, 연산된 높이가 기준 높이 이하인 경우에는 불필요한 특징점으로 판단하여 제거한다. 제1 특징점(M1)과 제2 특징점(M2)을 비교하면, 각각의 이동거리에 대하여 제1 특징점(M1)의 이동거리 PL1과 제2 특징점(M2)의 이동거리 PL2는 제1 마크, 제2 마크, 및 로봇 청소기의 실제 이동거리와 높이의 비에 비례한다. 이때, 실 제 이동거리는 동일하고, 제1 특징점(M1)에 대한 높이는 천장높이 이므로, 제2 특징점(M2), 즉 제2 마크(N1)에 대한 높이 산출이 가능해진다. 여기서, 촬영된 상방 영상 정보의 중심부분에 위치하는 특징점은 천장면에 위치하는 것으로 판단하고, 중심부분에 위치한 특징점을 기준으로 특징점의 높이를 산출한다.Since the first mark C1 among the first mark C1 and the second mark N1 is located in the ceiling scene, the height of the second mark N1 is calculated using the distance from the robot cleaner to the ceiling scene , And when the calculated height is equal to or lower than the reference height, it is determined as an unnecessary feature point and removed. When the first feature point M1 and the second feature point M2 are compared, the movement distance PL1 of the first feature point M1 and the movement distance PL2 of the second feature point M2 with respect to the respective movement distances, 2 mark, and the ratio of the actual moving distance and height of the robot cleaner. At this time, since the actual moving distance is the same and the height of the first characteristic point M1 is the ceiling height, the height of the second characteristic point M2, i.e., the second mark N1, can be calculated. Here, it is determined that the feature points located in the central part of the captured upper image information are located in the ceiling scene, and the height of the feature points is calculated based on the feature points located in the center part.
상기 제2 검출단계(S200)는, 하방을 촬영하여 하방 영상 정보를 생성하는 하방촬영과정(S210)과, 상기 하방 영상 정보로부터 제2 위치 정보를 생성하는 제2 위치정보생성과정(S230)을 포함하여 구성된다. 또한, 상기 제2 검출단계(S200)는, 상기 하방 영상 정보의 상태를 판단하는 하방정보판단과정(S220)과, 상기 판단 결과를 근거로 상기 하방에 조사되는 광량을 조절하는 광량조절과정을 더 포함한다.The second detection step S200 includes a down-shooting process S210 for photographing downward and downward image information, and a second positional information generating process S230 for generating second positional information from the downward image information . The second detection step S200 may include a downward information determination step S220 for determining the state of the downward image information and a light amount adjustment process for adjusting the amount of light irradiated downward based on the determination result .
상기 제2 검출단계(S200)는 로봇 청소기의 배면에 구비된 영상센서(210)을 이용하여 로봇 청소기의 이동 중에 하방, 즉 바닥을 촬영한다. 촬영된 하방 영상으로부터 소정 형식의 하방 영상 정보를 생성한다(S210). 또한, 상기 제2 검출단계(S200)는 필요에 따라 상기 광량조절부(220)를 이용하여 하나 이상의 광원을 조절하여 상기 영상센서(210)에 의해 촬영되는 바닥면의 영역에 빛을 조사한다(S220). 즉, 로봇 청소기가 평탄한 바닥을 이동하는 경우에는 상기 영상센서(210)가 바닥면까지 일정한 거리가 유지되는 반면, 불균일한 표면의 바닥면을 이동하는 경우에는 바닥물의 요철 및 장애물에 의해 일정 거리 이상 멀어지게 된다. 이때 상기 하방촬영과정(S210)에서 생성된 하방 영상 정보가 정상인가, 또는 기준 영상 정보 이상인가를 비교 판단하고(S220), 판단 결과 이상이 있으면 하나 이상의 광원을 동작시켜 상기 조사되는 빛의 양을 조절한다. 반면, 상기 제2 검출단 계(S200)는 상기 하방 영상 정보를 이용하여 미끄러짐에 강인한 위치를 검출할 수 있다(S230).In the second detection step S200, the
상기 제3 검출단계(S300)는 로봇 청소기의 주행유닛(620)에 구비된 휠모터의 회전을 감지하여 회전속도 또는 직진속도를 검출하고(S310), 상기 회전속도 또는 직진속도를 이중 적분 등의 소정 연산을 이용하여 제3 위치 정보를 생성한다(S320). 상기 제3 검출단계(S300)는 일반적으로 인코더(Encoder)를 사용한다.The third detection step S300 detects the rotation speed of the wheel motor provided in the
또한, 본 발명의 다른 예에 따른 로봇 청소기의 위치 결정 방법은, 로봇 청소기의 방향 정보를 근거로 위치를 검출하여 제4 위치 정보를 출력하는 제4 검출단계(S400)를 더 포함하여 구성된다. 다른 구성에 대한 설명은 상기 일 예에 따른 위치 검출 방법의 구성에 대한 설명에 갈음하고, 이하 생략한다.According to another aspect of the present invention, there is provided a method of positioning a robot cleaner, the method further comprising a fourth detecting step (S400) of detecting a position based on direction information of the robot cleaner and outputting fourth position information. The description of other configurations is omitted from the description of the configuration of the position detection method according to the above example, and the following description is omitted.
즉, 상기 제4 검출단계(S400)는 로봇 청소기의 이동 중에 방향의 변화를 감지하여 회전속도, 즉 각속도를 검출하고(S410), 상기 각속도로부터 이중 적분 등의 소정 연산을 통하여 제4 위치 정보를 생성한다(S420). 상기 제4 검출단계(S400)는 일반적으로 자이로스코프(Gyroscope, 각속도 센서)를 사용한다.That is, the fourth detection step (S400) detects the rotation speed, that is, the angular velocity (S410) by detecting a change in the direction of movement of the robot cleaner, and obtains fourth position information from the angular velocity through a predetermined operation such as double integration (S420). The fourth detection step (S400) generally uses a gyroscope (angular velocity sensor).
상기 제1 내지 제3 위치 정보, 또는 상기 제1 내지 제4 위치 정보들을 조합하거나, 또는 선택적으로 적용하여 로봇 청소기의 위치를 정밀하게 검출할 수 있다. 예를 들어, 로봇 청소기는 상기 제1 위치 정보를 근거로 영상처리를 통해 특징점을 획득하고 환경지도를 그릴 수 있으며, 상기 환경지도를 근거로 로봇 청소기의 위치를 검출할 수 있으나, 로봇 청소기의 이동에 따라 미끄러짐, 충돌 등에 의해 환경 지도가 부정확해지면서 위치 검출 오차가 발생한다. 이러한 위치 검출 오차는 상기 제3 위치 정보를 이용하거나, 상기 제4 위치 정보를 이용하거나, 상기 제3 내지 제4 위치 정보를 함께 이용하여 더욱 용이하게 속도로부터 로봇 청소기의 위치를 검출하고, 바닥의 재질 등에 의해 발생하는 미끄러짐에 강인한 상기 제2 위치 정보를 이용하여 보정한다. 한편, 상기 제3 검출유닛(300)인 인코더나, 상기 제4 검출유닛(400)으로 사용된 자이로스코프 등의 상대 위치를 검출하는 검출 유닛만으로는 카펫과 같이 바퀴의 미끄리짐이 큰 바닥과 같은 조건에서 오차가 크게 발생하나, 상기 제2 검출유닛(200)인 옵티컬 플로우 센서는 미끄러짐과 무관하게 위치 정보를 생성할 수 있다.The first to third positional information, or the first to fourth positional information may be combined or selectively applied to precisely detect the position of the robot cleaner. For example, the robot cleaner can acquire feature points through image processing based on the first position information, draw an environmental map, and can detect the position of the robot cleaner based on the environmental map. However, The position error is generated due to inaccuracy of the environmental map due to slippage or collision. The position detection error may be detected by detecting the position of the robot cleaner from the velocity more easily by using the third positional information, using the fourth positional information, or using the third and fourth positional information together, By using the second position information which is resistant to slippage caused by a material or the like. On the other hand, only the detecting unit for detecting the relative position of the encoder as the third detecting
상기 상태판단단계(S600)은 상기 제1 내지 제3 검출유닛, 또는 상기 제1 내지 제4 검출유닛으로부터 생성된 위치 정보들을 비교하여 현재 로봇 청소기의 주행 조건을 판단하고, 이 판단에 따라 적절한 센서 조합을 선택하거나 각 센서 정보 별 불확실성을 조정하여 센서 융합을 수행한다. 또한, 본 발명에 따른 위치 검출 방법은, 상기 위치 정보들 중 둘 이상의 위치 정보들을 상호 비교하는 정보비교단계(미도시)와, 상기 비교 결과를 근거로 환경 지도를 생성하는 지도생성단계(S700)를 더 포함하여 상기 위치 정보들을 근거로 환경 지도를 작성한다.The state determination step S600 compares the position information generated from the first to third detection units or the first to fourth detection units to determine the running condition of the current robot cleaner, Sensor fusion is performed by selecting a combination or by adjusting the uncertainty of each sensor information. In addition, the position detecting method according to the present invention may further include an information comparing step (not shown) for comparing two or more pieces of position information among the position information, a map generating step (S700) for generating an environment map based on the comparison result, And creates an environment map based on the location information.
예를 들어, 본 발명에 따른 위치 검출 방법은, 상기 인코더로부터 계산된 주행 거리가 상기 옵티컬 플로우 센서로부터 계산된 주행거리보다 현저히 작다면, 로봇 청소기가 카펫과 같이 비끄러운 바닥을 지나고 있다고 판단하여, 상기 인코더를 제외하고, 상기 자이로스코프와 옵티컬 플로우 센서의 위치 정보들만으로 위치를 결정하거나 인코더 정보의 불확실성을 높여서 센서 융합을 수행한다.For example, in the position detecting method according to the present invention, if the travel distance calculated from the encoder is significantly smaller than the travel distance calculated from the optical flow sensor, it is determined that the robot cleaner is passing through a slippery floor like a carpet, Except for the encoder, the sensor fusion is performed by determining the position based only on the position information of the gyroscope and the optical flow sensor or increasing the uncertainty of the encoder information.
한편, 상기 제1 위치 정보인 영상정보는 다른 위치 정보들보다 갱신 주기가 길기 때문에 센서 융합되는 빈도가 적고, 영상정보의 밝기 정도, 매칭되는 특징점의 숫자 등에 따라 불확실성이 조정될 수 있다. 또한, 상기 제1 위치 정보를 획득하기 어려운 어두운 환경에서도 상기 제2 내지 제3 위치 정보, 또는 상기 제2 내지 제4 위치 정보들을 이용하면 위치 인식 오차를 줄일 수 있다.On the other hand, since the first location information has a longer update period than other location information, the frequency of the sensor fusion is small, and the uncertainty can be adjusted according to the brightness of the image information, the number of matching feature points, In addition, if the second to third position information or the second to fourth position information are used in a dark environment where it is difficult to obtain the first position information, the position recognition error can be reduced.
다른 예로, 문턱 등반 등 로봇 청소기가 평면 바닥이 아닌 곳을 주행할 때는 제1 위치 정보와 다른 위치 정보들이 크게 달라지므로 위치 검출 오차가 크게 발생하고, 불확실성도 이에 따라 조정된다.As another example, when the robot cleaner travels in a place other than the floor of the plane, such as a threshold climb, the first position information and other position information greatly vary, so that the position detection error is largely generated and the uncertainty is also adjusted accordingly.
상기와 같이, 본 발명에 따른 로봇 청소기 및 그의 위치 검출 방법은, 위치 및 자세 변화를 감지하는 다양한 센서들을 구비하고, 상기 센서 정보에 따라 로봇 청소기의 주행 조건을 판단하며, 판단된 주행 조건에 따라 적합한 센서 조합을 선택하거나 불확실성을 고려한 센서 융합을 수행함으로써 미끄러짐, 충돌 등에 강인하게 로봇 청소기의 위치를 검출할 수 있고, 이에 따라 더욱 정밀한 환경지도를 생성할 수 있다.As described above, the robot cleaner and the position detecting method according to the present invention include various sensors for detecting a change in position and attitude, determine the running condition of the robot cleaner according to the sensor information, It is possible to detect the position of the robot cleaner robustly by slipping, collision or the like by selecting a suitable sensor combination or by performing sensor fusion considering uncertainty, thereby generating a more precise environment map.
도 1은 본 발명에 따른 로봇 청소기의 구성을 개략적으로 보인 블록도;1 is a block diagram schematically illustrating the configuration of a robot cleaner according to the present invention;
도 2는 도 1의 제1 검출유닛의 세부 구성을 개략적으로 보인 블록도;Fig. 2 is a block diagram schematically showing a detailed configuration of the first detection unit of Fig. 1; Fig.
도 3은 도 1의 제2 검출유닛의 세부 구성을 개략적으로 보인 블록도;FIG. 3 is a block diagram schematically showing a detailed configuration of the second detection unit of FIG. 1; FIG.
도 4는 본 발명에 따른 로봇 청소기의 위치 검출 방법을 개략적으로 보인 흐름도;4 is a flowchart schematically illustrating a method for detecting a position of a robot cleaner according to the present invention;
도 5는 도 4의 일 예를 보인 흐름도;FIG. 5 is a flowchart illustrating an example of FIG. 4; FIG.
도 6은 본 발명에 따른 로봇 청소기의 외관을 보인 사시도;FIG. 6 is a perspective view showing the appearance of a robot cleaner according to the present invention; FIG.
도 7은 본 발명에 따른 제2 위치 정보를 검출하는 동작을 설명하기 위한 도이다.7 is a view for explaining an operation of detecting second position information according to the present invention.
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090017748A KR101542498B1 (en) | 2009-03-02 | 2009-03-02 | Robot cleaner and method for detecting position thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090017748A KR101542498B1 (en) | 2009-03-02 | 2009-03-02 | Robot cleaner and method for detecting position thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100098997A KR20100098997A (en) | 2010-09-10 |
KR101542498B1 true KR101542498B1 (en) | 2015-08-06 |
Family
ID=43005590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090017748A KR101542498B1 (en) | 2009-03-02 | 2009-03-02 | Robot cleaner and method for detecting position thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101542498B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019221524A1 (en) * | 2018-05-16 | 2019-11-21 | 엘지전자 주식회사 | Vacuum cleaner and control method thereof |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101181228B1 (en) | 2010-10-11 | 2012-09-10 | 포항공과대학교 산학협력단 | Organic solar cell and method for preparing the same |
KR101052044B1 (en) * | 2011-03-22 | 2011-07-26 | 삼성탈레스 주식회사 | Motor controlling apparatus including resolver sensor and gyro sensor |
KR101306690B1 (en) * | 2011-12-08 | 2013-09-10 | 전자부품연구원 | Gondola robot and Method for controlling thereof |
KR101305954B1 (en) * | 2011-12-08 | 2013-09-12 | 전자부품연구원 | Apparatus and method for grasping position and establishing map of gondola robot through image matching |
KR101476206B1 (en) | 2012-05-24 | 2014-12-24 | 엘지전자 주식회사 | A robot cleaner |
KR101439921B1 (en) * | 2012-06-25 | 2014-09-17 | 서울대학교산학협력단 | Slam system for mobile robot based on vision sensor data and motion sensor data fusion |
KR102056664B1 (en) | 2012-10-04 | 2019-12-17 | 한국전자통신연구원 | Method for work using the sensor and system for performing thereof |
GB2529846B (en) | 2014-09-03 | 2019-02-20 | Dyson Technology Ltd | Illumination Control of a Vision System for a Mobile Robot |
GB2529847B (en) | 2014-09-03 | 2018-12-19 | Dyson Technology Ltd | A mobile Robot with Independently Adjustable Light Sources |
KR102620361B1 (en) * | 2016-08-30 | 2024-01-04 | 삼성전자주식회사 | Robot cleaner |
KR102035018B1 (en) * | 2016-12-06 | 2019-10-22 | 주식회사 유진로봇 | Apparatus for controlling cleaning function and robotic cleaner with the apparatus |
KR102135559B1 (en) * | 2018-05-16 | 2020-07-20 | 주식회사 유진로봇 | Compact 3D Scanning Lidar Sensor |
US11579298B2 (en) | 2017-09-20 | 2023-02-14 | Yujin Robot Co., Ltd. | Hybrid sensor and compact Lidar sensor |
US11874399B2 (en) | 2018-05-16 | 2024-01-16 | Yujin Robot Co., Ltd. | 3D scanning LIDAR sensor |
KR102206388B1 (en) * | 2019-01-31 | 2021-01-22 | 엘지전자 주식회사 | Lawn mover robot and controlling method for the same |
-
2009
- 2009-03-02 KR KR1020090017748A patent/KR101542498B1/en not_active IP Right Cessation
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019221524A1 (en) * | 2018-05-16 | 2019-11-21 | 엘지전자 주식회사 | Vacuum cleaner and control method thereof |
CN112153928A (en) * | 2018-05-16 | 2020-12-29 | Lg电子株式会社 | Sweeper and control method thereof |
CN112153928B (en) * | 2018-05-16 | 2022-04-01 | Lg电子株式会社 | Sweeper and control method thereof |
US11998159B2 (en) | 2018-05-16 | 2024-06-04 | Lg Electronics Inc. | Vacuum cleaner and control method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20100098997A (en) | 2010-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101542498B1 (en) | Robot cleaner and method for detecting position thereof | |
KR101822942B1 (en) | Robot cleaner and controlling method of the same | |
KR101553950B1 (en) | Robot cleaner and method for detecting position thereof | |
KR102275300B1 (en) | Moving robot and control method thereof | |
KR101366860B1 (en) | Mobile robot and controlling method of the same | |
AU2005201155B2 (en) | Method compensating gyro sensor for robot cleaner | |
EP3415281B1 (en) | Robot cleaner and method for controlling the same | |
KR101772084B1 (en) | Moving robot and controlling method thereof | |
KR101677634B1 (en) | Robot cleaner and controlling method of the same | |
US7227327B2 (en) | System and method for automatically returning self-moving robot to charger | |
KR20160146379A (en) | Moving robot and controlling method thereof | |
EP3409177A1 (en) | Moving robot and controlling method thereof | |
CN112153928B (en) | Sweeper and control method thereof | |
JP2018500624A (en) | System and method for use of an optical mileage sensor in a mobile robot | |
US20190220033A1 (en) | Moving robot and controlling method for the moving robot | |
KR20130141979A (en) | Autonomous mobile robot | |
KR20120006407A (en) | Robot cleaner and controlling method of the same | |
KR101897775B1 (en) | Moving robot and controlling method thereof | |
KR101938668B1 (en) | Cleaner and controlling method thereof | |
KR101513639B1 (en) | Mobile robot robot cleaner and method for detecting angles of the mobile robot | |
KR101303161B1 (en) | Mobile robot and controlling method of the same | |
KR20170108656A (en) | Moving robot and controlling method thereof | |
KR20200105916A (en) | Robot vacuum cleaner and its control method | |
KR100825919B1 (en) | Distance measurement sensor, moving robot having the distance measurement sensor and driving method for moving robot using the moving robot | |
KR20130000278A (en) | Robot cleaner and controlling method of the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
LAPS | Lapse due to unpaid annual fee |