KR20100098999A - Robot cleaner and method for detecting position thereof - Google Patents
Robot cleaner and method for detecting position thereof Download PDFInfo
- Publication number
- KR20100098999A KR20100098999A KR1020090017750A KR20090017750A KR20100098999A KR 20100098999 A KR20100098999 A KR 20100098999A KR 1020090017750 A KR1020090017750 A KR 1020090017750A KR 20090017750 A KR20090017750 A KR 20090017750A KR 20100098999 A KR20100098999 A KR 20100098999A
- Authority
- KR
- South Korea
- Prior art keywords
- relative position
- downward
- image information
- detecting
- robot cleaner
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/28—Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
-
- A—HUMAN NECESSITIES
- A47—FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
- A47L—DOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
- A47L9/00—Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
- A47L9/02—Nozzles
- A47L9/04—Nozzles with driven brushes or agitators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Robotics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
본 발명은 바닥의 미끄러짐 조건에 강인하게 로봇 청소기의 절대 위치를 검출할 수 있는 로봇 청소기 및 그의 위치 검출 방법에 관한 것이다.The present invention relates to a robot cleaner capable of detecting the absolute position of the robot cleaner robustly to the sliding condition of the floor, and a method for detecting the position thereof.
일반적으로 로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다.In general, robots have been developed for industrial use and have been a part of factory automation. Recently, the application of robots has been further expanded, medical robots, aerospace robots, and the like have been developed, and home robots that can be used in general homes have also been made.
상기 가정용 로봇의 대표적인 예는 로봇 청소기로서, 일정 영역을 스스로 주행하면서 주변의 먼지 또는 이물질을 흡입하여 청소하는 가전기기의 일종이다. 이러한 로봇 청소기는 일반적으로 충전 가능한 배터리를 구비하고, 주행 중 장애물을 피할 수 있는 장애물 센서를 구비하여 스스로 주행하며 청소할 수 있다.A representative example of the home robot is a robot cleaner, which is a kind of home appliance that cleans by suctioning dust or foreign matter while driving around a certain area by itself. Such a robot cleaner generally includes a rechargeable battery, and includes an obstacle sensor that can avoid obstacles while driving, so that the robot cleaner can run and clean itself.
상기 로봇 청소기가 스스로 주행하면서 영역을 모두 청소하기 위해서는 청소가 된 영역과 청소를 하여야 할 영역 등 청소 영역을 판단할 수 있어야 하고, 이러한 청소 영역을 파악하기 위해서는 자기 위치를 파악하는 기능을 보유하여야 한다.In order to clean all the areas while the robot cleaner runs by itself, the robot cleaner should be able to determine the cleaning area such as the cleaned area and the area to be cleaned, and have a function of identifying the magnetic location to identify the cleaning area. .
종래 기술에 따른 로봇 청소기는 구동 모터에 연결된 인코더(Encoder), 자이 로스코프(Gyroscope, 자이로 센서, 각속도 센서)등의 로봇의 상대적인 동작의 변화를 추정할 수 있는 센서들을 통해 위치를 검출하였다. 그러나, 종래 기술에 따른 로봇 청소기는 미끄러짐이 심하게 발생하는 바닥과 같은 유사한 조건 하에서 미끄러짐으로 인해 위치 오차가 크게 발생하는 문제점이 있다.The robot cleaner according to the related art detects a position through sensors capable of estimating a change in relative motion of a robot such as an encoder connected to a driving motor, a gyroscope, a gyro sensor, and an angular velocity sensor. However, the robot cleaner according to the related art has a problem in that a large position error occurs due to slipping under similar conditions such as a floor on which slipping occurs badly.
본 발명은 상방 카메라와 하방 이미지센서를 구비하여 바닥의 미끄러짐 조건에 강인하게 로봇 청소기의 절대 위치를 검출할 수 있는 로봇 청소기 및 그의 위치 검출 방법을 제공함에 그 목적이 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide a robot cleaner and a method for detecting a position thereof, including an upper camera and a lower image sensor, capable of detecting the absolute position of the robot cleaner robustly to the sliding condition of the floor.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 로봇 청소기는, 일정 시간주기로 상방 영상 정보로부터 특징점을 추출하여 절대 위치를 검출하는 절대위치검출유닛과, 일정 시간주기로 하방을 촬영하여 하방 영상 정보를 검출하는 하방센서를 구비하고, 상기 하방 영상 정보로부터 이동에 따른 상대 위치를 검출하는 상대위치검출유닛과, 상기 상대 위치를 근거로 상기 절대 위치를 보정하고, 보정된 절대 위치에 따라 환경 지도를 생성하는 제어유닛을 포함하여 구성된다.Robot cleaner according to an embodiment of the present invention for achieving the above object, the absolute position detection unit for detecting the absolute position by extracting the feature point from the upper image information at a predetermined time period, and the down image information by shooting down at a predetermined time period And a lower position sensor for detecting a position, a relative position detecting unit detecting a relative position according to movement from the lower image information, and correcting the absolute position based on the relative position, and adjusting an environment map according to the corrected absolute position. It is configured to include a control unit for generating.
또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 로봇 청소기의 위치 검출 방법은, 일정 시간주기로 상방 영상 정보로부터 특징점을 추출하여 절대 위치를 검출하는 절대위치검출단계와, 일정 시간주기로 하방을 촬영하여 하방 영상 정보로부터 이동에 따른 상대 위치를 검출하는 상대위치검출단계와, 상기 상대 위치를 근거로 상기 절대 위치를 보정하는 위치보정단계와, 상기 보정된 절대 위치에 따라 환경 지도를 생성하는 지도생성단계를 포함하여 구성된다.In addition, the position detection method of the robot cleaner according to an embodiment of the present invention for achieving the above object, the absolute position detection step of detecting the absolute position by extracting the feature point from the upper image information at a predetermined time period, and downward at a predetermined time period A relative position detection step of detecting a relative position according to a movement from down image information by photographing the position, a position correction step of correcting the absolute position based on the relative position, and generating an environment map according to the corrected absolute position It includes a map generation step.
본 발명에 따라 상방 카메라를 포함하는 절대 위치를 검출하는 유닛과 하방 이미지센서를 포함하는 상대 위치를 검출하는 유닛을 구비함으로써 미끄러짐으로 인한 위치 오차를 줄이고, 로봇 청소기의 위치를 정밀하게 검출할 수 있다.According to the present invention, by including a unit for detecting an absolute position including an upper camera and a unit for detecting a relative position including a lower image sensor, it is possible to reduce the position error due to slippage and to accurately detect the position of the robot cleaner. .
아울러, 본 발명에 따라 누락 없이 청소 영역을 청소할 수 있게 됨으로써 사용자 편의성을 제고하고, 시스템의 안정성을 향상시킨다.In addition, the cleaning area can be cleaned without omission according to the present invention, thereby improving user convenience and improving system stability.
이하, 첨부한 도면을 참조하여 본 발명에 따른 로봇 청소기 및 그의 위치 검출 방법을 상세히 설명한다.Hereinafter, a robot cleaner and a position detection method thereof according to the present invention will be described in detail with reference to the accompanying drawings.
도 1 및 도 6을 함께 참조하면, 본 발명의 일 실시예에 따른 로봇 청소기는, 일정 시간주기로 상방 영상 정보로부터 특징점을 추출하여 절대 위치를 검출하는 절대위치검출유닛(100)과, 일정 시간주기로 하방을 촬영하여 하방 영상 정보로부터 이동에 따른 상대 위치를 검출하는 상대위치검출유닛(200)과, 상기 상대 위치를 근거로 상기 절대 위치를 보정하고, 보정된 절대 위치에 따라 환경 지도를 생성하는 제어유닛(300)을 포함하여 구성된다. 또한, 로봇 청소기는 충전 가능한 배터리 형식의 전원 공급 수단을 구비한 전원유닛(400)과, 다수의 바퀴를 구비하여 로봇 청소기를 이동시키는 주행유닛(500)과, 이동 중 주변과 바닥면의 먼지 및 이물질을 흡입하는 청소유닛(600)과, 하나 이상의 버튼을 구비하여 데이터 입력이 가능한 입력유닛(700)과, 현재 동작 상태 및 설정 모드에 대한 정보 등을 표시하는 출력유닛(800)과, 상기 환경 지도와 주행 경로 등을 저장하는 저장유닛(900)을 더 포함하여 구성된다.1 and 6 together, the robot cleaner according to an embodiment of the present invention, the absolute
상기 전원유닛(400)은 로봇 청소기가 이동하고, 청소를 수행하는데 따른 동 작 전원을 공급하며, 상기 배터리 잔량이 부족하면 충전대로부터 충전 전류를 공급받아 충전한다. 상기 주행유닛(500)은 상기 다수의 바퀴와, 상기 바퀴를 회전시키는 소정의 휠모터를 구비하고, 상기 제어유닛(300)은 상기 휠모터를 구동하여 로봇 청소기가 이동하도록 한다. 상기 청소유닛(600)은 공기를 빨이들이기 위한 소정의 흡입 모터와, 먼지를 응집하는 수단을 구비하고, 주행 중 발생되는 주변의 먼지 또는 이물질을 흡입한다. 또한, 본 발명에 따른 로봇 청소기는 다수의 센서를 구비하여 주변의 장애물을 감지하는 장애물감지유닛(미도시)을 더 포함할 수 있다.The
여기서, 상기 절대위치검출유닛(100)은, 일정 시간주기로 상방을 촬영하여 상기 상방 영상 정보를 획득하는 상방카메라(110)와, 상기 상방 영상 정보로부터 특징점을 추출하는 특징점추출유닛(120)을 포함하여 구성된다. 상기 일정 시간주기는 사용자 등에 의해 미리 설정될 수 있다.Here, the absolute
상기 상방카메라(110)는 소정의 위치에서도 상방의 모든 영역, 예를 들어 천장의 모든 영역이 촬영될 수 있도록 화각이 넓은 렌즈를 사용한다. 예를 들어 화각이 160도 이상인 렌즈를 포함한다. 상기 특징점추출유닛(120)은 임의의 표식으로부터 특징점을 추출할 수 있는데, 특히 천장면을 포함하는 상방 영역에 존재하는 형광등, 인테리어 구조물 등의 자연 표식을 이용하여 특징점을 추출한다.The
도 7을 참조하여 본 발명에 따른 특징점 추출 과정을 예를 들어 설명한다. 상방을 일 회 촬영한 후 특징점을 추출할 수 있으나, 설명의 편의를 위해 이동 중 2회 촬영하여 특징점을 추출하는 동작을 설명한다. 도 7에 도시한 바와 같이, 제1 마크(C1)와 제2 마크(N1)를 비교할 때, 로봇 청소기가 이동하면서 상방카메라(110) 를 통해 제1 시간(k)과 제2 시간(k+1)에 천장면을 포함한 상방을 각각 촬영한다. 이때, 제1 시간(k)과 제2 시간(k+1)에 촬영되는 상방 영상 정보에서의 제1 마크(C1)과 제2 마크(N1)는 제1 특징점(M1)과 제2 특징점(M2)으로 나타나게 된다. 이때, 제1 마크(C1)와 제2 마크(N1)는 제1 특징점(M1(k)), 제2 특징점(M2(k))으로 나타난다. 한편, 제2 시간(k+1)에서의 제1 마크(C1)와 제2 마크(N1)는 제1 특징점(M1(k+1)), 제2 특징점(M2(k+1))으로 나타난다.A feature point extraction process according to the present invention will be described with reference to FIG. 7. Although the feature point may be extracted after photographing the upper side once, an operation of extracting the feature point by photographing twice during the movement will be described. As shown in FIG. 7, when comparing the first mark C1 and the second mark N1, the robot cleaner moves and the first time k and the second time k + through the
상기 특징점추출유닛(120)은 제1 마크(C1)과 제2 마크(N1)에 대한 상방 영상 정보의 특징점인 제1 특징점(M1(k)), 제2 특징점(M2(k))과, 제1 특징점(M1(k+1)), 제2 특징점(M2(k+1))을 각각 매칭하고, 비교하여 특징점 간의 이동거리를 산출한다. 즉 도 7의 (c)에 도시한 바와 같이, 제1 시간(k) 및 제2 시간(k+1)에 촬영된 영상 정보의 특징점을 상호 비교하여 제1 특징점의 이동거리(PL1), 제2 특징점의 이동거리(PL2)를 연산한다. 이때, 로봇 청소기의 이동에 따른 제1 마크(C1) 및 제2 마크(N1)와 로봇 청소기 간의 이동거리(L1)는 일정하고 로봇 청소기의 실제 이동거리와 동일하다. 그러나, 촬영된 영상 정보의 특징점의 이동거리인 PL1과 PL2는 서로 상이하다. 마크의 거리가 멀수록 마크에 대한 특징점의 이동거리는 작은데 반하여 마크가 로봇 청소기에 가까이 있을 수록, 즉 천장면보다 낮은 벽면에 위치할 수록 특징점의 이동거리 차가 커지게 된다. 그에 따라, 상기 특징점추출유닛(120)은 제2 마크(N1)와 같이 로봇 청소기의 이동에 따른 특징점의 이동비율이 소정비율 이상인 경우, 불필요한 특징점인 것으로 판단하여 제거한다.The feature
한편, 상기 이동거리들은 상기 로봇 청소기가 미끄러지는 경우에 달라지게 된다. 즉, 로봇 청소기의 상대 위치 변동에 따라 상기 상방카메라(110)를 이용한 절대 위치 검출에 오차가 발생하게 된다.Meanwhile, the moving distances are changed when the robot cleaner slides. That is, an error occurs in the absolute position detection using the
또한, 상기 특징점추출유닛(120)은 제1 마크(C1)와 제2 마크(N1) 중 제1 마크(C1)는 천장면에 위치한 것이므로 로봇 청소기로부터 천장면까지의 거리를 이용하여 제2 마크(N1)의 높이를 연산하고, 연산된 높이가 기준 높이 이하인 경우에는 불필요한 특징점으로 판단하여 제거한다. 제1 특징점(M1)과 제2 특징점(M2)을 비교하면, 각각의 이동거리에 대하여 제1 특징점(M1)의 이동거리 PL1과 제2 특징점(M2)의 이동거리 PL2는 제1 마크, 제2 마크, 및 로봇 청소기의 실제 이동거리와 높이의 비에 비례한다. 이때, 실제 이동거리는 동일하고, 제1 특징점(M1)에 대한 높이는 천장높이 이므로, 제2 특징점(M2), 즉 제2 마크(N1)에 대한 높이 산출이 가능해진다. 여기서, 촬영된 상방 영상 정보의 중심부분에 위치하는 특징점은 천장면에 위치하는 것으로 판단하고, 중심부분에 위치한 특징점을 기준으로 특징점의 높이를 산출한다.In addition, since the first mark C1 of the first point C1 and the second mark N1 is located on the ceiling, the feature
상기 제어유닛(300)은 상기 절대위치검출유닛(100)을 통해 검출된 절대 위치를 근거로 환경 지도를 작성한다. 이때, 상기 제어유닛(300)은 상기 특징점추출유닛(120)을 구비하거나, 상기 특징점 추출 알고리즘을 구비할 수 있으며, SLAM(Simultaneous Localizaion and Mapping)을 이용하여 위치 검출 및 환경 지도 생성을 동시에 수행할 수 있다.The
한편, 상기 상대위치검출유닛(200)은 하방 영상 정보를 검출하는 하방센서를 포함한다. 상기 하방센서는, 상기 상방카메라(110)와 동일한 기능의 카메라를 사용 할 수 있으나, 상기 상방카메라(110)와 달리 하방, 즉 바닥을 촬영하여 하방 영상 정보를 획득하는 것이므로, 다른 사양의 이미지를 획득하는 센서를 사용한다. 상기 하방센서로는 빛을 이용하여 상기 하방 영상 정보를 획득하는 옵티컬 플로우 센서(Optical Flow Sensor; OFS)를 사용할 수 있다. 여기서, 상기 옵티컬 플로우 센서(OFS)는, 상기 하방 영상을 촬영하여 상기 하방 영상 정보를 획득하는 이미지센서(210)와, 상기 빛의 양을 조절하는 하나 이상의 광원(220)을 포함하여 구성된다.On the other hand, the relative
상기 옵티컬 플로우 센서를 예로 들어 상기 상대위치검출유닛(200)의 동작을 설명한다. 상기 옵티컬 플로우 센서는 로봇 청소기의 배면에 구비되어, 이동 중 하방, 즉 바닥을 촬영한다. 상기 옵티컬 플로우 센서는 상기 이미지센서(210)로부터 입력되는 하방 영상을 변환하여 소정 형식의 하방 영상 정보를 생성한다. 이때, 상기 옵티컬 플로우 센서는 렌즈(미도시)와 상기 렌즈를 조절하는 렌즈조절부(미도시)를 더 구비하는데, 상기 렌즈로는 초점거리가 짧고 심도가 깊은 팬포커스형 렌즈를 사용하는 것이 적절하고, 상기 렌즈조절부는 전후 이동되도록 하는 소정 모터와 이동수단을 구비하여 상기 렌즈를 조절한다. 또한, 상기 하나 이상의 광원(220)은 상기 이미지센서(210)에 인접하여 설치되고, 상기 이미지센서(210)에 의해 촬영되는 바닥면의 영역에 빛을 조사한다. 즉, 로봇 청소기가 평탄한 바닥을 이동하는 경우에는 상기 이미지센서(210)가 바닥면까지 일정한 거리가 유지되는 반면, 불균일한 표면의 바닥면을 이동하는 경우에는 바닥물의 요철 및 장애물에 의해 일정 거리 이상 멀어지게 된다. 이때 상기 하나 이상의 광원(220)은 상기 조사되는 빛의 양을 조절한다. 반면, 상기 옵티컬 플로우 센서는 미끄러짐과 무관하에 상대 위치 를 검출할 수 있다. 즉, 상기 옵티컬 플로우 센서를 이용하여 로봇 청소기의 하방을 관찰하도록 함으로써, 미끄러짐에 강인한 위치 보정이 가능하다.The operation of the relative
상기 제어유닛(300)은 상기 절대위치검출유닛(100)을 통해 상방 영상 정보로부터 추출된 특징점들을 이용하여 환경 지도를 생성하고, 상기 상대위치검출유닛(200)을 통해 하방 영상 정보로부터 검출된 미끄러짐에 강인한 상대 위치를 융합하여 상기 절대 위치를 보정하고, 상기 환경 지도를 다시 생성한다.The
반대로, 예를 들어 레이저 타입이 아닌 옵티컬 플로우 센서의 경우에 바닥이 반사 재질일 때 신호가 끊기는 현상이 있다. 이 때, 상기 절대위치검출유닛(100)의 영상 정보를 이용하면 슬립에 의해 신호가 끊긴 것인지, 바닥이 반사 재질이기 때문에 끊긴 것인지를 명확히 알 수 있다.On the contrary, for example, in the case of an optical flow sensor that is not a laser type, a signal may be disconnected when the bottom is a reflective material. At this time, when the image information of the absolute
도 1, 도 2 및 도 6을 함께 참조하면, 본 발명의 다른 실시예에 따른 로봇 청소기는, 일정 시간주기로 상방 영상 정보로부터 특징점을 추출하여 절대 위치를 검출하는 절대위치검출유닛(100)과, 일정 시간주기로 하방을 촬영하여 하방 영상 정보로부터 이동에 따른 상대 위치를 검출하는 상대위치검출유닛(200)과, 상기 상대 위치를 근거로 상기 절대 위치를 보정하고, 보정된 절대 위치에 따라 환경 지도를 생성하는 제어유닛(300)을 포함하여 구성되고, 상기 상대위치검출유닛(200)은 상기 하방 영상 정보를 획득하여 이를 근거로 상대 위치를 검출하는 하방센서와, 로봇 청소기의 바퀴를 구동하는 휠모터와 연결되어 직진속도와 회전속도를 검출하는 인코더(Encoder, 230)를 포함한다. 여기서, 상기 상대위치검출유닛(200)은 상기 모터의 직진속도와 회전속도를 이용하여 또 다른 상대 위치를 연산, 검출할 수 있 다.1, 2 and 6 together, the robot cleaner according to another embodiment of the present invention, the absolute
한편, 상기 상대위치검출유닛(200)은 로봇 청소기의 회전 속도를 검출하는 자이로 센서(Gyro Sensor, 240)를 더 포함한다. 여기서, 상기 상대위치검출유닛(200)은 상기 회전속도로부터 연산된 방향 정보를 이용하여 또 다른 상대 위치를 검출하고, 이를 이용하여 상기 하방센서를 통해 검출된 상대 위치를 보정한다.On the other hand, the relative
상기 본 발명의 일 실시예에 따른 로봇 청소기에서 설명한 부분은 그에 갈음하고, 이하 생략한다.Portions described in the robot cleaner according to an embodiment of the present invention are replaced with the following, and will be omitted below.
로봇 청소기는 상방 카메라(110)를 장착하면 영상처리를 통해 특징점을 획득하고 환경지도를 그릴 수 있으며, 로봇 청소기의 절대 위치를 환경지도를 바탕으로 검출할 수 있으나, 로봇 청소기의 센서들를 통한 상대 위치 검출이 부정확할 경우 환경 지도가 부정확해지면서 절대 위치 검출 오차도 커진다. 상기 센서들로는 상기 인코더(230)를 이용하거나, 상기 자이로 센서(240)를 이용하거나, 또는 가속도 센서를 이용한다. 또한 상기 센서들을 융합하여 사용한다. 또한, 이러한 속도 센서들에 발생하는 바닥면의 미끄러짐에 의해 오차를 줄이기 위해 상기 하방센서를 더 부가한다. 즉, 상기 상대위치검출유닛(200)은 상기 인코더(230)를 이용하거나, 상기 자이로 센서(240)를 이용하거나, 상기 인코더와 자이로 센서를 이용하여 용이하게 속도로부터 상대 위치를 검출하고, 바닥의 재질 등에 의해 발생하는 미끄러짐에 강인한 상기 하방센서를 이용하여 상대 위치를 보정한다. 따라서, 상기 제어유닛(300)은 상기 보정된 상대 위치를 이용하여 상기 절대위치검출유닛(100)을 통해 검출된 절대 위치를 보정하고, 환경 지도를 생성한다.The robot cleaner may be equipped with the
도 3을 참조하면, 본 발명의 일 실시예에 따른 로봇 청소기의 위치 검출 방법은, 일정 시간주기로 상방 영상 정보로부터 특징점을 추출하여 절대 위치를 검출하는 절대위치검출단계(S100)와, 일정 시간주기로 하방을 촬영하여 하방 영상 정보로부터 이동에 따른 상대 위치를 검출하는 상대위치검출단계(S200)와, 상기 상대 위치를 근거로 상기 절대 위치를 보정하는 위치보정단계(S300)와, 상기 보정된 절대 위치에 따라 환경 지도를 생성하는 지도생성단계(S400)를 포함하여 구성된다. 상기 일정 시간주기는 사용자 등에 의해 설정될 수 있다. 이하, 장치의 구성은 도 1 및 도 2의 구성을 참조한다.Referring to FIG. 3, a method of detecting a position of a robot cleaner according to an embodiment of the present disclosure includes an absolute position detection step (S100) of extracting a feature point from upper image information at a predetermined time period and detecting an absolute position at a predetermined time period. Relative position detection step (S200) of detecting the relative position according to the movement from the down image information by shooting down, position correction step (S300) for correcting the absolute position based on the relative position, and the corrected absolute position According to the map generation step (S400) for generating an environment map is configured. The predetermined time period may be set by the user or the like. Hereinafter, the configuration of the apparatus will be referred to the configuration of FIGS. 1 and 2.
도 4를 참조하면, 상기 절대위치검출단계(S100)는 일정 시간주기로 상방을 촬영하는 상방촬영과정(S110)과, 상기 촬영된 영상으로부터 상기 상방 영상 정보를 획득하는 상방정보획득과정(S120)과, 상기 상방 영상 정보로부터 특징점을 추출하는 특징점추출과정(S130)을 포함하여 구성되고, 상기 특징점을 근거로 절대 위치를 검출한다(S140). 또한, 상기 절대위치검출단계(S100)는, 상기 특징점으로부터 불필요한 특징점을 제거하는 특징점보정과정(미도시)을 더 포함할 수 있다.Referring to FIG. 4, the absolute position detecting step (S100) includes an upward photographing process (S110) of photographing the upper part at a predetermined time period, and an upper information obtaining process (S120) of obtaining the upper image information from the photographed image. And a feature point extraction process (S130) for extracting feature points from the upper image information, and detects an absolute position based on the feature points (S140). The absolute position detecting step S100 may further include a feature point correction process (not shown) for removing unnecessary feature points from the feature points.
도 7을 참조하여 본 발명에 따른 특징점 추출 과정을 예를 들어 설명한다. 상방을 일 회 촬영한 후 특징점을 추출할 수 있으나, 설명의 편의를 위해 이동 중 2회 촬영하여 특징점을 추출하는 동작을 설명한다. 도 7에 도시한 바와 같이, 제1 마크(C1)와 제2 마크(N1)를 비교할 때, 로봇 청소기가 이동하면서 제1 시간(k)과 제2 시간(k+1)에 천장면을 포함한 상방을 각각 촬영한다(S110). 이때, 제1 시간(k)과 제2 시간(k+1)에 촬영되는 상방 영상 정보에서의 제1 마크(C1)과 제2 마크(N1) 는 제1 특징점(M1)과 제2 특징점(M2)으로 나타나게 된다. 이때, 제1 마크(C1)와 제2 마크(N1)는 제1 특징점(M1(k)), 제2 특징점(M2(k))으로 나타난다. 한편, 제2 시간(k+1)에서의 제1 마크(C1)와 제2 마크(N1)는 제1 특징점(M1(k+1)), 제2 특징점(M2(k+1))으로 나타난다(S120).A feature point extraction process according to the present invention will be described with reference to FIG. 7. Although the feature point may be extracted after photographing the upper side once, an operation of extracting the feature point by photographing twice during the movement will be described. As shown in FIG. 7, when comparing the first mark C1 and the second mark N1, the robot cleaner includes the ceiling surface at the first time k and the second time k + 1 while moving. Each picture is photographed upward (S110). In this case, the first mark C1 and the second mark N1 in the upper image information photographed at the first time k and the second time k + 1 have the first feature point M1 and the second feature point ( M2). At this time, the first mark C1 and the second mark N1 are represented by the first feature points M1 (k) and the second feature points M2 (k). On the other hand, the first mark C1 and the second mark N1 at the second time k + 1 are the first feature points M1 (k + 1) and the second feature points M2 (k + 1). Appear (S120).
이어서, 상기 절대위치검출단계(S100)는 제1 마크(C1)과 제2 마크(N1)에 대한 상방 영상 정보의 특징점인 제1 특징점(M1(k)), 제2 특징점(M2(k))과, 제1 특징점(M1(k+1)), 제2 특징점(M2(k+1))을 각각 매칭하고, 비교하여 특징점 간의 이동거리를 산출한다. 즉 도 7의 (c)에 도시한 바와 같이, 제1 시간(k) 및 제2 시간(k+1)에 촬영된 영상 정보의 특징점을 상호 비교하여 제1 특징점의 이동거리(PL1), 제2 특징점의 이동거리(PL2)를 연산한다. 이때, 로봇 청소기의 이동에 따른 제1 마크(C1) 및 제2 마크(N1)와 로봇 청소기 간의 이동거리(L1)는 일정하고 로봇 청소기의 실제 이동거리와 동일하다. 그러나, 촬영된 영상 정보의 특징점의 이동거리인 PL1과 PL2는 서로 상이하다. 마크의 거리가 멀수록 마크에 대한 특징점의 이동거리는 작은데 반하여 마크가 로봇 청소기에 가까이 있을 수록, 즉 천장면보다 낮은 벽면에 위치할 수록 특징점의 이동거리 차가 커지게 된다. 그에 따라, 상기 절대위치검출단계(S100)는 제2 마크(N1)와 같이 로봇 청소기의 이동에 따른 특징점의 이동비율이 소정비율 이상인 경우, 불필요한 특징점인 것으로 판단하여 제거한다(S130).Subsequently, the absolute position detecting step S100 may include a first feature point M1 (k) and a second feature point M2 (k), which are feature points of upward image information of the first mark C1 and the second mark N1. ) And the first feature point M1 (k + 1) and the second feature point M2 (k + 1) are matched and compared to calculate the moving distance between the feature points. That is, as shown in (c) of FIG. 7, the moving distance PL1 and the first distance of the first feature point are compared by comparing the feature points of the image information photographed at the first time k and the second
한편, 상기 이동거리들은 상기 로봇 청소기가 미끄러지는 경우에 달라지게 된다. 즉, 로봇 청소기의 상대 위치 변동에 따라 절대 위치 검출에 오차가 발생하 게 된다.Meanwhile, the moving distances are changed when the robot cleaner slides. That is, an error occurs in the absolute position detection according to the relative position variation of the robot cleaner.
또한, 상기 절대위치검출단계(S100)는 제1 마크(C1)와 제2 마크(N1) 중 제1 마크(C1)는 천장면에 위치한 것이므로 로봇 청소기로부터 천장면까지의 거리를 이용하여 제2 마크(N1)의 높이를 연산하고, 연산된 높이가 기준 높이 이하인 경우에는 불필요한 특징점으로 판단하여 제거한다. 제1 특징점(M1)과 제2 특징점(M2)을 비교하면, 각각의 이동거리에 대하여 제1 특징점(M1)의 이동거리 PL1과 제2 특징점(M2)의 이동거리 PL2는 제1 마크, 제2 마크, 및 로봇 청소기의 실제 이동거리와 높이의 비에 비례한다. 이때, 실제 이동거리는 동일하고, 제1 특징점(M1)에 대한 높이는 천장높이 이므로, 제2 특징점(M2), 즉 제2 마크(N1)에 대한 높이 산출이 가능해진다. 여기서, 촬영된 상방 영상 정보의 중심부분에 위치하는 특징점은 천장면에 위치하는 것으로 판단하고, 중심부분에 위치한 특징점을 기준으로 특징점의 높이를 산출한다.Also, in the absolute position detecting step S100, since the first mark C1 of the first mark C1 and the second mark N1 is located on the ceiling surface, the second position is determined by using a distance from the robot cleaner to the ceiling surface. The height of the mark N1 is calculated, and when the calculated height is less than or equal to the reference height, it is determined as an unnecessary feature point and removed. When the first feature point M1 and the second feature point M2 are compared, the movement distance PL1 of the first feature point M1 and the movement distance PL2 of the second feature point M2 are the first marks, 2 marks, and is proportional to the ratio of the actual travel distance and height of the robot cleaner. In this case, since the actual moving distance is the same and the height of the first feature point M1 is the ceiling height, the height of the second feature point M2, that is, the second mark N1, can be calculated. Here, it is determined that the feature point located at the center of the captured upper image information is located at the ceiling surface, and the height of the feature point is calculated based on the feature point located at the center.
상기 지도생성단계(S400)는 상기 절대위치검출단계(S100)에서 검출된 절대 위치를 근거로 환경 지도를 작성한다. 이때, 상기 지도생성단계(S400)는 상기 특징점 추출 알고리즘을 구비할 수 있으며, SLAM(Simultaneous Localizaion and Mapping)을 이용하여 위치 검출 및 환경 지도 생성을 동시에 수행할 수 있다.The map generation step S400 prepares an environment map based on the absolute position detected in the absolute position detection step S100. In this case, the map generation step S400 may include the feature point extraction algorithm, and simultaneously perform location detection and environment map generation using Simulaneous Localizaion and Mapping (SLAM).
한편, 도 4를 참조하면, 상기 상대위치검출단계(S200)는 일정 시간주기로 하방을 촬영하는 하방촬영과정(S210)과, 상기 촬영된 영상으로부터 상기 하방 영상 정보를 획득하는 하방정보획득과정(S220)을 포함하고, 상기 하방 영상 정보로부터 이동에 따른 상대 위치를 검출한다(S230).On the other hand, referring to Figure 4, the relative position detection step (S200) is a downward photographing process (S210) for photographing the down at a predetermined time period and the down information acquisition process for obtaining the down image information from the photographed image (S220) ), And detects a relative position according to the movement from the down image information (S230).
또한, 상기 하방정보획득과정(S220)은, 상기 촬영된 영상에 오류 발생여부를 판단하는 과정과, 상기 판단 결과, 상기 오류가 발생하면 상기 하방에 조사되는 빛의 양을 조절하는 과정과, 상기 하방을 재 촬영하는 과정으로 구성될 수 있다.In addition, the down information acquisition process (S220), the process of determining whether an error occurs in the photographed image, and as a result of the determination, the process of adjusting the amount of light irradiated downward when the error occurs, and It may consist of a process of re-photographing the down.
상기 옵티컬 플로우 센서를 채용한 경우를 예로 들어 상기 상대위치검출단계(S200)를 설명한다. 상기 옵티컬 플로우 센서는 로봇 청소기의 배면에 구비되어, 이동 중 하방, 즉 바닥을 촬영한다(S210). 상기 상대위치검출단계(S200)는 입력되는 하방 영상을 변환하여 소정 형식의 하방 영상 정보를 생성한다(S220). 상기 하방 영상 정보를 근거로 상대 위치를 검출한다(S230).The relative position detection step S200 will be described by taking the case of employing the optical flow sensor as an example. The optical flow sensor is provided on the rear surface of the robot cleaner and photographs the bottom of the robot cleaner, that is, the floor (S210). The relative position detection step (S200) converts an inputted downward image to generate downward image information of a predetermined format (S220). The relative position is detected based on the downward image information (S230).
상기 지도생성단계(S400)는 상방 영상 정보로부터 추출된 특징점들을 이용하여 환경 지도를 생성한다. 이때, 상기 위치보정단계(S300)는 하방 영상 정보로부터 검출된 미끄러짐에 강인한 상대 위치를 융합하여 상기 절대 위치를 보정하고, 상기 지도생성단계(S400)는 환경 지도를 다시 생성한다.The map generation step S400 generates an environment map using feature points extracted from upper image information. At this time, the position correction step (S300) corrects the absolute position by fusing the relative position that is robust to the slip detected from the down image information, and the map generation step (S400) generates the environment map again.
반대로, 예를 들어 비 레이저 타입의 옵티컬 플로우 센서의 경우에 바닥이 반사 재질일 때 신호가 끊기는 현상이 있다. 이 때, 상기 절대위치검출단계(S100)에서의 영상 정보를 이용하면 슬립에 의해 신호가 끊긴 것인지, 바닥이 반사 재질이기 때문에 끊긴 것인지를 명확히 알 수 있다.On the contrary, for example, in the case of a non-laser type optical flow sensor, a signal is interrupted when the bottom is a reflective material. At this time, if the image information in the absolute position detection step (S100) is used, it is clear whether the signal is cut off due to slip or whether the bottom is cut off because it is a reflective material.
도 3 및 도 5를 함께 참조하면, 본 발명의 다른 실시예에 따른 로봇 청소기의 위치 검출 방법은, 일정 시간주기로 상방 영상 정보로부터 특징점을 추출하여 절대 위치를 검출하는 절대위치검출단계(S100)와, 일정 시간주기로 하방을 촬영하여 하방 영상 정보로부터 이동에 따른 상대 위치를 검출하는 상대위치검출단 계(S200)와, 상기 상대 위치를 근거로 상기 절대 위치를 보정하는 위치보정단계(S300)와, 상기 보정된 절대 위치에 따라 환경 지도를 생성하는 지도생성단계(S400)를 포함하여 구성된다. 이하, 장치의 구성은 도 1 및 도 2를 참조하고, 상기 일 실시예에 따른 위치 검출 방법에서 설명한 부분은 생략하고, 그에 갈음한다.3 and 5 together, the position detection method of the robot cleaner according to another embodiment of the present invention, the absolute position detection step (S100) for detecting the absolute position by extracting the feature point from the upper image information at a predetermined time period; A relative position detection step (S200) of detecting a relative position according to a movement from down image information by photographing downwards at a predetermined time period, and a position correction step (S300) of correcting the absolute position based on the relative position; It comprises a map generation step (S400) for generating an environment map according to the corrected absolute position. Hereinafter, the structure of the apparatus will be described with reference to FIGS. 1 and 2, and the parts described in the position detecting method according to the above embodiment will be omitted and replaced.
이때, 상기 상대위치검출단계(S200)는 일정 시간주기로 하방을 촬영하는 하방촬영과정(S210)과, 상기 촬영된 영상으로부터 상기 하방 영상 정보를 획득하는 하방정보획득과정(S220)과, 상기 하방 영상 정보로부터 이동에 따른 제1 상대 위치를 검출하는 제1 검출과정(S230)과, 로봇 청소기의 바퀴를 구동하는 휠모터의 속도를 검출하는 속도검출과정(S240)과, 상기 속도로부터 연산된 위치 정보를 이용하여 제2 상대 위치를 검출하는 제2 검출과정(S250)과, 상기 제2 상대 위치를 근거로 제1 상대 위치를 보정하는 과정(S280 내지 S281)를 포함하여 구성된다. 상기 제2 상대 위치를 근거로 제1 상대 위치를 보정하는 과정은 상기 제1 상대 위치와 상기 제2 상대 위치를 비교하여, 미리 설정된 오차 범위 내인지 판단하는 과정(S280)과, 상기 판단 결과 오차 범위를 벗어나면 상기 제2 상대 위치를 근거로 제1 상대 위치를 보정한다. 여기서, 상기 오차 범위는 사용자 등에 의해 미리 설정된다. 물론, 상기 제1 상대 위치를 근거로 제2 상대 위치를 보정할 수도 있다(S281). 상기 보정 후 최종적으로 상대 위치를 검출한다(S290).In this case, the relative position detection step (S200) is a down shooting process (S210) for shooting down at a predetermined time period, and down information acquisition process (S220) for obtaining the down image information from the captured image, and the down image A first detection process (S230) for detecting a first relative position according to movement from the information, a speed detection process (S240) for detecting a speed of a wheel motor driving the wheel of the robot cleaner, and position information calculated from the speed A second detection process (S250) for detecting a second relative position using the step and correcting the first relative position based on the second relative position (S280 to S281) is configured. Correcting the first relative position based on the second relative position includes comparing the first relative position with the second relative position to determine whether the first relative position is within a preset error range (S280), and the determination result error. If out of the range, the first relative position is corrected based on the second relative position. Here, the error range is set in advance by the user or the like. Of course, the second relative position may be corrected based on the first relative position (S281). After the correction, the relative position is finally detected (S290).
즉, 상기 위치 검출 방법은 로봇 청소기의 바퀴를 구동하는 휠모터의 직진속도 또는 회전속도를 검출하고(S240), 상기 직진속도 또는 상기 회전속도를 이중 적분하여 제2 상대 위치를 검출한다(S250). 한편, 상기 위치 검출 방법은 로봇 청소 기의 하방, 즉 바닥을 촬영하고(S210), 상기 촬영된 하방 영상으로부터 하방 영상 정보를 획득하여(S220), 상기 하방 영상 정보를 근거로 제1 상대 위치를 검출한다(S230). 상기 제2 상대 위치는 로봇 청소기의 구성으로부터 용이하게 위치를 검출 할 수 있는데 반해, 바닥 재질의 특성에 따른 미끄러짐 등에 의해 위치 오차가 발생한다. 반면, 상기 제1 상대 위치는 상기 미끄러짐에 강인하게 상대 위치를 검출할 수 있다. 그런 다음, 상기 제1 상대 위치와 제2 상대 위치를 비교한다(S280). 양 상대 위치의 차가 오차 범위 내인지 판단하고(S280), 판단 결과에 따라 상대 위치를 보정하여(S281) 최종적으로 상대 위치를 검출한다(S290).That is, the position detection method detects a straight speed or a rotation speed of the wheel motor driving the wheel of the robot cleaner (S240), and detects a second relative position by double integration of the straight speed or the rotation speed (S250). . Meanwhile, the position detecting method photographs the bottom of the robot cleaner, that is, the bottom (S210), obtains down image information from the photographed down image (S220), and determines a first relative position based on the down image information. It is detected (S230). Wherein the second relative position can be easily detected from the configuration of the robot cleaner, the position error occurs due to the sliding according to the characteristics of the floor material. On the other hand, the first relative position can detect the relative position robustly to the slip. Then, the first relative position and the second relative position is compared (S280). It is determined whether the difference between the two relative positions is within the error range (S280), the relative position is corrected according to the determination result (S281), and finally the relative position is detected (S290).
한편, 상기 상대위치검출단계(S200)는 일정 시간주기로 하방을 촬영하는 하방촬영과정(S210)과, 상기 촬영된 영상으로부터 상기 하방 영상 정보를 획득하는 하방정보획득과정(S220)과, 상기 하방 영상 정보로부터 이동에 따른 제1 상대 위치를 검출하는 제1 검출과정(S230)과, 로봇 청소기의 회전 속도를 검출하는 회전속도검출과정(S260)과, 상기 회전속도로부터 연산된 방향 정보를 이용하여 제3 상대 위치를 검출하는 제3 검출과정(S270)과, 상기 제3 상대 위치를 근거로 제1 상대 위치를 보정하는 과정(S280 내지 S281)를 포함하여 구성된다. 상기 제3 상대 위치를 근거로 제1 상대 위치를 보정하는 과정은 상기 제1 상대 위치와 상기 제3 상대 위치를 비교하여, 미리 설정된 오차 범위 내인지 판단하는 과정(S280)과, 상기 판단 결과 오차 범위를 벗어나면 상기 제3 상대 위치를 근거로 제1 상대 위치를 보정한다(S281). 여기서, 상기 오차 범위는 사용자 등에 의해 미리 설정된다. 물론, 상기 제1 상대 위치를 근거로 제3 상대 위치를 보정할 수도 있다. 상기 보정 후 최종적 으로 상대 위치를 검출한다(S290).On the other hand, the relative position detection step (S200) is a downward photographing process (S210) for photographing the down at a predetermined time period, the down information acquisition process (S220) for obtaining the down image information from the photographed image and the down image A first detection process (S230) for detecting a first relative position according to movement from the information, a rotation speed detection process (S260) for detecting a rotation speed of the robot cleaner, and a direction information calculated from the rotation speed; And a third detection step (S270) of detecting the third relative position, and a step (S280 to S281) of correcting the first relative position based on the third relative position. Compensating the first relative position based on the third relative position includes comparing the first relative position with the third relative position to determine whether the first relative position is within a preset error range (S280), and the determination result error. If out of the range, the first relative position is corrected based on the third relative position (S281). Here, the error range is set in advance by the user or the like. Of course, the third relative position may be corrected based on the first relative position. Finally, the relative position is detected after the correction (S290).
즉, 로봇 청소기의 방향을 검출하는 자이로 센서 등을 이용하여 로봇 청소기의 회전속도, 즉 각속도를 검출하고(S260), 상기 각속도를 이중 적분하여 제3 상대 위치를 검출한다(S270). 한편, 로봇 청소기의 하방, 즉 바닥을 촬영하고(S210), 상기 촬영된 하방 영상으로부터 하방 영상 정보를 획득하여(S220), 상기 하방 영상 정보를 근거로 제1 상대 위치를 검출한다(S230). 상기 제3 상대 위치는 로봇 청소기의 구성으로부터 용이하게 위치를 검출 할 수 있는데 반해, 바닥 재질의 특성에 따른 미끄러짐 등에 의해 위치 오차가 발생한다. 반면, 상기 제1 상대 위치는 상기 미끄러짐에 강인하게 상대 위치를 검출할 수 있다. 그런 다음, 상기 제1 상대 위치와 제3 상대 위치를 비교한다(S280). 양 상대 위치의 차가 오차 범위 내인지 판단하고(S280), 판단 결과에 따라 상대 위치를 보정하여(S281) 최종 상대 위치를 검출한다(S290).That is, the rotation speed, that is, the angular velocity of the robot cleaner, is detected using a gyro sensor for detecting the direction of the robot cleaner (S260), and the third relative position is detected by double integration of the angular velocity (S270). Meanwhile, the robot cleaner is photographed downward, that is, the floor (S210), and the down image information is obtained from the photographed down image (S220), and a first relative position is detected based on the down image information (S230). Wherein the third relative position can be easily detected from the configuration of the robot cleaner, the position error occurs due to the sliding according to the characteristics of the floor material. On the other hand, the first relative position can detect the relative position robustly to the slip. Then, the first relative position and the third relative position is compared (S280). It is determined whether the difference between the two relative positions is within the error range (S280), the relative position is corrected according to the determination result (S281), and the final relative position is detected (S290).
또한, 상기 상대위치검출단계(S200)는 상기 휠모터의 직진속도 또는 회전속도에 따른 제2 상대 위치, 상기 로봇 청소기의 회전 속도, 즉 각속도에 따른 제3 상대 위치와, 상기 하방 영상 정보에 따른 제1 상대 위치를 한번에 비교하여(S280), 상기 비교 결과에 따라 상대 위치를 결정할 수 있다(S290).In addition, the relative position detection step (S200) is according to the second relative position according to the straight or rotational speed of the wheel motor, the rotational speed of the robot cleaner, that is, the third relative position according to the angular speed, and the down image information By comparing the first relative position at once (S280), it is possible to determine the relative position according to the comparison result (S290).
이에 따라, 상기 지도생성단계(S400)는 상방 영상 정보로부터 추출된 특징점들을 이용하여 환경 지도를 생성한다. 이때, 상기 위치보정단계(S300)는 하방 영상 정보로부터 검출된 미끄러짐에 강인한 상대 위치를 융합하여 상기 절대 위치를 보정하고, 상기 지도생성단계(S400)는 환경 지도를 다시 생성한다.Accordingly, the map generation step S400 generates an environment map using the feature points extracted from the upper image information. At this time, the position correction step (S300) corrects the absolute position by fusing the relative position that is robust to the slip detected from the down image information, and the map generation step (S400) generates the environment map again.
반대로, 레이저 타입이 아닌 옵티컬 플로우 센서의 경우에 바닥이 반사 재질일 때 신호가 끊기는 현상이 있다. 이 때, 상기 절대위치검출단계(S100)에서의 영상 정보를 이용하면 슬립에 의해 신호가 끊긴 것인지, 바닥이 반사 재질이기 때문에 끊긴 것인지를 명확히 알 수 있다.On the contrary, in the case of an optical flow sensor that is not a laser type, a signal is broken when the bottom is a reflective material. At this time, if the image information in the absolute position detection step (S100) is used, it is clear whether the signal is cut off due to slip or whether the bottom is cut off because it is a reflective material.
상기한 바와 같이, 본 발명에 따른 로봇 청소기 및 그의 위치 검출 방법은 상방 카메라를 포함하는 절대 위치를 검출하는 유닛과 하방 이미지센서를 포함하는 상대 위치를 검출하는 유닛을 구비함으로써 미끄러짐으로 인한 위치 오차를 줄이고, 로봇 청소기의 위치를 정밀하게 검출할 수 있고, 이에 따라 누락 없이 청소 영역을 청소할 수 있다. 또한, 본 발명에 따라 바닥 환경 변화에 강인하고, 상방카메라가 동작하지 못하는 어두운 환경에서도 위치 인식 오차를 줄일 수 있다.As described above, the robot cleaner and the method for detecting its position according to the present invention include a unit for detecting an absolute position including an upper camera and a unit for detecting a relative position including a lower image sensor to reduce a position error due to slipping. It is possible to reduce and precisely detect the position of the robot cleaner, thereby cleaning the cleaning area without omission. In addition, according to the present invention, it is resistant to changes in the floor environment, and can reduce the position recognition error even in a dark environment in which the upper camera cannot operate.
도 1은 본 발명의 일 실시예에 따른 로봇 청소기의 구성을 개략적으로 보인 블록도;1 is a block diagram schematically showing the configuration of a robot cleaner according to an embodiment of the present invention;
도 2는 본 발명의 다른 실시예에 따른 로봇 청소기의 상대 위치 검출 유닛의 구성을 개략적으로 보인 블록도;2 is a block diagram schematically showing the configuration of a relative position detection unit of a robot cleaner according to another embodiment of the present invention;
도 3은 본 발명의 일 실시예에 따른 로봇 청소기의 위치 검출 방법을 개략적으로 보인 흐름도;3 is a flow chart schematically showing a method for detecting a position of a robot cleaner according to an embodiment of the present invention;
도 4는 도 3의 위치 검출 방법을 설명하기 위한 일 예를 보인 흐름도;4 is a flowchart illustrating an example for describing the position detection method of FIG. 3;
도 5는 본 발명의 다른 실시예에 따른 로봇 청소기의 위치 검출 방법의 상대 위치 검출 방법을 개략적으로 보인 흐름도;5 is a flow chart schematically showing a relative position detection method of the position detection method of the robot cleaner according to another embodiment of the present invention;
도 6은 본 발명에 따른 로봇 청소기의 외관을 보인 사시도;6 is a perspective view showing the appearance of the robot cleaner according to the present invention;
도 7은 본 발명에 따른 로봇 청소기의 절대 위치 검출 방법을 설명하기 위한 개념도이다.7 is a conceptual view illustrating an absolute position detection method of the robot cleaner according to the present invention.
Claims (13)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090017750A KR101553950B1 (en) | 2009-03-02 | 2009-03-02 | Robot cleaner and method for detecting position thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090017750A KR101553950B1 (en) | 2009-03-02 | 2009-03-02 | Robot cleaner and method for detecting position thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100098999A true KR20100098999A (en) | 2010-09-10 |
KR101553950B1 KR101553950B1 (en) | 2015-09-17 |
Family
ID=43005592
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090017750A KR101553950B1 (en) | 2009-03-02 | 2009-03-02 | Robot cleaner and method for detecting position thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101553950B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101303161B1 (en) * | 2011-10-18 | 2013-09-09 | 엘지전자 주식회사 | Mobile robot and controlling method of the same |
KR101417315B1 (en) * | 2012-08-13 | 2014-07-10 | 서울과학기술대학교 산학협력단 | Robot cleaner |
US10112302B2 (en) | 2014-09-03 | 2018-10-30 | Dyson Technology Limited | Mobile robot |
US10144342B2 (en) | 2014-09-03 | 2018-12-04 | Dyson Technology Limited | Mobile robot |
KR102047303B1 (en) * | 2018-06-01 | 2019-11-21 | 엘지전자 주식회사 | Robot of estimating direction based on vanishing point of low luminance image and method estimating thereof |
EP3224003B1 (en) | 2014-11-26 | 2020-04-08 | iRobot Corporation | Systems and methods of use of optical odometry sensors in a mobile robot |
WO2020218644A1 (en) * | 2019-04-25 | 2020-10-29 | 엘지전자 주식회사 | Method and robot for redefining location of robot by using artificial intelligence |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101844744B1 (en) * | 2016-01-20 | 2018-04-05 | 주식회사 유진로봇 | Remote control apparatus and system for a mobile robot, and method thereof |
KR20210015599A (en) | 2019-07-31 | 2021-02-10 | 엘지전자 주식회사 | The Moving Robot and The Method of calculating driving distance for Moving Robot |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100791381B1 (en) | 2006-06-01 | 2008-01-07 | 삼성전자주식회사 | System, apparatus and method to prevent collision for remote control of mobile robot |
-
2009
- 2009-03-02 KR KR1020090017750A patent/KR101553950B1/en not_active IP Right Cessation
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101303161B1 (en) * | 2011-10-18 | 2013-09-09 | 엘지전자 주식회사 | Mobile robot and controlling method of the same |
KR101417315B1 (en) * | 2012-08-13 | 2014-07-10 | 서울과학기술대학교 산학협력단 | Robot cleaner |
US10112302B2 (en) | 2014-09-03 | 2018-10-30 | Dyson Technology Limited | Mobile robot |
US10144342B2 (en) | 2014-09-03 | 2018-12-04 | Dyson Technology Limited | Mobile robot |
EP3224003B1 (en) | 2014-11-26 | 2020-04-08 | iRobot Corporation | Systems and methods of use of optical odometry sensors in a mobile robot |
KR102047303B1 (en) * | 2018-06-01 | 2019-11-21 | 엘지전자 주식회사 | Robot of estimating direction based on vanishing point of low luminance image and method estimating thereof |
US11801604B2 (en) | 2018-06-01 | 2023-10-31 | Lg Electronics Inc. | Robot of estimating direction based on vanishing point of low luminance image and method estimating thereof |
WO2020218644A1 (en) * | 2019-04-25 | 2020-10-29 | 엘지전자 주식회사 | Method and robot for redefining location of robot by using artificial intelligence |
US11347226B2 (en) | 2019-04-25 | 2022-05-31 | Lg Electronics Inc. | Method of redefining position of robot using artificial intelligence and robot of implementing thereof |
Also Published As
Publication number | Publication date |
---|---|
KR101553950B1 (en) | 2015-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101553950B1 (en) | Robot cleaner and method for detecting position thereof | |
KR101542498B1 (en) | Robot cleaner and method for detecting position thereof | |
EP3009238B1 (en) | Robot cleaner and method for controlling the same | |
KR101366860B1 (en) | Mobile robot and controlling method of the same | |
KR102275300B1 (en) | Moving robot and control method thereof | |
EP3224003B1 (en) | Systems and methods of use of optical odometry sensors in a mobile robot | |
AU2005201155B2 (en) | Method compensating gyro sensor for robot cleaner | |
CN109394095B (en) | Robot movement carpet deviation control method, chip and cleaning robot | |
KR101513639B1 (en) | Mobile robot robot cleaner and method for detecting angles of the mobile robot | |
KR100871114B1 (en) | Moving robot and operating method for same | |
KR101637359B1 (en) | Cleaner | |
KR20120006408A (en) | Robot cleaner and controlling method of the same | |
KR20120006407A (en) | Robot cleaner and controlling method of the same | |
JP2006185438A (en) | Robot control device | |
KR20190093800A (en) | a Moving robot and Controlling method for the moving robot | |
KR101697857B1 (en) | Moving robot and method for recognizing a location of the same | |
KR102423573B1 (en) | A robot cleaner using artificial intelligence and control method thereof | |
KR101303161B1 (en) | Mobile robot and controlling method of the same | |
KR100825919B1 (en) | Distance measurement sensor, moving robot having the distance measurement sensor and driving method for moving robot using the moving robot | |
KR20200105916A (en) | Robot vacuum cleaner and its control method | |
KR20130000278A (en) | Robot cleaner and controlling method of the same | |
KR20190089794A (en) | Moving robot and method for operating the same | |
TW202022519A (en) | Information processing device and mobile robot | |
KR20190119231A (en) | Driving control device improved position correcting function and robot cleaner using the same | |
KR100784125B1 (en) | Method for extracting coordinates of landmark of mobile robot with a single camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
J201 | Request for trial against refusal decision | ||
AMND | Amendment | ||
B701 | Decision to grant | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |