KR20100098999A - Robot cleaner and method for detecting position thereof - Google Patents

Robot cleaner and method for detecting position thereof Download PDF

Info

Publication number
KR20100098999A
KR20100098999A KR1020090017750A KR20090017750A KR20100098999A KR 20100098999 A KR20100098999 A KR 20100098999A KR 1020090017750 A KR1020090017750 A KR 1020090017750A KR 20090017750 A KR20090017750 A KR 20090017750A KR 20100098999 A KR20100098999 A KR 20100098999A
Authority
KR
South Korea
Prior art keywords
relative position
downward
image information
detecting
robot cleaner
Prior art date
Application number
KR1020090017750A
Other languages
Korean (ko)
Other versions
KR101553950B1 (en
Inventor
백승민
김영기
윤정석
이성수
김예빈
최유진
나상익
최수욱
이동훈
이제훈
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020090017750A priority Critical patent/KR101553950B1/en
Publication of KR20100098999A publication Critical patent/KR20100098999A/en
Application granted granted Critical
Publication of KR101553950B1 publication Critical patent/KR101553950B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/02Nozzles
    • A47L9/04Nozzles with driven brushes or agitators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

PURPOSE: A robot cleaner and a position detecting method there are provided to detect the absolute position of a robot cleaner according to the slick condition of a floor using sensors in all directions. CONSTITUTION: A robot cleaner comprises an absolute position detecting part(100), a relative position detecting part(200), and a control part(300). The absolute position detecting part detects absolute position by extracting a feature point from the upward video information in a regular interval. The relative position detecting part comprises a downward sensor. The downward sensor takes a downward image for a specific time cycle and detects the downward video information. The control part revises the absolute position based on a relative position and produces an environmental map according to the revised absolute position.

Description

로봇 청소기 및 그의 위치 검출 방법{ROBOT CLEANER AND METHOD FOR DETECTING POSITION THEREOF}ROBOT CLEANER AND METHOD FOR DETECTING POSITION THEREOF}

본 발명은 바닥의 미끄러짐 조건에 강인하게 로봇 청소기의 절대 위치를 검출할 수 있는 로봇 청소기 및 그의 위치 검출 방법에 관한 것이다.The present invention relates to a robot cleaner capable of detecting the absolute position of the robot cleaner robustly to the sliding condition of the floor, and a method for detecting the position thereof.

일반적으로 로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다.In general, robots have been developed for industrial use and have been a part of factory automation. Recently, the application of robots has been further expanded, medical robots, aerospace robots, and the like have been developed, and home robots that can be used in general homes have also been made.

상기 가정용 로봇의 대표적인 예는 로봇 청소기로서, 일정 영역을 스스로 주행하면서 주변의 먼지 또는 이물질을 흡입하여 청소하는 가전기기의 일종이다. 이러한 로봇 청소기는 일반적으로 충전 가능한 배터리를 구비하고, 주행 중 장애물을 피할 수 있는 장애물 센서를 구비하여 스스로 주행하며 청소할 수 있다.A representative example of the home robot is a robot cleaner, which is a kind of home appliance that cleans by suctioning dust or foreign matter while driving around a certain area by itself. Such a robot cleaner generally includes a rechargeable battery, and includes an obstacle sensor that can avoid obstacles while driving, so that the robot cleaner can run and clean itself.

상기 로봇 청소기가 스스로 주행하면서 영역을 모두 청소하기 위해서는 청소가 된 영역과 청소를 하여야 할 영역 등 청소 영역을 판단할 수 있어야 하고, 이러한 청소 영역을 파악하기 위해서는 자기 위치를 파악하는 기능을 보유하여야 한다.In order to clean all the areas while the robot cleaner runs by itself, the robot cleaner should be able to determine the cleaning area such as the cleaned area and the area to be cleaned, and have a function of identifying the magnetic location to identify the cleaning area. .

종래 기술에 따른 로봇 청소기는 구동 모터에 연결된 인코더(Encoder), 자이 로스코프(Gyroscope, 자이로 센서, 각속도 센서)등의 로봇의 상대적인 동작의 변화를 추정할 수 있는 센서들을 통해 위치를 검출하였다. 그러나, 종래 기술에 따른 로봇 청소기는 미끄러짐이 심하게 발생하는 바닥과 같은 유사한 조건 하에서 미끄러짐으로 인해 위치 오차가 크게 발생하는 문제점이 있다.The robot cleaner according to the related art detects a position through sensors capable of estimating a change in relative motion of a robot such as an encoder connected to a driving motor, a gyroscope, a gyro sensor, and an angular velocity sensor. However, the robot cleaner according to the related art has a problem in that a large position error occurs due to slipping under similar conditions such as a floor on which slipping occurs badly.

본 발명은 상방 카메라와 하방 이미지센서를 구비하여 바닥의 미끄러짐 조건에 강인하게 로봇 청소기의 절대 위치를 검출할 수 있는 로봇 청소기 및 그의 위치 검출 방법을 제공함에 그 목적이 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide a robot cleaner and a method for detecting a position thereof, including an upper camera and a lower image sensor, capable of detecting the absolute position of the robot cleaner robustly to the sliding condition of the floor.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 로봇 청소기는, 일정 시간주기로 상방 영상 정보로부터 특징점을 추출하여 절대 위치를 검출하는 절대위치검출유닛과, 일정 시간주기로 하방을 촬영하여 하방 영상 정보를 검출하는 하방센서를 구비하고, 상기 하방 영상 정보로부터 이동에 따른 상대 위치를 검출하는 상대위치검출유닛과, 상기 상대 위치를 근거로 상기 절대 위치를 보정하고, 보정된 절대 위치에 따라 환경 지도를 생성하는 제어유닛을 포함하여 구성된다.Robot cleaner according to an embodiment of the present invention for achieving the above object, the absolute position detection unit for detecting the absolute position by extracting the feature point from the upper image information at a predetermined time period, and the down image information by shooting down at a predetermined time period And a lower position sensor for detecting a position, a relative position detecting unit detecting a relative position according to movement from the lower image information, and correcting the absolute position based on the relative position, and adjusting an environment map according to the corrected absolute position. It is configured to include a control unit for generating.

또한, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 로봇 청소기의 위치 검출 방법은, 일정 시간주기로 상방 영상 정보로부터 특징점을 추출하여 절대 위치를 검출하는 절대위치검출단계와, 일정 시간주기로 하방을 촬영하여 하방 영상 정보로부터 이동에 따른 상대 위치를 검출하는 상대위치검출단계와, 상기 상대 위치를 근거로 상기 절대 위치를 보정하는 위치보정단계와, 상기 보정된 절대 위치에 따라 환경 지도를 생성하는 지도생성단계를 포함하여 구성된다.In addition, the position detection method of the robot cleaner according to an embodiment of the present invention for achieving the above object, the absolute position detection step of detecting the absolute position by extracting the feature point from the upper image information at a predetermined time period, and downward at a predetermined time period A relative position detection step of detecting a relative position according to a movement from down image information by photographing the position, a position correction step of correcting the absolute position based on the relative position, and generating an environment map according to the corrected absolute position It includes a map generation step.

본 발명에 따라 상방 카메라를 포함하는 절대 위치를 검출하는 유닛과 하방 이미지센서를 포함하는 상대 위치를 검출하는 유닛을 구비함으로써 미끄러짐으로 인한 위치 오차를 줄이고, 로봇 청소기의 위치를 정밀하게 검출할 수 있다.According to the present invention, by including a unit for detecting an absolute position including an upper camera and a unit for detecting a relative position including a lower image sensor, it is possible to reduce the position error due to slippage and to accurately detect the position of the robot cleaner. .

아울러, 본 발명에 따라 누락 없이 청소 영역을 청소할 수 있게 됨으로써 사용자 편의성을 제고하고, 시스템의 안정성을 향상시킨다.In addition, the cleaning area can be cleaned without omission according to the present invention, thereby improving user convenience and improving system stability.

이하, 첨부한 도면을 참조하여 본 발명에 따른 로봇 청소기 및 그의 위치 검출 방법을 상세히 설명한다.Hereinafter, a robot cleaner and a position detection method thereof according to the present invention will be described in detail with reference to the accompanying drawings.

도 1 및 도 6을 함께 참조하면, 본 발명의 일 실시예에 따른 로봇 청소기는, 일정 시간주기로 상방 영상 정보로부터 특징점을 추출하여 절대 위치를 검출하는 절대위치검출유닛(100)과, 일정 시간주기로 하방을 촬영하여 하방 영상 정보로부터 이동에 따른 상대 위치를 검출하는 상대위치검출유닛(200)과, 상기 상대 위치를 근거로 상기 절대 위치를 보정하고, 보정된 절대 위치에 따라 환경 지도를 생성하는 제어유닛(300)을 포함하여 구성된다. 또한, 로봇 청소기는 충전 가능한 배터리 형식의 전원 공급 수단을 구비한 전원유닛(400)과, 다수의 바퀴를 구비하여 로봇 청소기를 이동시키는 주행유닛(500)과, 이동 중 주변과 바닥면의 먼지 및 이물질을 흡입하는 청소유닛(600)과, 하나 이상의 버튼을 구비하여 데이터 입력이 가능한 입력유닛(700)과, 현재 동작 상태 및 설정 모드에 대한 정보 등을 표시하는 출력유닛(800)과, 상기 환경 지도와 주행 경로 등을 저장하는 저장유닛(900)을 더 포함하여 구성된다.1 and 6 together, the robot cleaner according to an embodiment of the present invention, the absolute position detection unit 100 for detecting the absolute position by extracting the feature point from the upper image information at a predetermined time period, and at a predetermined time period A relative position detection unit 200 which detects a relative position according to movement from the downward image information by photographing downward, and corrects the absolute position based on the relative position, and generates an environment map according to the corrected absolute position It comprises a unit 300. In addition, the robot cleaner includes a power unit 400 having a rechargeable battery-type power supply means, a traveling unit 500 including a plurality of wheels to move the robot cleaner, dust and dust on the periphery and the bottom surface during the movement. A cleaning unit 600 for sucking foreign substances, an input unit 700 capable of data input with one or more buttons, an output unit 800 for displaying information on a current operating state and a setting mode, and the environment It further comprises a storage unit 900 for storing the map and the driving route.

상기 전원유닛(400)은 로봇 청소기가 이동하고, 청소를 수행하는데 따른 동 작 전원을 공급하며, 상기 배터리 잔량이 부족하면 충전대로부터 충전 전류를 공급받아 충전한다. 상기 주행유닛(500)은 상기 다수의 바퀴와, 상기 바퀴를 회전시키는 소정의 휠모터를 구비하고, 상기 제어유닛(300)은 상기 휠모터를 구동하여 로봇 청소기가 이동하도록 한다. 상기 청소유닛(600)은 공기를 빨이들이기 위한 소정의 흡입 모터와, 먼지를 응집하는 수단을 구비하고, 주행 중 발생되는 주변의 먼지 또는 이물질을 흡입한다. 또한, 본 발명에 따른 로봇 청소기는 다수의 센서를 구비하여 주변의 장애물을 감지하는 장애물감지유닛(미도시)을 더 포함할 수 있다.The power supply unit 400 supplies the operation power according to the movement of the robot cleaner and cleaning, and when the remaining battery capacity is insufficient, the power supply unit receives the charging current from the charging stand and charges it. The driving unit 500 includes the plurality of wheels and a predetermined wheel motor for rotating the wheels, and the control unit 300 drives the wheel motor to move the robot cleaner. The cleaning unit 600 includes a predetermined suction motor for sucking air, and means for agglomerating dust, and sucks dust or foreign matter from the surroundings. In addition, the robot cleaner according to the present invention may further include an obstacle detecting unit (not shown) that includes a plurality of sensors to detect an obstacle in the vicinity.

여기서, 상기 절대위치검출유닛(100)은, 일정 시간주기로 상방을 촬영하여 상기 상방 영상 정보를 획득하는 상방카메라(110)와, 상기 상방 영상 정보로부터 특징점을 추출하는 특징점추출유닛(120)을 포함하여 구성된다. 상기 일정 시간주기는 사용자 등에 의해 미리 설정될 수 있다.Here, the absolute position detection unit 100 includes a top camera 110 for acquiring the upper image information by photographing the upper direction at a predetermined time period, and a feature point extraction unit 120 for extracting feature points from the upper image information. It is configured by. The predetermined time period may be set in advance by a user or the like.

상기 상방카메라(110)는 소정의 위치에서도 상방의 모든 영역, 예를 들어 천장의 모든 영역이 촬영될 수 있도록 화각이 넓은 렌즈를 사용한다. 예를 들어 화각이 160도 이상인 렌즈를 포함한다. 상기 특징점추출유닛(120)은 임의의 표식으로부터 특징점을 추출할 수 있는데, 특히 천장면을 포함하는 상방 영역에 존재하는 형광등, 인테리어 구조물 등의 자연 표식을 이용하여 특징점을 추출한다.The upper camera 110 uses a lens having a wide angle of view so that all areas of the upper part, for example, all areas of the ceiling can be photographed even at a predetermined position. For example, it includes a lens having an angle of view of 160 degrees or more. The feature point extracting unit 120 may extract the feature point from an arbitrary mark, and in particular, extracts the feature point using a natural mark such as a fluorescent lamp or an interior structure existing in an upper region including the ceiling surface.

도 7을 참조하여 본 발명에 따른 특징점 추출 과정을 예를 들어 설명한다. 상방을 일 회 촬영한 후 특징점을 추출할 수 있으나, 설명의 편의를 위해 이동 중 2회 촬영하여 특징점을 추출하는 동작을 설명한다. 도 7에 도시한 바와 같이, 제1 마크(C1)와 제2 마크(N1)를 비교할 때, 로봇 청소기가 이동하면서 상방카메라(110) 를 통해 제1 시간(k)과 제2 시간(k+1)에 천장면을 포함한 상방을 각각 촬영한다. 이때, 제1 시간(k)과 제2 시간(k+1)에 촬영되는 상방 영상 정보에서의 제1 마크(C1)과 제2 마크(N1)는 제1 특징점(M1)과 제2 특징점(M2)으로 나타나게 된다. 이때, 제1 마크(C1)와 제2 마크(N1)는 제1 특징점(M1(k)), 제2 특징점(M2(k))으로 나타난다. 한편, 제2 시간(k+1)에서의 제1 마크(C1)와 제2 마크(N1)는 제1 특징점(M1(k+1)), 제2 특징점(M2(k+1))으로 나타난다.A feature point extraction process according to the present invention will be described with reference to FIG. 7. Although the feature point may be extracted after photographing the upper side once, an operation of extracting the feature point by photographing twice during the movement will be described. As shown in FIG. 7, when comparing the first mark C1 and the second mark N1, the robot cleaner moves and the first time k and the second time k + through the upper camera 110. Shoot 1) above, including the ceiling surface. In this case, the first mark C1 and the second mark N1 in the upper image information captured at the first time k and the second time k + 1 are the first feature point M1 and the second feature point ( M2). At this time, the first mark C1 and the second mark N1 are represented by the first feature points M1 (k) and the second feature points M2 (k). On the other hand, the first mark C1 and the second mark N1 at the second time k + 1 are the first feature points M1 (k + 1) and the second feature points M2 (k + 1). appear.

상기 특징점추출유닛(120)은 제1 마크(C1)과 제2 마크(N1)에 대한 상방 영상 정보의 특징점인 제1 특징점(M1(k)), 제2 특징점(M2(k))과, 제1 특징점(M1(k+1)), 제2 특징점(M2(k+1))을 각각 매칭하고, 비교하여 특징점 간의 이동거리를 산출한다. 즉 도 7의 (c)에 도시한 바와 같이, 제1 시간(k) 및 제2 시간(k+1)에 촬영된 영상 정보의 특징점을 상호 비교하여 제1 특징점의 이동거리(PL1), 제2 특징점의 이동거리(PL2)를 연산한다. 이때, 로봇 청소기의 이동에 따른 제1 마크(C1) 및 제2 마크(N1)와 로봇 청소기 간의 이동거리(L1)는 일정하고 로봇 청소기의 실제 이동거리와 동일하다. 그러나, 촬영된 영상 정보의 특징점의 이동거리인 PL1과 PL2는 서로 상이하다. 마크의 거리가 멀수록 마크에 대한 특징점의 이동거리는 작은데 반하여 마크가 로봇 청소기에 가까이 있을 수록, 즉 천장면보다 낮은 벽면에 위치할 수록 특징점의 이동거리 차가 커지게 된다. 그에 따라, 상기 특징점추출유닛(120)은 제2 마크(N1)와 같이 로봇 청소기의 이동에 따른 특징점의 이동비율이 소정비율 이상인 경우, 불필요한 특징점인 것으로 판단하여 제거한다.The feature point extracting unit 120 includes a first feature point M1 (k) and a second feature point M2 (k), which are feature points of upper image information on the first mark C1 and the second mark N1, The first feature point M1 (k + 1) and the second feature point M2 (k + 1) are matched and compared to calculate the moving distance between the feature points. That is, as shown in (c) of FIG. 7, the moving distance PL1 and the first distance of the first feature point are compared by comparing the feature points of the image information photographed at the first time k and the second time k + 1. 2 Calculate the movement distance PL2 of the feature point. At this time, the moving distance L1 between the first mark C1 and the second mark N1 and the robot cleaner according to the movement of the robot cleaner is constant and is equal to the actual moving distance of the robot cleaner. However, PL1 and PL2, which are moving distances of the feature points of the captured image information, are different from each other. The farther the mark is, the smaller the movement distance of the feature point relative to the mark, while the closer the mark is to the robot cleaner, that is, the lower the ceiling surface, the larger the difference in the movement distance of the feature point. Accordingly, the feature point extraction unit 120 determines that unnecessary feature points are removed when the movement ratio of the feature points according to the movement of the robot cleaner, such as the second mark N1, is greater than or equal to a predetermined ratio.

한편, 상기 이동거리들은 상기 로봇 청소기가 미끄러지는 경우에 달라지게 된다. 즉, 로봇 청소기의 상대 위치 변동에 따라 상기 상방카메라(110)를 이용한 절대 위치 검출에 오차가 발생하게 된다.Meanwhile, the moving distances are changed when the robot cleaner slides. That is, an error occurs in the absolute position detection using the upper camera 110 according to the relative position variation of the robot cleaner.

또한, 상기 특징점추출유닛(120)은 제1 마크(C1)와 제2 마크(N1) 중 제1 마크(C1)는 천장면에 위치한 것이므로 로봇 청소기로부터 천장면까지의 거리를 이용하여 제2 마크(N1)의 높이를 연산하고, 연산된 높이가 기준 높이 이하인 경우에는 불필요한 특징점으로 판단하여 제거한다. 제1 특징점(M1)과 제2 특징점(M2)을 비교하면, 각각의 이동거리에 대하여 제1 특징점(M1)의 이동거리 PL1과 제2 특징점(M2)의 이동거리 PL2는 제1 마크, 제2 마크, 및 로봇 청소기의 실제 이동거리와 높이의 비에 비례한다. 이때, 실제 이동거리는 동일하고, 제1 특징점(M1)에 대한 높이는 천장높이 이므로, 제2 특징점(M2), 즉 제2 마크(N1)에 대한 높이 산출이 가능해진다. 여기서, 촬영된 상방 영상 정보의 중심부분에 위치하는 특징점은 천장면에 위치하는 것으로 판단하고, 중심부분에 위치한 특징점을 기준으로 특징점의 높이를 산출한다.In addition, since the first mark C1 of the first point C1 and the second mark N1 is located on the ceiling, the feature point extraction unit 120 uses the distance from the robot cleaner to the ceiling. The height of (N1) is calculated, and if the calculated height is less than or equal to the reference height, it is determined as unnecessary feature point and removed. When the first feature point M1 and the second feature point M2 are compared, the movement distance PL1 of the first feature point M1 and the movement distance PL2 of the second feature point M2 are the first marks, 2 marks, and is proportional to the ratio of the actual travel distance and height of the robot cleaner. In this case, since the actual moving distance is the same and the height of the first feature point M1 is the ceiling height, the height of the second feature point M2, that is, the second mark N1, can be calculated. Here, it is determined that the feature point located at the center of the captured upper image information is located at the ceiling surface, and the height of the feature point is calculated based on the feature point located at the center.

상기 제어유닛(300)은 상기 절대위치검출유닛(100)을 통해 검출된 절대 위치를 근거로 환경 지도를 작성한다. 이때, 상기 제어유닛(300)은 상기 특징점추출유닛(120)을 구비하거나, 상기 특징점 추출 알고리즘을 구비할 수 있으며, SLAM(Simultaneous Localizaion and Mapping)을 이용하여 위치 검출 및 환경 지도 생성을 동시에 수행할 수 있다.The control unit 300 prepares an environment map based on the absolute position detected through the absolute position detection unit 100. In this case, the control unit 300 may include the feature extraction unit 120 or the feature extraction algorithm, and simultaneously perform location detection and environment map generation using SLAM (Simultaneous Localizaion and Mapping). Can be.

한편, 상기 상대위치검출유닛(200)은 하방 영상 정보를 검출하는 하방센서를 포함한다. 상기 하방센서는, 상기 상방카메라(110)와 동일한 기능의 카메라를 사용 할 수 있으나, 상기 상방카메라(110)와 달리 하방, 즉 바닥을 촬영하여 하방 영상 정보를 획득하는 것이므로, 다른 사양의 이미지를 획득하는 센서를 사용한다. 상기 하방센서로는 빛을 이용하여 상기 하방 영상 정보를 획득하는 옵티컬 플로우 센서(Optical Flow Sensor; OFS)를 사용할 수 있다. 여기서, 상기 옵티컬 플로우 센서(OFS)는, 상기 하방 영상을 촬영하여 상기 하방 영상 정보를 획득하는 이미지센서(210)와, 상기 빛의 양을 조절하는 하나 이상의 광원(220)을 포함하여 구성된다.On the other hand, the relative position detection unit 200 includes a downward sensor for detecting downward image information. The lower sensor may use a camera having the same function as the upper camera 110, but unlike the upper camera 110, the lower sensor acquires lower image information by photographing the lower side, that is, the bottom, and thus, the image having different specifications. Use the sensor to acquire. As the downward sensor, an optical flow sensor (OFS) for acquiring the downward image information using light may be used. Here, the optical flow sensor OFS includes an image sensor 210 for capturing the downward image to obtain the downward image information, and at least one light source 220 for adjusting the amount of light.

상기 옵티컬 플로우 센서를 예로 들어 상기 상대위치검출유닛(200)의 동작을 설명한다. 상기 옵티컬 플로우 센서는 로봇 청소기의 배면에 구비되어, 이동 중 하방, 즉 바닥을 촬영한다. 상기 옵티컬 플로우 센서는 상기 이미지센서(210)로부터 입력되는 하방 영상을 변환하여 소정 형식의 하방 영상 정보를 생성한다. 이때, 상기 옵티컬 플로우 센서는 렌즈(미도시)와 상기 렌즈를 조절하는 렌즈조절부(미도시)를 더 구비하는데, 상기 렌즈로는 초점거리가 짧고 심도가 깊은 팬포커스형 렌즈를 사용하는 것이 적절하고, 상기 렌즈조절부는 전후 이동되도록 하는 소정 모터와 이동수단을 구비하여 상기 렌즈를 조절한다. 또한, 상기 하나 이상의 광원(220)은 상기 이미지센서(210)에 인접하여 설치되고, 상기 이미지센서(210)에 의해 촬영되는 바닥면의 영역에 빛을 조사한다. 즉, 로봇 청소기가 평탄한 바닥을 이동하는 경우에는 상기 이미지센서(210)가 바닥면까지 일정한 거리가 유지되는 반면, 불균일한 표면의 바닥면을 이동하는 경우에는 바닥물의 요철 및 장애물에 의해 일정 거리 이상 멀어지게 된다. 이때 상기 하나 이상의 광원(220)은 상기 조사되는 빛의 양을 조절한다. 반면, 상기 옵티컬 플로우 센서는 미끄러짐과 무관하에 상대 위치 를 검출할 수 있다. 즉, 상기 옵티컬 플로우 센서를 이용하여 로봇 청소기의 하방을 관찰하도록 함으로써, 미끄러짐에 강인한 위치 보정이 가능하다.The operation of the relative position detection unit 200 will be described using the optical flow sensor as an example. The optical flow sensor is provided on the back of the robot cleaner, and photographs the lower side of the robot cleaner, that is, the floor. The optical flow sensor converts the downward image input from the image sensor 210 to generate downward image information of a predetermined format. In this case, the optical flow sensor further includes a lens (not shown) and a lens control unit (not shown) for adjusting the lens, and it is appropriate to use a pan focus lens having a short focal length and a deep depth as the lens. And, the lens control unit is provided with a predetermined motor and moving means to move back and forth to adjust the lens. In addition, the one or more light sources 220 are installed adjacent to the image sensor 210 and irradiate light to an area of the bottom surface photographed by the image sensor 210. That is, when the robot cleaner moves a flat floor, the image sensor 210 is maintained at a constant distance to the floor surface, whereas when the robot cleaner moves the floor surface of the non-uniform surface, the robot cleaner is moved by a predetermined distance or more due to the irregularities and obstacles of the floor. Away. In this case, the one or more light sources 220 adjust the amount of light to be irradiated. On the other hand, the optical flow sensor can detect the relative position regardless of slip. That is, by observing the lower side of the robot cleaner using the optical flow sensor, position correction that is robust against slipping is possible.

상기 제어유닛(300)은 상기 절대위치검출유닛(100)을 통해 상방 영상 정보로부터 추출된 특징점들을 이용하여 환경 지도를 생성하고, 상기 상대위치검출유닛(200)을 통해 하방 영상 정보로부터 검출된 미끄러짐에 강인한 상대 위치를 융합하여 상기 절대 위치를 보정하고, 상기 환경 지도를 다시 생성한다.The control unit 300 generates an environment map using feature points extracted from the upper image information through the absolute position detection unit 100, and the slip detected from the lower image information through the relative position detection unit 200. The absolute position is fused to correct the absolute position, and the environment map is generated again.

반대로, 예를 들어 레이저 타입이 아닌 옵티컬 플로우 센서의 경우에 바닥이 반사 재질일 때 신호가 끊기는 현상이 있다. 이 때, 상기 절대위치검출유닛(100)의 영상 정보를 이용하면 슬립에 의해 신호가 끊긴 것인지, 바닥이 반사 재질이기 때문에 끊긴 것인지를 명확히 알 수 있다.On the contrary, for example, in the case of an optical flow sensor that is not a laser type, a signal may be disconnected when the bottom is a reflective material. At this time, when the image information of the absolute position detection unit 100 is used, it is possible to clearly know whether the signal is cut off due to slip, or cut off because the bottom is a reflective material.

도 1, 도 2 및 도 6을 함께 참조하면, 본 발명의 다른 실시예에 따른 로봇 청소기는, 일정 시간주기로 상방 영상 정보로부터 특징점을 추출하여 절대 위치를 검출하는 절대위치검출유닛(100)과, 일정 시간주기로 하방을 촬영하여 하방 영상 정보로부터 이동에 따른 상대 위치를 검출하는 상대위치검출유닛(200)과, 상기 상대 위치를 근거로 상기 절대 위치를 보정하고, 보정된 절대 위치에 따라 환경 지도를 생성하는 제어유닛(300)을 포함하여 구성되고, 상기 상대위치검출유닛(200)은 상기 하방 영상 정보를 획득하여 이를 근거로 상대 위치를 검출하는 하방센서와, 로봇 청소기의 바퀴를 구동하는 휠모터와 연결되어 직진속도와 회전속도를 검출하는 인코더(Encoder, 230)를 포함한다. 여기서, 상기 상대위치검출유닛(200)은 상기 모터의 직진속도와 회전속도를 이용하여 또 다른 상대 위치를 연산, 검출할 수 있 다.1, 2 and 6 together, the robot cleaner according to another embodiment of the present invention, the absolute position detection unit 100 for detecting the absolute position by extracting the feature point from the upper image information at a predetermined time period, and A relative position detection unit 200 which detects the relative position according to the movement from the downward image information by photographing the downward direction at a predetermined time period, and corrects the absolute position based on the relative position, and generates an environment map according to the corrected absolute position. It is configured to include a control unit 300, the relative position detection unit 200 obtains the downward image information based on the down sensor for detecting the relative position and the wheel motor for driving the wheel of the robot cleaner It is connected to include an encoder (Encoder, 230) for detecting the straight speed and rotation speed. Here, the relative position detection unit 200 may calculate and detect another relative position using the straight speed and the rotation speed of the motor.

한편, 상기 상대위치검출유닛(200)은 로봇 청소기의 회전 속도를 검출하는 자이로 센서(Gyro Sensor, 240)를 더 포함한다. 여기서, 상기 상대위치검출유닛(200)은 상기 회전속도로부터 연산된 방향 정보를 이용하여 또 다른 상대 위치를 검출하고, 이를 이용하여 상기 하방센서를 통해 검출된 상대 위치를 보정한다.On the other hand, the relative position detection unit 200 further includes a gyro sensor (Gyro Sensor, 240) for detecting the rotational speed of the robot cleaner. Here, the relative position detection unit 200 detects another relative position by using the direction information calculated from the rotational speed, and corrects the relative position detected by the downward sensor using this.

상기 본 발명의 일 실시예에 따른 로봇 청소기에서 설명한 부분은 그에 갈음하고, 이하 생략한다.Portions described in the robot cleaner according to an embodiment of the present invention are replaced with the following, and will be omitted below.

로봇 청소기는 상방 카메라(110)를 장착하면 영상처리를 통해 특징점을 획득하고 환경지도를 그릴 수 있으며, 로봇 청소기의 절대 위치를 환경지도를 바탕으로 검출할 수 있으나, 로봇 청소기의 센서들를 통한 상대 위치 검출이 부정확할 경우 환경 지도가 부정확해지면서 절대 위치 검출 오차도 커진다. 상기 센서들로는 상기 인코더(230)를 이용하거나, 상기 자이로 센서(240)를 이용하거나, 또는 가속도 센서를 이용한다. 또한 상기 센서들을 융합하여 사용한다. 또한, 이러한 속도 센서들에 발생하는 바닥면의 미끄러짐에 의해 오차를 줄이기 위해 상기 하방센서를 더 부가한다. 즉, 상기 상대위치검출유닛(200)은 상기 인코더(230)를 이용하거나, 상기 자이로 센서(240)를 이용하거나, 상기 인코더와 자이로 센서를 이용하여 용이하게 속도로부터 상대 위치를 검출하고, 바닥의 재질 등에 의해 발생하는 미끄러짐에 강인한 상기 하방센서를 이용하여 상대 위치를 보정한다. 따라서, 상기 제어유닛(300)은 상기 보정된 상대 위치를 이용하여 상기 절대위치검출유닛(100)을 통해 검출된 절대 위치를 보정하고, 환경 지도를 생성한다.The robot cleaner may be equipped with the upper camera 110 to acquire a feature point and draw an environment map through image processing, and detect the absolute position of the robot cleaner based on the environment map, but the relative position through the sensors of the robot cleaner. Inaccurate detection results in inaccurate environmental maps, resulting in greater absolute position detection errors. As the sensors, the encoder 230, the gyro sensor 240, or the acceleration sensor is used. The sensors are also used in fusion. In addition, the downward sensor is further added to reduce the error caused by the sliding of the bottom surface generated in these speed sensors. That is, the relative position detection unit 200 easily detects the relative position from the speed by using the encoder 230, the gyro sensor 240, or the encoder and the gyro sensor, The relative position is corrected by using the downward sensor, which is robust against slip caused by materials and the like. Therefore, the control unit 300 corrects the absolute position detected by the absolute position detection unit 100 using the corrected relative position, and generates an environment map.

도 3을 참조하면, 본 발명의 일 실시예에 따른 로봇 청소기의 위치 검출 방법은, 일정 시간주기로 상방 영상 정보로부터 특징점을 추출하여 절대 위치를 검출하는 절대위치검출단계(S100)와, 일정 시간주기로 하방을 촬영하여 하방 영상 정보로부터 이동에 따른 상대 위치를 검출하는 상대위치검출단계(S200)와, 상기 상대 위치를 근거로 상기 절대 위치를 보정하는 위치보정단계(S300)와, 상기 보정된 절대 위치에 따라 환경 지도를 생성하는 지도생성단계(S400)를 포함하여 구성된다. 상기 일정 시간주기는 사용자 등에 의해 설정될 수 있다. 이하, 장치의 구성은 도 1 및 도 2의 구성을 참조한다.Referring to FIG. 3, a method of detecting a position of a robot cleaner according to an embodiment of the present disclosure includes an absolute position detection step (S100) of extracting a feature point from upper image information at a predetermined time period and detecting an absolute position at a predetermined time period. Relative position detection step (S200) of detecting the relative position according to the movement from the down image information by shooting down, position correction step (S300) for correcting the absolute position based on the relative position, and the corrected absolute position According to the map generation step (S400) for generating an environment map is configured. The predetermined time period may be set by the user or the like. Hereinafter, the configuration of the apparatus will be referred to the configuration of FIGS. 1 and 2.

도 4를 참조하면, 상기 절대위치검출단계(S100)는 일정 시간주기로 상방을 촬영하는 상방촬영과정(S110)과, 상기 촬영된 영상으로부터 상기 상방 영상 정보를 획득하는 상방정보획득과정(S120)과, 상기 상방 영상 정보로부터 특징점을 추출하는 특징점추출과정(S130)을 포함하여 구성되고, 상기 특징점을 근거로 절대 위치를 검출한다(S140). 또한, 상기 절대위치검출단계(S100)는, 상기 특징점으로부터 불필요한 특징점을 제거하는 특징점보정과정(미도시)을 더 포함할 수 있다.Referring to FIG. 4, the absolute position detecting step (S100) includes an upward photographing process (S110) of photographing the upper part at a predetermined time period, and an upper information obtaining process (S120) of obtaining the upper image information from the photographed image. And a feature point extraction process (S130) for extracting feature points from the upper image information, and detects an absolute position based on the feature points (S140). The absolute position detecting step S100 may further include a feature point correction process (not shown) for removing unnecessary feature points from the feature points.

도 7을 참조하여 본 발명에 따른 특징점 추출 과정을 예를 들어 설명한다. 상방을 일 회 촬영한 후 특징점을 추출할 수 있으나, 설명의 편의를 위해 이동 중 2회 촬영하여 특징점을 추출하는 동작을 설명한다. 도 7에 도시한 바와 같이, 제1 마크(C1)와 제2 마크(N1)를 비교할 때, 로봇 청소기가 이동하면서 제1 시간(k)과 제2 시간(k+1)에 천장면을 포함한 상방을 각각 촬영한다(S110). 이때, 제1 시간(k)과 제2 시간(k+1)에 촬영되는 상방 영상 정보에서의 제1 마크(C1)과 제2 마크(N1) 는 제1 특징점(M1)과 제2 특징점(M2)으로 나타나게 된다. 이때, 제1 마크(C1)와 제2 마크(N1)는 제1 특징점(M1(k)), 제2 특징점(M2(k))으로 나타난다. 한편, 제2 시간(k+1)에서의 제1 마크(C1)와 제2 마크(N1)는 제1 특징점(M1(k+1)), 제2 특징점(M2(k+1))으로 나타난다(S120).A feature point extraction process according to the present invention will be described with reference to FIG. 7. Although the feature point may be extracted after photographing the upper side once, an operation of extracting the feature point by photographing twice during the movement will be described. As shown in FIG. 7, when comparing the first mark C1 and the second mark N1, the robot cleaner includes the ceiling surface at the first time k and the second time k + 1 while moving. Each picture is photographed upward (S110). In this case, the first mark C1 and the second mark N1 in the upper image information photographed at the first time k and the second time k + 1 have the first feature point M1 and the second feature point ( M2). At this time, the first mark C1 and the second mark N1 are represented by the first feature points M1 (k) and the second feature points M2 (k). On the other hand, the first mark C1 and the second mark N1 at the second time k + 1 are the first feature points M1 (k + 1) and the second feature points M2 (k + 1). Appear (S120).

이어서, 상기 절대위치검출단계(S100)는 제1 마크(C1)과 제2 마크(N1)에 대한 상방 영상 정보의 특징점인 제1 특징점(M1(k)), 제2 특징점(M2(k))과, 제1 특징점(M1(k+1)), 제2 특징점(M2(k+1))을 각각 매칭하고, 비교하여 특징점 간의 이동거리를 산출한다. 즉 도 7의 (c)에 도시한 바와 같이, 제1 시간(k) 및 제2 시간(k+1)에 촬영된 영상 정보의 특징점을 상호 비교하여 제1 특징점의 이동거리(PL1), 제2 특징점의 이동거리(PL2)를 연산한다. 이때, 로봇 청소기의 이동에 따른 제1 마크(C1) 및 제2 마크(N1)와 로봇 청소기 간의 이동거리(L1)는 일정하고 로봇 청소기의 실제 이동거리와 동일하다. 그러나, 촬영된 영상 정보의 특징점의 이동거리인 PL1과 PL2는 서로 상이하다. 마크의 거리가 멀수록 마크에 대한 특징점의 이동거리는 작은데 반하여 마크가 로봇 청소기에 가까이 있을 수록, 즉 천장면보다 낮은 벽면에 위치할 수록 특징점의 이동거리 차가 커지게 된다. 그에 따라, 상기 절대위치검출단계(S100)는 제2 마크(N1)와 같이 로봇 청소기의 이동에 따른 특징점의 이동비율이 소정비율 이상인 경우, 불필요한 특징점인 것으로 판단하여 제거한다(S130).Subsequently, the absolute position detecting step S100 may include a first feature point M1 (k) and a second feature point M2 (k), which are feature points of upward image information of the first mark C1 and the second mark N1. ) And the first feature point M1 (k + 1) and the second feature point M2 (k + 1) are matched and compared to calculate the moving distance between the feature points. That is, as shown in (c) of FIG. 7, the moving distance PL1 and the first distance of the first feature point are compared by comparing the feature points of the image information photographed at the first time k and the second time k + 1. 2 Calculate the movement distance PL2 of the feature point. At this time, the moving distance L1 between the first mark C1 and the second mark N1 and the robot cleaner according to the movement of the robot cleaner is constant and is equal to the actual moving distance of the robot cleaner. However, PL1 and PL2, which are moving distances of the feature points of the captured image information, are different from each other. The farther the mark is, the smaller the movement distance of the feature point relative to the mark, while the closer the mark is to the robot cleaner, that is, the lower the ceiling surface, the larger the difference in the movement distance of the feature point. Accordingly, in the absolute position detecting step S100, when the moving ratio of the feature point according to the movement of the robot cleaner, such as the second mark N1, is greater than or equal to the predetermined ratio, it is determined that the feature point is unnecessary and removed (S130).

한편, 상기 이동거리들은 상기 로봇 청소기가 미끄러지는 경우에 달라지게 된다. 즉, 로봇 청소기의 상대 위치 변동에 따라 절대 위치 검출에 오차가 발생하 게 된다.Meanwhile, the moving distances are changed when the robot cleaner slides. That is, an error occurs in the absolute position detection according to the relative position variation of the robot cleaner.

또한, 상기 절대위치검출단계(S100)는 제1 마크(C1)와 제2 마크(N1) 중 제1 마크(C1)는 천장면에 위치한 것이므로 로봇 청소기로부터 천장면까지의 거리를 이용하여 제2 마크(N1)의 높이를 연산하고, 연산된 높이가 기준 높이 이하인 경우에는 불필요한 특징점으로 판단하여 제거한다. 제1 특징점(M1)과 제2 특징점(M2)을 비교하면, 각각의 이동거리에 대하여 제1 특징점(M1)의 이동거리 PL1과 제2 특징점(M2)의 이동거리 PL2는 제1 마크, 제2 마크, 및 로봇 청소기의 실제 이동거리와 높이의 비에 비례한다. 이때, 실제 이동거리는 동일하고, 제1 특징점(M1)에 대한 높이는 천장높이 이므로, 제2 특징점(M2), 즉 제2 마크(N1)에 대한 높이 산출이 가능해진다. 여기서, 촬영된 상방 영상 정보의 중심부분에 위치하는 특징점은 천장면에 위치하는 것으로 판단하고, 중심부분에 위치한 특징점을 기준으로 특징점의 높이를 산출한다.Also, in the absolute position detecting step S100, since the first mark C1 of the first mark C1 and the second mark N1 is located on the ceiling surface, the second position is determined by using a distance from the robot cleaner to the ceiling surface. The height of the mark N1 is calculated, and when the calculated height is less than or equal to the reference height, it is determined as an unnecessary feature point and removed. When the first feature point M1 and the second feature point M2 are compared, the movement distance PL1 of the first feature point M1 and the movement distance PL2 of the second feature point M2 are the first marks, 2 marks, and is proportional to the ratio of the actual travel distance and height of the robot cleaner. In this case, since the actual moving distance is the same and the height of the first feature point M1 is the ceiling height, the height of the second feature point M2, that is, the second mark N1, can be calculated. Here, it is determined that the feature point located at the center of the captured upper image information is located at the ceiling surface, and the height of the feature point is calculated based on the feature point located at the center.

상기 지도생성단계(S400)는 상기 절대위치검출단계(S100)에서 검출된 절대 위치를 근거로 환경 지도를 작성한다. 이때, 상기 지도생성단계(S400)는 상기 특징점 추출 알고리즘을 구비할 수 있으며, SLAM(Simultaneous Localizaion and Mapping)을 이용하여 위치 검출 및 환경 지도 생성을 동시에 수행할 수 있다.The map generation step S400 prepares an environment map based on the absolute position detected in the absolute position detection step S100. In this case, the map generation step S400 may include the feature point extraction algorithm, and simultaneously perform location detection and environment map generation using Simulaneous Localizaion and Mapping (SLAM).

한편, 도 4를 참조하면, 상기 상대위치검출단계(S200)는 일정 시간주기로 하방을 촬영하는 하방촬영과정(S210)과, 상기 촬영된 영상으로부터 상기 하방 영상 정보를 획득하는 하방정보획득과정(S220)을 포함하고, 상기 하방 영상 정보로부터 이동에 따른 상대 위치를 검출한다(S230).On the other hand, referring to Figure 4, the relative position detection step (S200) is a downward photographing process (S210) for photographing the down at a predetermined time period and the down information acquisition process for obtaining the down image information from the photographed image (S220) ), And detects a relative position according to the movement from the down image information (S230).

또한, 상기 하방정보획득과정(S220)은, 상기 촬영된 영상에 오류 발생여부를 판단하는 과정과, 상기 판단 결과, 상기 오류가 발생하면 상기 하방에 조사되는 빛의 양을 조절하는 과정과, 상기 하방을 재 촬영하는 과정으로 구성될 수 있다.In addition, the down information acquisition process (S220), the process of determining whether an error occurs in the photographed image, and as a result of the determination, the process of adjusting the amount of light irradiated downward when the error occurs, and It may consist of a process of re-photographing the down.

상기 옵티컬 플로우 센서를 채용한 경우를 예로 들어 상기 상대위치검출단계(S200)를 설명한다. 상기 옵티컬 플로우 센서는 로봇 청소기의 배면에 구비되어, 이동 중 하방, 즉 바닥을 촬영한다(S210). 상기 상대위치검출단계(S200)는 입력되는 하방 영상을 변환하여 소정 형식의 하방 영상 정보를 생성한다(S220). 상기 하방 영상 정보를 근거로 상대 위치를 검출한다(S230).The relative position detection step S200 will be described by taking the case of employing the optical flow sensor as an example. The optical flow sensor is provided on the rear surface of the robot cleaner and photographs the bottom of the robot cleaner, that is, the floor (S210). The relative position detection step (S200) converts an inputted downward image to generate downward image information of a predetermined format (S220). The relative position is detected based on the downward image information (S230).

상기 지도생성단계(S400)는 상방 영상 정보로부터 추출된 특징점들을 이용하여 환경 지도를 생성한다. 이때, 상기 위치보정단계(S300)는 하방 영상 정보로부터 검출된 미끄러짐에 강인한 상대 위치를 융합하여 상기 절대 위치를 보정하고, 상기 지도생성단계(S400)는 환경 지도를 다시 생성한다.The map generation step S400 generates an environment map using feature points extracted from upper image information. At this time, the position correction step (S300) corrects the absolute position by fusing the relative position that is robust to the slip detected from the down image information, and the map generation step (S400) generates the environment map again.

반대로, 예를 들어 비 레이저 타입의 옵티컬 플로우 센서의 경우에 바닥이 반사 재질일 때 신호가 끊기는 현상이 있다. 이 때, 상기 절대위치검출단계(S100)에서의 영상 정보를 이용하면 슬립에 의해 신호가 끊긴 것인지, 바닥이 반사 재질이기 때문에 끊긴 것인지를 명확히 알 수 있다.On the contrary, for example, in the case of a non-laser type optical flow sensor, a signal is interrupted when the bottom is a reflective material. At this time, if the image information in the absolute position detection step (S100) is used, it is clear whether the signal is cut off due to slip or whether the bottom is cut off because it is a reflective material.

도 3 및 도 5를 함께 참조하면, 본 발명의 다른 실시예에 따른 로봇 청소기의 위치 검출 방법은, 일정 시간주기로 상방 영상 정보로부터 특징점을 추출하여 절대 위치를 검출하는 절대위치검출단계(S100)와, 일정 시간주기로 하방을 촬영하여 하방 영상 정보로부터 이동에 따른 상대 위치를 검출하는 상대위치검출단 계(S200)와, 상기 상대 위치를 근거로 상기 절대 위치를 보정하는 위치보정단계(S300)와, 상기 보정된 절대 위치에 따라 환경 지도를 생성하는 지도생성단계(S400)를 포함하여 구성된다. 이하, 장치의 구성은 도 1 및 도 2를 참조하고, 상기 일 실시예에 따른 위치 검출 방법에서 설명한 부분은 생략하고, 그에 갈음한다.3 and 5 together, the position detection method of the robot cleaner according to another embodiment of the present invention, the absolute position detection step (S100) for detecting the absolute position by extracting the feature point from the upper image information at a predetermined time period; A relative position detection step (S200) of detecting a relative position according to a movement from down image information by photographing downwards at a predetermined time period, and a position correction step (S300) of correcting the absolute position based on the relative position; It comprises a map generation step (S400) for generating an environment map according to the corrected absolute position. Hereinafter, the structure of the apparatus will be described with reference to FIGS. 1 and 2, and the parts described in the position detecting method according to the above embodiment will be omitted and replaced.

이때, 상기 상대위치검출단계(S200)는 일정 시간주기로 하방을 촬영하는 하방촬영과정(S210)과, 상기 촬영된 영상으로부터 상기 하방 영상 정보를 획득하는 하방정보획득과정(S220)과, 상기 하방 영상 정보로부터 이동에 따른 제1 상대 위치를 검출하는 제1 검출과정(S230)과, 로봇 청소기의 바퀴를 구동하는 휠모터의 속도를 검출하는 속도검출과정(S240)과, 상기 속도로부터 연산된 위치 정보를 이용하여 제2 상대 위치를 검출하는 제2 검출과정(S250)과, 상기 제2 상대 위치를 근거로 제1 상대 위치를 보정하는 과정(S280 내지 S281)를 포함하여 구성된다. 상기 제2 상대 위치를 근거로 제1 상대 위치를 보정하는 과정은 상기 제1 상대 위치와 상기 제2 상대 위치를 비교하여, 미리 설정된 오차 범위 내인지 판단하는 과정(S280)과, 상기 판단 결과 오차 범위를 벗어나면 상기 제2 상대 위치를 근거로 제1 상대 위치를 보정한다. 여기서, 상기 오차 범위는 사용자 등에 의해 미리 설정된다. 물론, 상기 제1 상대 위치를 근거로 제2 상대 위치를 보정할 수도 있다(S281). 상기 보정 후 최종적으로 상대 위치를 검출한다(S290).In this case, the relative position detection step (S200) is a down shooting process (S210) for shooting down at a predetermined time period, and down information acquisition process (S220) for obtaining the down image information from the captured image, and the down image A first detection process (S230) for detecting a first relative position according to movement from the information, a speed detection process (S240) for detecting a speed of a wheel motor driving the wheel of the robot cleaner, and position information calculated from the speed A second detection process (S250) for detecting a second relative position using the step and correcting the first relative position based on the second relative position (S280 to S281) is configured. Correcting the first relative position based on the second relative position includes comparing the first relative position with the second relative position to determine whether the first relative position is within a preset error range (S280), and the determination result error. If out of the range, the first relative position is corrected based on the second relative position. Here, the error range is set in advance by the user or the like. Of course, the second relative position may be corrected based on the first relative position (S281). After the correction, the relative position is finally detected (S290).

즉, 상기 위치 검출 방법은 로봇 청소기의 바퀴를 구동하는 휠모터의 직진속도 또는 회전속도를 검출하고(S240), 상기 직진속도 또는 상기 회전속도를 이중 적분하여 제2 상대 위치를 검출한다(S250). 한편, 상기 위치 검출 방법은 로봇 청소 기의 하방, 즉 바닥을 촬영하고(S210), 상기 촬영된 하방 영상으로부터 하방 영상 정보를 획득하여(S220), 상기 하방 영상 정보를 근거로 제1 상대 위치를 검출한다(S230). 상기 제2 상대 위치는 로봇 청소기의 구성으로부터 용이하게 위치를 검출 할 수 있는데 반해, 바닥 재질의 특성에 따른 미끄러짐 등에 의해 위치 오차가 발생한다. 반면, 상기 제1 상대 위치는 상기 미끄러짐에 강인하게 상대 위치를 검출할 수 있다. 그런 다음, 상기 제1 상대 위치와 제2 상대 위치를 비교한다(S280). 양 상대 위치의 차가 오차 범위 내인지 판단하고(S280), 판단 결과에 따라 상대 위치를 보정하여(S281) 최종적으로 상대 위치를 검출한다(S290).That is, the position detection method detects a straight speed or a rotation speed of the wheel motor driving the wheel of the robot cleaner (S240), and detects a second relative position by double integration of the straight speed or the rotation speed (S250). . Meanwhile, the position detecting method photographs the bottom of the robot cleaner, that is, the bottom (S210), obtains down image information from the photographed down image (S220), and determines a first relative position based on the down image information. It is detected (S230). Wherein the second relative position can be easily detected from the configuration of the robot cleaner, the position error occurs due to the sliding according to the characteristics of the floor material. On the other hand, the first relative position can detect the relative position robustly to the slip. Then, the first relative position and the second relative position is compared (S280). It is determined whether the difference between the two relative positions is within the error range (S280), the relative position is corrected according to the determination result (S281), and finally the relative position is detected (S290).

한편, 상기 상대위치검출단계(S200)는 일정 시간주기로 하방을 촬영하는 하방촬영과정(S210)과, 상기 촬영된 영상으로부터 상기 하방 영상 정보를 획득하는 하방정보획득과정(S220)과, 상기 하방 영상 정보로부터 이동에 따른 제1 상대 위치를 검출하는 제1 검출과정(S230)과, 로봇 청소기의 회전 속도를 검출하는 회전속도검출과정(S260)과, 상기 회전속도로부터 연산된 방향 정보를 이용하여 제3 상대 위치를 검출하는 제3 검출과정(S270)과, 상기 제3 상대 위치를 근거로 제1 상대 위치를 보정하는 과정(S280 내지 S281)를 포함하여 구성된다. 상기 제3 상대 위치를 근거로 제1 상대 위치를 보정하는 과정은 상기 제1 상대 위치와 상기 제3 상대 위치를 비교하여, 미리 설정된 오차 범위 내인지 판단하는 과정(S280)과, 상기 판단 결과 오차 범위를 벗어나면 상기 제3 상대 위치를 근거로 제1 상대 위치를 보정한다(S281). 여기서, 상기 오차 범위는 사용자 등에 의해 미리 설정된다. 물론, 상기 제1 상대 위치를 근거로 제3 상대 위치를 보정할 수도 있다. 상기 보정 후 최종적 으로 상대 위치를 검출한다(S290).On the other hand, the relative position detection step (S200) is a downward photographing process (S210) for photographing the down at a predetermined time period, the down information acquisition process (S220) for obtaining the down image information from the photographed image and the down image A first detection process (S230) for detecting a first relative position according to movement from the information, a rotation speed detection process (S260) for detecting a rotation speed of the robot cleaner, and a direction information calculated from the rotation speed; And a third detection step (S270) of detecting the third relative position, and a step (S280 to S281) of correcting the first relative position based on the third relative position. Compensating the first relative position based on the third relative position includes comparing the first relative position with the third relative position to determine whether the first relative position is within a preset error range (S280), and the determination result error. If out of the range, the first relative position is corrected based on the third relative position (S281). Here, the error range is set in advance by the user or the like. Of course, the third relative position may be corrected based on the first relative position. Finally, the relative position is detected after the correction (S290).

즉, 로봇 청소기의 방향을 검출하는 자이로 센서 등을 이용하여 로봇 청소기의 회전속도, 즉 각속도를 검출하고(S260), 상기 각속도를 이중 적분하여 제3 상대 위치를 검출한다(S270). 한편, 로봇 청소기의 하방, 즉 바닥을 촬영하고(S210), 상기 촬영된 하방 영상으로부터 하방 영상 정보를 획득하여(S220), 상기 하방 영상 정보를 근거로 제1 상대 위치를 검출한다(S230). 상기 제3 상대 위치는 로봇 청소기의 구성으로부터 용이하게 위치를 검출 할 수 있는데 반해, 바닥 재질의 특성에 따른 미끄러짐 등에 의해 위치 오차가 발생한다. 반면, 상기 제1 상대 위치는 상기 미끄러짐에 강인하게 상대 위치를 검출할 수 있다. 그런 다음, 상기 제1 상대 위치와 제3 상대 위치를 비교한다(S280). 양 상대 위치의 차가 오차 범위 내인지 판단하고(S280), 판단 결과에 따라 상대 위치를 보정하여(S281) 최종 상대 위치를 검출한다(S290).That is, the rotation speed, that is, the angular velocity of the robot cleaner, is detected using a gyro sensor for detecting the direction of the robot cleaner (S260), and the third relative position is detected by double integration of the angular velocity (S270). Meanwhile, the robot cleaner is photographed downward, that is, the floor (S210), and the down image information is obtained from the photographed down image (S220), and a first relative position is detected based on the down image information (S230). Wherein the third relative position can be easily detected from the configuration of the robot cleaner, the position error occurs due to the sliding according to the characteristics of the floor material. On the other hand, the first relative position can detect the relative position robustly to the slip. Then, the first relative position and the third relative position is compared (S280). It is determined whether the difference between the two relative positions is within the error range (S280), the relative position is corrected according to the determination result (S281), and the final relative position is detected (S290).

또한, 상기 상대위치검출단계(S200)는 상기 휠모터의 직진속도 또는 회전속도에 따른 제2 상대 위치, 상기 로봇 청소기의 회전 속도, 즉 각속도에 따른 제3 상대 위치와, 상기 하방 영상 정보에 따른 제1 상대 위치를 한번에 비교하여(S280), 상기 비교 결과에 따라 상대 위치를 결정할 수 있다(S290).In addition, the relative position detection step (S200) is according to the second relative position according to the straight or rotational speed of the wheel motor, the rotational speed of the robot cleaner, that is, the third relative position according to the angular speed, and the down image information By comparing the first relative position at once (S280), it is possible to determine the relative position according to the comparison result (S290).

이에 따라, 상기 지도생성단계(S400)는 상방 영상 정보로부터 추출된 특징점들을 이용하여 환경 지도를 생성한다. 이때, 상기 위치보정단계(S300)는 하방 영상 정보로부터 검출된 미끄러짐에 강인한 상대 위치를 융합하여 상기 절대 위치를 보정하고, 상기 지도생성단계(S400)는 환경 지도를 다시 생성한다.Accordingly, the map generation step S400 generates an environment map using the feature points extracted from the upper image information. At this time, the position correction step (S300) corrects the absolute position by fusing the relative position that is robust to the slip detected from the down image information, and the map generation step (S400) generates the environment map again.

반대로, 레이저 타입이 아닌 옵티컬 플로우 센서의 경우에 바닥이 반사 재질일 때 신호가 끊기는 현상이 있다. 이 때, 상기 절대위치검출단계(S100)에서의 영상 정보를 이용하면 슬립에 의해 신호가 끊긴 것인지, 바닥이 반사 재질이기 때문에 끊긴 것인지를 명확히 알 수 있다.On the contrary, in the case of an optical flow sensor that is not a laser type, a signal is broken when the bottom is a reflective material. At this time, if the image information in the absolute position detection step (S100) is used, it is clear whether the signal is cut off due to slip or whether the bottom is cut off because it is a reflective material.

상기한 바와 같이, 본 발명에 따른 로봇 청소기 및 그의 위치 검출 방법은 상방 카메라를 포함하는 절대 위치를 검출하는 유닛과 하방 이미지센서를 포함하는 상대 위치를 검출하는 유닛을 구비함으로써 미끄러짐으로 인한 위치 오차를 줄이고, 로봇 청소기의 위치를 정밀하게 검출할 수 있고, 이에 따라 누락 없이 청소 영역을 청소할 수 있다. 또한, 본 발명에 따라 바닥 환경 변화에 강인하고, 상방카메라가 동작하지 못하는 어두운 환경에서도 위치 인식 오차를 줄일 수 있다.As described above, the robot cleaner and the method for detecting its position according to the present invention include a unit for detecting an absolute position including an upper camera and a unit for detecting a relative position including a lower image sensor to reduce a position error due to slipping. It is possible to reduce and precisely detect the position of the robot cleaner, thereby cleaning the cleaning area without omission. In addition, according to the present invention, it is resistant to changes in the floor environment, and can reduce the position recognition error even in a dark environment in which the upper camera cannot operate.

도 1은 본 발명의 일 실시예에 따른 로봇 청소기의 구성을 개략적으로 보인 블록도;1 is a block diagram schematically showing the configuration of a robot cleaner according to an embodiment of the present invention;

도 2는 본 발명의 다른 실시예에 따른 로봇 청소기의 상대 위치 검출 유닛의 구성을 개략적으로 보인 블록도;2 is a block diagram schematically showing the configuration of a relative position detection unit of a robot cleaner according to another embodiment of the present invention;

도 3은 본 발명의 일 실시예에 따른 로봇 청소기의 위치 검출 방법을 개략적으로 보인 흐름도;3 is a flow chart schematically showing a method for detecting a position of a robot cleaner according to an embodiment of the present invention;

도 4는 도 3의 위치 검출 방법을 설명하기 위한 일 예를 보인 흐름도;4 is a flowchart illustrating an example for describing the position detection method of FIG. 3;

도 5는 본 발명의 다른 실시예에 따른 로봇 청소기의 위치 검출 방법의 상대 위치 검출 방법을 개략적으로 보인 흐름도;5 is a flow chart schematically showing a relative position detection method of the position detection method of the robot cleaner according to another embodiment of the present invention;

도 6은 본 발명에 따른 로봇 청소기의 외관을 보인 사시도;6 is a perspective view showing the appearance of the robot cleaner according to the present invention;

도 7은 본 발명에 따른 로봇 청소기의 절대 위치 검출 방법을 설명하기 위한 개념도이다.7 is a conceptual view illustrating an absolute position detection method of the robot cleaner according to the present invention.

Claims (13)

일정 시간주기로 상방 영상 정보로부터 특징점을 추출하여 절대 위치를 검출하는 절대위치검출유닛;An absolute position detection unit for detecting an absolute position by extracting feature points from the upper image information at a predetermined time period; 일정 시간주기로 하방을 촬영하여 하방 영상 정보를 검출하는 하방센서를 구비하고, 상기 하방 영상 정보로부터 이동에 따른 상대 위치를 검출하는 상대위치검출유닛; 및A relative position detection unit having a downward sensor for detecting downward image information by shooting downward at a predetermined time period, and detecting a relative position according to movement from the downward image information; And 상기 상대 위치를 근거로 상기 절대 위치를 보정하고, 보정된 절대 위치에 따라 환경 지도를 생성하는 제어유닛;을 포함하는 로봇 청소기.And a control unit for correcting the absolute position based on the relative position and generating an environment map according to the corrected absolute position. 제1 항에 있어서, 상기 절대위치검출유닛은,The method of claim 1, wherein the absolute position detection unit, 일정 시간주기로 상방을 촬영하여 상기 상방 영상 정보를 획득하는 상방카메라; 및An upper camera photographing the upper part at a predetermined time period to obtain the upper image information; And 상기 상방 영상 정보로부터 특징점을 추출하는 특징점추출유닛;을 포함하는 로봇 청소기.And a feature point extraction unit for extracting feature points from the upper image information. 제1 항에 있어서, 상기 하방센서는,The method of claim 1, wherein the downward sensor, 빛을 이용하여 상기 하방 영상 정보를 획득하는 옵티컬 플로우 센서;인 것을 특징으로 하는 로봇 청소기.And an optical flow sensor for obtaining the downward image information by using light. 제3 항에 있어서, 상기 옵티컬 플로우 센서는,The method of claim 3, wherein the optical flow sensor, 상기 하방 영상을 촬영하여 상기 하방 영상 정보를 획득하는 이미지센서; 및An image sensor for capturing the downward image to obtain the downward image information; And 상기 빛의 양을 조절하는 하나 이상의 광원;을 포함하는 로봇 청소기.And at least one light source for adjusting the amount of light. 제1 항에 있어서, 상기 상대위치검출유닛은,The method of claim 1, wherein the relative position detection unit, 로봇 청소기의 바퀴를 구동하는 휠모터와 연결되어 속도를 검출하는 인코더;를 더 구비하고,And an encoder connected to a wheel motor for driving wheels of the robot cleaner to detect a speed. 상기 속도로부터 연산된 위치 정보를 이용하여 상기 상대 위치를 보정하는 것을 특징으로 하는 로봇 청소기.And correcting the relative position using the position information calculated from the speed. 제1 항에 있어서, 상기 상대위치검출유닛은,The method of claim 1, wherein the relative position detection unit, 로봇 청소기의 회전 속도를 검출하는 자이로 센서;를 더 구비하고,And a gyro sensor for detecting a rotation speed of the robot cleaner. 상기 회전속도로부터 연산된 방향 정보를 이용하여 상기 상대 위치를 보정하는 것을 특징으로 하는 로봇 청소기.Robot cleaner, characterized in that for correcting the relative position using the direction information calculated from the rotation speed. 일정 시간주기로 상방 영상 정보로부터 특징점을 추출하여 절대 위치를 검출하는 절대위치검출단계;An absolute position detection step of detecting an absolute position by extracting feature points from upper image information at a predetermined time period; 일정 시간주기로 하방을 촬영하여 하방 영상 정보로부터 이동에 따른 상대 위치를 검출하는 상대위치검출단계;Relative position detection step of detecting the relative position according to the movement from the down image information by photographing the down at a predetermined time period; 상기 상대 위치를 근거로 상기 절대 위치를 보정하는 위치보정단계; 및A position correction step of correcting the absolute position based on the relative position; And 상기 보정된 절대 위치에 따라 환경 지도를 생성하는 지도생성단계;를 포함하는 로봇 청소기의 위치 검출 방법.And a map generation step of generating an environment map according to the corrected absolute position. 제7 항에 있어서, 상기 절대위치검출단계는,The method of claim 7, wherein the absolute position detection step, 일정 시간주기로 상방을 촬영하는 상방촬영과정;An upper photographing process of photographing the upper part at a predetermined time period; 상기 촬영된 영상으로부터 상기 상방 영상 정보를 획득하는 상방정보획득과정; 및An upward information acquisition process of obtaining the upward image information from the captured image; And 상기 상방 영상 정보로부터 특징점을 추출하는 특징점추출과정;을 포함하는 로봇 청소기의 위치 검출 방법.And a feature point extraction process for extracting feature points from the upper image information. 제8 항에 있어서, 상기 절대위치검출단계는,The method of claim 8, wherein the absolute position detection step, 상기 특징점으로부터 불필요한 특징점을 제거하는 특징점보정과정;을 더 포함하는 로봇 청소기의 위치 검출 방법.And a feature point correction process for removing unnecessary feature points from the feature points. 제7 항에 있어서, 상기 상대위치검출단계는,The method of claim 7, wherein the relative position detection step, 일정 시간주기로 하방을 촬영하는 하방촬영과정; 및Down shooting process to shoot down at a certain time period; And 상기 촬영된 영상으로부터 상기 하방 영상 정보를 획득하는 하방정보획득과정;을 포함하고,And a downward information acquisition process of acquiring the downward image information from the photographed image. 상기 하방 영상 정보로부터 이동에 따른 상대 위치를 검출하는 것을 특징으로 하는 로봇 청소기의 위치 검출 방법.And detecting the relative position according to the movement from the downward image information. 제10 항에 있어서, 상기 하방정보획득과정은,The method of claim 10, wherein the downward information acquisition process comprises: 상기 촬영된 영상에 오류 발생여부를 판단하는 과정;Determining whether an error occurs in the captured image; 상기 판단 결과, 상기 오류가 발생하면 상기 하방에 조사되는 빛의 양을 조절하는 과정; 및Adjusting the amount of light irradiated downward when the error occurs as a result of the determination; And 상기 하방을 재 촬영하는 과정;을 포함하는 로봇 청소기의 위치 검출 방법.Re-shooting the downward; Position detection method of the robot cleaner comprising a. 제7 항에 있어서, 상기 상대위치검출단계는,The method of claim 7, wherein the relative position detection step, 일정 시간주기로 하방을 촬영하는 하방촬영과정;Down shooting process to shoot down at a certain time period; 상기 촬영된 영상으로부터 상기 하방 영상 정보를 획득하는 하방정보획득과정;A downward information acquisition process of obtaining the downward image information from the captured image; 상기 하방 영상 정보로부터 이동에 따른 제1 상대 위치를 검출하는 제1 검출과정;A first detection step of detecting a first relative position according to a movement from the down image information; 로봇 청소기의 바퀴를 구동하는 휠모터의 속도를 검출하는 속도검출과정;A speed detection process of detecting a speed of the wheel motor driving the wheel of the robot cleaner; 상기 속도로부터 연산된 위치 정보를 이용하여 제2 상대 위치를 검출하는 제2 검출과정; 및A second detection step of detecting a second relative position using the position information calculated from the speed; And 상기 제2 상대 위치를 근거로 제1 상대 위치를 보정하는 과정;을 포함하는 로봇 청소기의 위치 검출 방법.Correcting the first relative position based on the second relative position. 제7 항에 있어서, 상기 상대위치검출단계는,The method of claim 7, wherein the relative position detection step, 일정 시간주기로 하방을 촬영하는 하방촬영과정;Down shooting process to shoot down at a certain time period; 상기 촬영된 영상으로부터 상기 하방 영상 정보를 획득하는 하방정보획득과정;A downward information acquisition process of obtaining the downward image information from the captured image; 상기 하방 영상 정보로부터 이동에 따른 제1 상대 위치를 검출하는 제1 검출과정;A first detection step of detecting a first relative position according to a movement from the down image information; 로봇 청소기의 회전 속도를 검출하는 회전속도검출과정;A rotation speed detection process of detecting a rotation speed of the robot cleaner; 상기 회전속도로부터 연산된 방향 정보를 이용하여 제3 상대 위치를 검출하는 제3 검출과정; 및A third detection step of detecting a third relative position by using the direction information calculated from the rotation speed; And 상기 제3 상대 위치를 근거로 제1 상대 위치를 보정하는 과정;을 포함하는 로봇 청소기의 위치 검출 방법.And correcting a first relative position based on the third relative position.
KR1020090017750A 2009-03-02 2009-03-02 Robot cleaner and method for detecting position thereof KR101553950B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090017750A KR101553950B1 (en) 2009-03-02 2009-03-02 Robot cleaner and method for detecting position thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090017750A KR101553950B1 (en) 2009-03-02 2009-03-02 Robot cleaner and method for detecting position thereof

Publications (2)

Publication Number Publication Date
KR20100098999A true KR20100098999A (en) 2010-09-10
KR101553950B1 KR101553950B1 (en) 2015-09-17

Family

ID=43005592

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090017750A KR101553950B1 (en) 2009-03-02 2009-03-02 Robot cleaner and method for detecting position thereof

Country Status (1)

Country Link
KR (1) KR101553950B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101303161B1 (en) * 2011-10-18 2013-09-09 엘지전자 주식회사 Mobile robot and controlling method of the same
KR101417315B1 (en) * 2012-08-13 2014-07-10 서울과학기술대학교 산학협력단 Robot cleaner
US10112302B2 (en) 2014-09-03 2018-10-30 Dyson Technology Limited Mobile robot
US10144342B2 (en) 2014-09-03 2018-12-04 Dyson Technology Limited Mobile robot
KR102047303B1 (en) * 2018-06-01 2019-11-21 엘지전자 주식회사 Robot of estimating direction based on vanishing point of low luminance image and method estimating thereof
EP3224003B1 (en) 2014-11-26 2020-04-08 iRobot Corporation Systems and methods of use of optical odometry sensors in a mobile robot
WO2020218644A1 (en) * 2019-04-25 2020-10-29 엘지전자 주식회사 Method and robot for redefining location of robot by using artificial intelligence

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101844744B1 (en) * 2016-01-20 2018-04-05 주식회사 유진로봇 Remote control apparatus and system for a mobile robot, and method thereof
KR20210015599A (en) 2019-07-31 2021-02-10 엘지전자 주식회사 The Moving Robot and The Method of calculating driving distance for Moving Robot

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100791381B1 (en) 2006-06-01 2008-01-07 삼성전자주식회사 System, apparatus and method to prevent collision for remote control of mobile robot

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101303161B1 (en) * 2011-10-18 2013-09-09 엘지전자 주식회사 Mobile robot and controlling method of the same
KR101417315B1 (en) * 2012-08-13 2014-07-10 서울과학기술대학교 산학협력단 Robot cleaner
US10112302B2 (en) 2014-09-03 2018-10-30 Dyson Technology Limited Mobile robot
US10144342B2 (en) 2014-09-03 2018-12-04 Dyson Technology Limited Mobile robot
EP3224003B1 (en) 2014-11-26 2020-04-08 iRobot Corporation Systems and methods of use of optical odometry sensors in a mobile robot
KR102047303B1 (en) * 2018-06-01 2019-11-21 엘지전자 주식회사 Robot of estimating direction based on vanishing point of low luminance image and method estimating thereof
US11801604B2 (en) 2018-06-01 2023-10-31 Lg Electronics Inc. Robot of estimating direction based on vanishing point of low luminance image and method estimating thereof
WO2020218644A1 (en) * 2019-04-25 2020-10-29 엘지전자 주식회사 Method and robot for redefining location of robot by using artificial intelligence
US11347226B2 (en) 2019-04-25 2022-05-31 Lg Electronics Inc. Method of redefining position of robot using artificial intelligence and robot of implementing thereof

Also Published As

Publication number Publication date
KR101553950B1 (en) 2015-09-17

Similar Documents

Publication Publication Date Title
KR101553950B1 (en) Robot cleaner and method for detecting position thereof
KR101542498B1 (en) Robot cleaner and method for detecting position thereof
EP3009238B1 (en) Robot cleaner and method for controlling the same
KR101366860B1 (en) Mobile robot and controlling method of the same
KR102275300B1 (en) Moving robot and control method thereof
EP3224003B1 (en) Systems and methods of use of optical odometry sensors in a mobile robot
AU2005201155B2 (en) Method compensating gyro sensor for robot cleaner
CN109394095B (en) Robot movement carpet deviation control method, chip and cleaning robot
KR101513639B1 (en) Mobile robot robot cleaner and method for detecting angles of the mobile robot
KR100871114B1 (en) Moving robot and operating method for same
KR101637359B1 (en) Cleaner
KR20120006408A (en) Robot cleaner and controlling method of the same
KR20120006407A (en) Robot cleaner and controlling method of the same
JP2006185438A (en) Robot control device
KR20190093800A (en) a Moving robot and Controlling method for the moving robot
KR101697857B1 (en) Moving robot and method for recognizing a location of the same
KR102423573B1 (en) A robot cleaner using artificial intelligence and control method thereof
KR101303161B1 (en) Mobile robot and controlling method of the same
KR100825919B1 (en) Distance measurement sensor, moving robot having the distance measurement sensor and driving method for moving robot using the moving robot
KR20200105916A (en) Robot vacuum cleaner and its control method
KR20130000278A (en) Robot cleaner and controlling method of the same
KR20190089794A (en) Moving robot and method for operating the same
TW202022519A (en) Information processing device and mobile robot
KR20190119231A (en) Driving control device improved position correcting function and robot cleaner using the same
KR100784125B1 (en) Method for extracting coordinates of landmark of mobile robot with a single camera

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
J201 Request for trial against refusal decision
AMND Amendment
B701 Decision to grant
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee