KR20120021064A - 이동 로봇 및 이의 제어 방법 - Google Patents

이동 로봇 및 이의 제어 방법 Download PDF

Info

Publication number
KR20120021064A
KR20120021064A KR1020100085107A KR20100085107A KR20120021064A KR 20120021064 A KR20120021064 A KR 20120021064A KR 1020100085107 A KR1020100085107 A KR 1020100085107A KR 20100085107 A KR20100085107 A KR 20100085107A KR 20120021064 A KR20120021064 A KR 20120021064A
Authority
KR
South Korea
Prior art keywords
feature
image
feature point
unit
mobile robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020100085107A
Other languages
English (en)
Inventor
이성수
나상익
김예빈
백승민
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020100085107A priority Critical patent/KR20120021064A/ko
Priority to US13/219,290 priority patent/US8781164B2/en
Priority to EP11179314.7A priority patent/EP2423772B1/en
Publication of KR20120021064A publication Critical patent/KR20120021064A/ko
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

이동 로봇 및 이의 제어 방법이 개시된다. 본 발명은, 저가의 카메라를 이용하여 자신의 위치를 인식함에 있어서 기하학적인 제약 조건을 적용하여 외부 조명변화가 발생하는 상황에서도 위치 인식의 오차를 줄이고 정밀하게 위치를 인식한다. 본 발명은 저가의 카메라를 통해 검출한 영상들로부터 특징점들을 추출하고, 이들을 정합함에 있어서 특징선들에 의한 기하학적인 제약 조건을 적용하여 외부 조명변화가 발생하는 상황에서도 강인하게 특징점들을 정합함으로써 조명 변화에 취약한 기존의 카메라 기반 위치 인식 방법의 성능을 개선하고, 시스템의 효율을 증대한다.

Description

이동 로봇 및 이의 제어 방법{MOBILE ROBOT AND CONTROLLING METHOD OF THE SAME}
본 발명은 이동 로봇에 관한 것으로서, 저가의 상방 카메라와 같은 영상 검출 유닛을 이용하여 자신의 위치를 정밀하게 인식하는 이동 로봇 및 이의 제어 방법에 관한 것이다.
일반적으로 로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다.
상기 가정용 로봇의 대표적인 예는 로봇 청소기로서, 일정 영역을 스스로 주행하면서 주변의 먼지 또는 이물질을 흡입하여 청소하는 가전기기의 일종이다. 이러한 로봇 청소기는 일반적으로 충전 가능한 배터리를 구비하고, 주행 중 장애물을 피할 수 있는 장애물 센서를 구비하여 스스로 주행하며 청소할 수 있다.
종래 기술에 따른 이동 로봇에 있어서, 외부 조명변화가 발생하는 경우에 기존의 영상과 현재 촬영된 영상 간의 밝기 차 때문에 자신의 위치를 인식하는 방법에서의 영상 특징점 매칭(정합)의 성능이 떨어지게 된다. 이러한 상황에서는 카메라를 이용한 위치 보정이 대부분 불가능하여 이동 로봇의 절대 위치의 인식 오차가 커지는 문제점이 있다. 실제로 산업용 로봇, 보안 로봇, 서비스 로봇 등과 같이 장시간 작동해야 하는 이동 로봇들은 물론 로봇 청소기와 같은 가정용 로봇도 저가의 카메라를 이용하여 위치를 인식하는 경우에 외부 조명변화에 강인하게 위치 인식을 수행하지 못하는 문제점이 있다.
본 발명은 상기 문제점을 해결하기 위한 것으로서, 저가의 카메라를 이용하여 자신의 위치를 인식함에 있어서 기하학적인 제약 조건을 적용하여 외부 조명변화가 발생하는 상황에서도 위치 인식의 오차를 줄이고 정밀하게 위치를 인식하는 이동 로봇 및 이의 제어 방법을 제공함에 일 목적이 있다.
본 발명은 저가의 카메라를 통해 검출한 영상들로부터 특징점들을 추출하고, 이들을 정합함에 있어서 3차원 선들에 의한 기하학적인 제약 조건을 적용하여 외부 조명변화가 발생하는 상황에서도 강인하게 특징점들을 정합하는 이동 로봇 및 이의 제어 방법을 제공함에 다른 목적이 있다.
상기 목적들을 달성하기 위한 본 발명에 따른 이동 로봇은, 주변을 촬영하여 하나 이상의 영상을 검출하는 영상 검출 유닛과, 상기 영상으로부터 하나 이상의 직선을 추출하는 직선 추출 유닛과, 상기 직선 중 상기 영상의 중심을 향하는 하나 이상의 특징선을 추출하는 특징선 추출 유닛과, 상기 영상으로부터 하나 이상의 특징점을 추출하는 특징점 추출 유닛과, 상기 특징점을 정합하고, 상기 특징점 정합 결과를 근거로 위치를 인식하는 제어 유닛을 포함하여 구성된다.
본 발명에 따른 이동 로봇은, 상기 영상 검출 유닛을 통해 검출된 영상, 상기 특징선 추출 유닛을 통해 추출된 특징선, 및 상기 특징점 추출 유닛을 통해 추출된 특징점을 포함하는 영상 정보를 저장하는 저장 유닛을 더 포함하여 구성된다. 여기서, 상기 제어 유닛은, 상기 저장 유닛에 저장된 특징점과, 상기 영상 검출 유닛을 통해 검출된 영상의 특징점을 정합하고, 상기 특징점 정합 결과를 근거로 위치를 인식한다.
본 발명에 따른 이동 로봇에 있어서, 상기 특징점 추출 유닛은, 상기 특징선과 상기 직선의 교차점을 상기 특징점으로 추출한다. 여기서, 상기 특징점은, 상기 영상에서의 위치, 방향, 및 기술자로 구성된 특징점 정보를 포함하고, 상기 기술자는, 상기 특징점의 추출 정보를 나타낸다.
본 발명에 따른 이동 로봇에 있어서, 상기 제어 유닛은, 상기 특징점 정보를 이용하여 특징점들 사이의 유사도를 연산하고, 상기 유사도가 가장 큰 특징점을 이용하여 상기 위치를 인식한다.
본 발명에 따른 이동 로봇은, 바퀴를 구동하여 이동 로봇을 이동하는 구동 유닛과, 상기 바퀴에 연결되어 이동 거리를 측정하는 거리 측정 유닛을 더 포함하여 구성된다.
본 발명에 따른 이동 로봇에 있어서, 상기 영상 검출 유닛은, 상부에 설치되고, 상방을 촬영하여 상방 영상을 검출하는 상방 카메라이다.
상기 목적들을 달성하기 위한 본 발명에 따른 이동 로봇의 제어 방법은, 주변을 촬영하여 하나 이상의 영상을 검출하는 영상 검출 단계와, 상기 영상으로부터 하나 이상의 직선을 추출하는 직선 추출 단계와, 상기 직선 중 상기 영상의 중심을 향하는 하나 이상의 특징선을 추출하는 특징선 추출 단계와, 상기 영상으로부터 하나 이상의 특징점을 추출하는 특징점 추출 단계와, 상기 특징점을 정합하는 단계와, 상기 특징점 정합 결과를 근거로 위치를 인식하는 단계를 포함하여 구성된다.
본 발명에 따른 이동 로봇의 제어 방법은, 상기 영상, 상기 특징선, 및 상기 특징점을 포함하는 영상 정보를 저장하는 단계를 더 포함하여 구성된다. 여기서, 상기 위치를 인식하는 단계는, 상기 저장된 특징점과, 상기 검출된 영상의 특징점을 정합하고, 상기 특징점 정합 결과를 근거로 위치를 인식한다.
본 발명에 따른 이동 로봇의 제어 방법에 있어서, 상기 특징점은, 상기 특징선과 다른 직선의 교차점이다. 또한, 상기 특징점은, 상기 영상에서의 위치, 방향, 및 기술자로 구성된 특징점 정보를 포함하고, 상기 기술자는, 상기 특징점의 추출 정보를 나타낸다.
본 발명에 따른 이동 로봇의 제어 방법에 있어서, 상기 위치를 인식하는 단계는, 상기 특징점 정보를 이용하여 특징점들 사이의 유사도를 연산하는 과정과, 상기 유사도를 상호 비교하는 과정을 포함하고, 상기 유사도가 가장 큰 특징점을 이용하여 상기 위치를 인식한다.
본 발명에 따른 이동 로봇의 제어 방법은, 이동 로봇의 이동 거리를 측정하는 단계를 더 포함하여 구성된다.
본 발명에 따른 이동 로봇 및 이의 제어 방법은, 저가의 카메라를 이용하여 자신의 위치를 인식함에 있어서 외부 조명변화가 발생하는 상황에서도 위치 인식의 오차를 줄이고 정밀하게 위치를 인식한다.
본 발명은 저가의 카메라를 통해 검출한 영상들로부터 특징점들을 추출하고, 이들을 정합함에 있어서 특징선들에 의한 기하학적인 제약 조건을 적용하여 외부 조명변화가 발생하는 상황에서도 강인하게 특징점들을 정합할 수 있다.
본 발명은 조명 변화에 취약한 기존의 카메라 기반 위치 인식 방법의 성능을 개선하고, 시스템의 효율을 증대한다.
도 1 및 도 2는 본 발명의 실시예들에 따른 이동 로봇의 구성을 개략적으로 도시한 블록도;
도 3은 본 발명에 따른 이동 로봇의 일 예인 로봇 청소기의 외관을 도시한 사시도;
도 4는 본 발명에 따른 이동 로봇이 특징점을 추출하는 동작을 설명하기 위한 도;
도 5는 도 3에서의 로봇 청소기의 구성을 개략적으로 도시한 블록도;
도 6은 본 발명에 따라 추출된 특징선과 직선에 의해 형성되는 기하학적 형태를 예시한 도;
도 7은 본 발명에 따른 이동 로봇이 검출한 영상으로부터 도 6의 형태를 추출하는 동작을 설명하기 위한 도;
도 8은 본 발명에 따른 이동 로봇의 제어 방법을 개략적으로 도시한 흐름도;
도 9는 본 발명에 따른 이동 로봇의 일 예인 로봇 청소기의 제어 방법을 개략적으로 도시한 흐름도;
도 10은 본 발명에 따라 특징점을 정합하는 동작을 설명하기 위한 도이다.
이하 첨부한 도면들을 참조하여 본 발명에 따른 이동 로봇과 이동 로봇의 제어 방법을 상세히 설명한다.
도 1을 참조하면, 본 발명에 따른 이동 로봇은, 주변을 촬영하여 하나 이상의 영상을 검출하는 영상 검출 유닛(100)과, 상기 영상으로부터 하나 이상의 직선을 추출하는 직선 추출 유닛(210)과, 상기 직선 중 상기 영상의 중심을 향하는 하나 이상의 특징선을 추출하는 특징선 추출 유닛(220)과, 상기 영상으로부터 하나 이상의 특징점을 추출하는 특징점 추출 유닛(230)과, 상기 특징점을 정합하고, 상기 특징점 정합 결과를 근거로 위치를 인식하는 제어 유닛(300)을 포함하여 구성된다. 여기서, 상기 제어 유닛(300)은 상기 영상 검출 유닛(100)을 통해 검출된 복수의 영상으로부터 추출된 특징점들을 정합하고, 그 결과를 근거로 위치를 인식한다.
도 1을 참조하면, 본 발명에 따른 이동 로봇은, 상기 영상 검출 유닛(100)을 통해 검출된 영상, 상기 특징선 추출 유닛(210)을 통해 추출된 특징선, 및 상기 특징점 추출 유닛(220)을 통해 추출된 특징점을 포함하는 영상 정보를 저장하는 저장 유닛(400)을 더 포함하여 구성된다. 여기서, 상기 제어 유닛(300)은, 상기 저장 유닛(400)에 저장된 특징점과, 상기 영상 검출 유닛(100)을 통해 검출된 영상의 특징점을 정합하고, 상기 특징점 정합 결과를 근거로 위치를 인식한다.
상기 영상 검출 유닛(100)은, 이동 로봇의 상부에 설치되고, 상방을 촬영하여 상방 영상을 검출하는 상방 카메라이거나, 또는 전방을 촬영하여 전방 영상을 검출하는 전방 카메라이다. 또한, 상기 영상 검출 유닛(100)은, 렌즈를 포함할 수 있는데, 상기 렌즈로는 소정의 위치에서도 상방 또는 전방의 모든 영역, 예를 들어 천장의 모든 영역이 촬영될 수 있도록 화각이 넓은 렌즈, 예를 들어 화각이 160도 이상을 사용하는 것이 좋다.
상기 직선 추출 유닛(210)은 상기 영상으로부터 하나 이상의 직선을 추출한다. 상기 직선은 천장을 포함하는 상방 영역 또는 전방에 존재하는 형광등, 인테리어 구조물 등에 의할 수도 있고, 벽이나, 천장 등에 의해 추출될 수도 있다.
상기 특징선 추출 유닛(220)은, 상기 직선 추출 유닛(210)을 통해 추출된 직선들 중 상기 영상의 중심, 즉 카메라 뷰의 중심으로부터 방사되는 직선, 즉 특징선을 추출한다. 상기 특징선들은 일반적으로 벽, 창틀, 문틀 등 세로 선(vertical line)의 형태로 추출된다. 도 6은 상기 특징선과 다른 직선에 의해 형성되는 기하학적 형태의 예들을 보인 것으로서, 도 7과 같은 영상에서 도 6과 같은 형태의 특징선들이 나타나는 것을 볼 수 있다. 형태 1은 거울 등의 부착물의 모서리 부분에서, 형태 2는 출입문이나 창문 등의 겹치는 부분에서, 형태 3은 방의 구석에서 각각 나타나는 것을 볼 수 있다. 상기 형태들은 특징선과 다른 직선들의 교차로 형성되고, 특징점들은 상기 교차하는 곳의 점이 된다. 이때, 상기 특징선은 벽이나, 출입문, 창문, 거울 등의 부착물을 따라 카메라 뷰의 중심으로 향하는 세로 선이다.
상기 특징점 추출 유닛(230)은, 상기 복수의 영상들 각각에 대하여 좌표 정보를 갖는 하나 이상의 특징점을 추출한다. 도 4를 참조하면, 상기 영상 검출 유닛(100)을 통해 검출된 영상에서 상기 특징점들은 천장을 포함하는 상방 영역 또는 전방에 존재하는 형광등, 인테리어 구조물 등의 자연 표식이다. 여기서, 상기 특징점은, 상기 영상에서의 위치, 방향, 및 기술자로 구성된 특징점 정보를 포함하고, 상기 기술자는, 상기 특징점의 추출 정보를 나타낸다. 상기 기술자는, 상기 특징점의 특징을 나타내는 것으로서, 상기 영상에서 상기 특징점을 포함하는 일정한 크기의 행렬이 된다. 상기 기술자는, 영상으로부터 추출된 위치에서의 구조물의 형태 또는 모양을 포함한다.
상기 특징점 추출 유닛(230)을 통해 추출된 특징점들 중 일부는 상기 특징선 상에 위치하게 된다. 즉, 상기 특징점들 중 일부는, 상기 특징선과 상기 직선의 교차점을 상기 특징점으로 추출한다.
상기 제어 유닛(300)은, 상기 특징점 정보를 이용하여 특징점들 사이의 유사도를 연산하고, 상기 유사도가 가장 큰 특징점을 이용하여 상기 위치를 인식한다. 이때, 상기 제어 유닛(300)은, 상기 영상 검출 유닛(100)을 통해 검출된 복수의 영상으로부터 상기 특징점 추출 유닛(230)이 추출한 특징점들의 특징점 정보들을 이용하여 특징점들을 정합하고, 이동 로봇의 위치를 인식하거나, 또는 상기 저장 유닛(400)에 미리 저장된 영상 정보, 즉 영상이나 특징선, 특징점 등과 상기 영상 검출 유닛(100)을 통해 검출된 영상의 영상 정보들을 이용하여 특징점들을 정합하고, 이동 로봇의 위치를 인식한다. 상기 특징점들 간에는 유사도를 판별하는 특징점 공간에서의 거리가 존재한다. 즉, 상기 거리가 짧으면 상기 특징점들은 큰 유사도를 가지고, 상기 거리가 길면 상기 특징점들의 유사도는 작아진다. 상기 특징점은, 예를 들어, (x1,i, y1 ,i), (x2,i, y2 ,i)와 같이 표시될 수 있다. 물론 상기 특징점을 3차원 좌표계 상의 점으로 표시할 수 있다. 이때, 특징점들 사이의 거리(Δ)는, 하기 수학식 1과 같이 쓸 수 있다.
Figure pat00001
상기 제어 유닛(300)은, 예를 들어, 상기 수학식 1을 이용하여 그 거리가 일정 거리 이하이면 이를 동일한 특징점으로 판단하여 정합한다.
상기 저장 유닛(400)은, 주행하는 중에 검출한 장애물 정보를 더 저장할 수 있다. 또한, 상기 저장 유닛(400)은, 상기 영상 검출 유닛(100)을 통해 검출된 복수의 영상들을 저장하고, 상기 직선 추출 유닛(210), 상기 특징선 추출 유닛(220), 상기 특징점 추출 유닛(230)을 통해 추출된 직선들, 특징선들, 특징점들을 저장한다. 또한, 상기 저장유닛(400)은 이동 로봇을 구동하는 프로그램을 더 포함할 수 있다.
도 5를 참조하면, 본 발명에 따른 이동 로봇은, 바퀴(510)를 구동하여 이동 로봇을 이동하는 구동 유닛(520)과, 상기 바퀴에 연결되어 이동 거리를 측정하는 거리 측정 유닛(530)을 더 포함하여 구성된다. 여기서, 상기 이동 로봇의 위치는 상기 이동 거리 측정 유닛(530)을 통해 측정된 이동 거리와, 상기 특징점 정합 결과를 근거로 인식된 위치를 조합하여 더욱 정밀하게 인식될 수 있다.
도 3은 본 발명에 따른 이동 로봇의 일 예로서, 로봇 청소기의 외관을 도시한 사시도이고, 도 5는 로봇 청소기의 구성을 도시한 블록도이다.
도 3 및 도 5를 참조하면, 본 발명에 따른 로봇 청소기는, 주변을 촬영하여 하나 이상의 영상을 검출하는 영상 검출 유닛(100)과, 상기 영상으로부터 하나 이상의 직선을 추출하는 직선 추출 유닛(210)과, 상기 직선 중 상기 영상의 중심을 향하는 하나 이상의 특징선을 추출하는 특징선 추출 유닛(220)과, 상기 영상으로부터 하나 이상의 특징점을 추출하는 특징점 추출 유닛(230)과, 상기 특징점을 정합하고, 상기 특징점 정합 결과를 근거로 위치를 인식하는 제어 유닛(300)과, 상기 영상 검출 유닛(100)을 통해 검출된 영상, 상기 특징선 추출 유닛(210)을 통해 추출된 특징선, 및 상기 특징점 추출 유닛(220)을 통해 추출된 특징점을 포함하는 영상 정보를 저장하는 저장 유닛(400)을 포함하여 구성된다. 상기 영상 검출 유닛(100)과, 상기 직선 추출 유닛(210), 상기 특징선 추출 유닛(220), 상기 특징점 추출 유닛(230)에 대한 설명은 상기 이동 로봇에 대한 설명에 갈음하고, 생략한다.
또한, 본 발명에 따른 로봇 청소기는, 바퀴(510)를 구동하여 이동 로봇을 이동하는 구동 유닛(520)과, 상기 바퀴에 연결되어 이동 거리를 측정하는 거리 측정 유닛(530)을 더 포함하여 구성된다. 상기 구동 유닛(520)은 복수의 주바퀴와 하나 이상의 보조바퀴를 포함하는 상기 다수의 바퀴(510)를 회전시키는 소정의 휠모터(Wheel Motor)를 구동하여 로봇 청소기가 이동하도록 한다. 본 발명에 따른 로봇 청소기는, 상기 구동 유닛(520)을 통해 이동 중에 상기 영상 검출 유닛(100)을 통해 상기 복수의 영상들을 검출한다. 상기 거리 측정 유닛(530)으로는 로봇 청소기의 바퀴를 구동하는 휠모터와 연결되어 속도를 검출하는 인코더를 주로 사용할 수 있는데, 그 대신에 속도 및 위치를 인식하는 가속도 센서, 로봇 청소기의 회전 속도를 검출하는 자이로 센서 등도 사용될 수 있다. 상기 제어 유닛(300)은 상기 거리 측정 유닛(530)을 통해 측정된 이동 거리를 이용하여 특징점들의 정합 결과를 검증하여 로봇 청소기의 위치를 인식한다.
도 5를 참조하면, 본 발명에 따른 로봇 청소기는, 주변의 장애물을 검출하는 장애물 검출 유닛(600)을 더 포함하고, 상기 제어 유닛(300)은, 상기 장애물을 근거로 내부지도를 생성하고, 상기 내부지도를 근거로 청소경로 또는 주행경로를 설정한다. 여기서, 상기 제어 유닛(300)은, 상기 위치를 근거로 상기 청소경로 또는 상기 주행경로를 수정하고, 수정된 청소경로 또는 수정된 주행경로를 근거로 청소를 수행하거나, 또는 주행한다. 상기 장애물 검출 유닛(600)은, 가정이나 사무실 등의 실내에서 주행 중이거나, 청소 중에 로봇 청소기 주변의 장애물을 검출하고, 상기 장애물의 유무, 또는 위치, 크기 등의 장애물 정보를 상기 제어 유닛(300)에 전달한다. 상기 장애물 검출유닛(600)으로는 적외선 센서, 초음파 센서, RF 센서(Radio Frequency Sensor)나 범퍼(Bumper) 등을 사용할 수 있다. 또한, 상기 장애물 검출유닛(600)은, 초음파 센서, 적외선 삼각 측량 방식을 이용하여 거리를 정확히 산출할 수 있는 PSD (Position Sensitive Device) 센서, 또는 레이저를 발사한 뒤 반사되어 되돌아오는 레이저를 검출하여 정확한 거리를 측정하는 레이저 거리 측정기(Laser Range Finder; LRF) 등을 이용하여 벽면과의 거리를 측정하고, 이를 근거로 벽면의 형태, 위치 등을 검출할 수 있다. 상기 장애물 검출 유닛(600)을 통해 검출된 장애물 정보는 상기 저장 유닛(400)에 저장될 수 있다.
상기 제어 유닛(300)은, 상기 장애물 검출 유닛(600)을 통해 검출한 상기 장애물을 근거로 내부지도를 생성하고, 상기 내부지도를 근거로 청소경로 또는 주행경로를 설정한다.
상기 저장 유닛(400)은, 주행하거나, 또는 청소하는 중에 검출한 장애물 정보를 더 저장할 수 있다. 또한, 상기 저장 유닛(400)은, 상기 영상 검출 유닛(100)을 통해 검출된 복수의 영상들, 상기 직선 추출 유닛(210)을 통해 추출된 하나 이상의 직선, 상기 특징선 추출 유닛(220)을 통해 추출된 하나 이상의 특징선, 상기 특징점 추출 유닛(230)을 통해 추출된 특징점을 저장할 수 있다. 상기 저장 유닛(400)은 비휘발성 메모리인 것이 좋다. 여기서, 상기 비휘발성 메모리(Non-Volatile Memory, NVM, NVRAM)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 저장 장치로서, 롬(ROM), 플래시 메모리(Flash Memory), 마그네틱 컴퓨터 기억 장치(예를 들어, 하드 디스크, 디스켓 드라이브, 마그네틱 테이프), 광디스크 드라이브 등을 포함하며, 천공 카드, 페이퍼 테이프 뿐만 아니라, 마그네틱 RAM, PRAM 등을 포함한다. 또한, 상기 저장유닛(400)은 상기 청소 영역 내에서의 로봇 청소기의 이동 기록, 청소 내역 등을 더 저장할 수 있고, 로봇 청소기를 구동하는 프로그램을 더 포함할 수 있다.
또한, 상기 제어 유닛(300)은, 상기 특징점의 정합 결과나 이동 거리를 이용하여 검증된 위치를 이용하여 상기 청소경로 또는 상기 주행경로를 수정하고, 수정된 청소경로 또는 수정된 주행경로를 근거로 청소를 수행하거나, 또는 주행한다.
상기 로봇 청소기는, 충전 가능한 전원 공급 수단을 구비하여 로봇 청소기 내로 전원을 공급하는 전원유닛(700)을 더 포함할 수 있고, 상기 전원유닛(700)은 로봇 청소기가 이동하고, 청소를 수행하는데 따른 동작 전원을 공급하며, 로봇 청소기 내에 구비된 상기 전원 공급 수단, 즉 배터리 잔량이 부족하면 충전대로부터 충전 전류를 공급받아 충전한다.
상기 로봇 청소기는, 직접 제어 명령을 입력하거나, 또는 장애물 정보나, 상기 저장 유닛(400)에 저장된 정보를 출력하도록 하는 명령을 입력받는 입력 유닛(800)을 더 포함하여 구성된다. 상기 입력 유닛(800)은, 장애물의 위치, 로봇 청소기의 위치 등의 위치 정보나, 특징선, 특징점에 관한 정보, 내부지도, 청소경로, 또는 주행경로를 확인하는 명령을 입력하는 확인버튼, 설정하는 명령을 입력하는 설정버튼, 재설정하는 명령을 입력하는 재설정버튼, 삭제버튼, 청소시작버튼, 정지버튼 중 하나 이상의 입력 버튼을 구비할 수 있다.
상기 로봇 청소기는, 상기 저장 유닛(400)에 저장된 영상, 특징선, 특징점 등의 정보나, 장애물 정보, 또는 상기 제어 유닛(300)을 통해 생성된 내부지도를 디스플레이하는 출력 유닛(900)을 더 포함할 수 있다. 상기 출력 유닛(900)은, 로봇 청소기를 구성하는 각 유닛들의 현재 상태와, 현재 청소 상태 등의 상태 정보들을 더 표시할 수 있다. 상기 출력 유닛(900)은, 발광다이오드(Light Emitting Diode; LED), 액정표시장치(Liquid Crystal Display; LCD), 플라즈마표시패널(Plasma Display Panel), 유기발광다이오드(Organic Light Emitting Diode; OLED) 중 어느 하나의 소자로 형성될 수 있다.
사용자 등은 상기 입력 유닛(800)을 통해 제어 명령을 입력함으로써 상기 출력 유닛(900)에 표시된 내부지도에서 청소가 필요한 섹터나, 또는 방을 선택하여 청소를 수행하도록 할 수 있으며, 청소 패턴, 청소 순서 등을 설정하는 제어 명령을 입력할 수 있다. 상기 입력 유닛(800)과 상기 출력 유닛(900)은, 입력 또는 출력이 모두 가능한 터치스크린의 형태를 가질 수 있다.
도 10은 실제로 상기 영상 검출 유닛(100)을 통해 촬영된 영상으로부터 상기 특징선을 추출하고, 특징점들을 정합하는 동작을 보인 도이다. 도 10에서 원 안의 특징점들이 특징선 상의 특징점들이다. 도 10을 참조하면, 본 발명에 따른 이동 로봇은, 영상으로부터 복수의 특징점들을 추출하고, 이들을 정합하여 위치를 인식하는데, 상기 영상으로부터 복수의 특징선들을 추출하고, 이러한 특징선들과 다른 직선들에 의해 형성되는 특징점을 정합하면, 연산량을 줄일 수 있고, 더욱 정밀하게 특징점을 정합할 수 있게 된다. 즉, 상기 특징점들 중 일부는 조명의 변화에 따라 사라지거나, 새롭게 추출될 수 있고, 특히 조명이 급변하는 경우, 예를 들어 온/오프되는 경우에는 조명 자체에 의해 발생하거나, 사라지게 된다. 그러나, 본 발명에 따른 이동 로봇은 기하하적인 제약을 둠으로써 상기 조명 변화에 강인한 특징점들을 추출하고, 이들을 이용하여 정합함으로써 환경의 제약 없이 더욱 정밀하게 위치를 인식할 수 있다.
도 8을 참조하면, 본 발명에 따른 이동 로봇의 제어 방법은, 주변을 촬영하여 하나 이상의 영상을 검출하는 영상 검출 단계(S100)와, 상기 영상으로부터 하나 이상의 직선을 추출하는 직선 추출 단계(S210)와, 상기 직선 중 상기 영상의 중심을 향하는 하나 이상의 특징선을 추출하는 특징선 추출 단계(S220)와, 상기 영상으로부터 하나 이상의 특징점을 추출하는 특징점 추출 단계(S230)와, 상기 특징점을 정합하는 단계(S400)와, 상기 특징점 정합 결과를 근거로 위치를 인식하는 단계(S500)를 포함하여 구성된다. 이하 장치의 구성은 도 1 내지 도 7을 참조한다.
본 발명에 따른 이동 로봇의 제어 방법은, 상기 영상, 상기 특징선, 및 상기 특징점을 포함하는 영상 정보를 저장하는 단계(S400)를 더 포함하여 구성된다. 여기서, 상기 위치를 인식하는 단계(S500)는, 상기 저장된 특징점과, 상기 검출된 영상의 특징점을 정합하고(S400), 상기 특징점 정합 결과를 근거로 위치를 인식한다.
본 발명에 따른 이동 로봇의 제어 방법에 있어서, 상기 위치를 인식하는 단계(S500)는, 상기 특징점 정보를 이용하여 특징점들 사이의 유사도를 연산하는 과정(미도시)과, 상기 유사도를 상호 비교하는 과정(미도시)을 포함하고, 상기 유사도가 가장 큰 특징점을 이용하여 상기 위치를 인식한다.
먼저, 상기 이동 로봇은, 상부에 설치되고, 상방을 촬영하여 상방 영상을 검출하는 상방 카메라이거나, 또는 전방을 촬영하여 전방 영상을 검출하는 전방 카메라 등의 영상 검출 유닛을 통해 복수의 영상을 검출한다(S100). 그런 다음, 상기 이동 로봇은, 복수의 영상들로부터 천장을 포함하는 상방 영역 또는 전방에 존재하는 형광등, 인테리어 구조물 등의 자연 표식으로부터 특징점을 추출하고(S230), 상기 특징점들 사이의 거리를 연산하여 유사도를 연산하고, 상기 유사도를 근거로 상기 특징점을 정합한다(S400). 여기서, 상기 거리는, 실제 거리가 아니라, 특징점 공간에서의 거리를 의미한다. 이때, 상기 거리가 짧으면 상기 특징점들은 큰 유사도를 가지고, 상기 거리가 길면 상기 특징점들의 유사도는 작아진다. 여기서, 특징점들은, 상기 영상에서의 위치, 방향, 및 기술자로 구성되고, 상기 기술자는, 상기 특징점의 추출 정보를 나타낸다.
상기 이동 로봇은, 상기 영상으로부터 하나 이상의 직선을 추출한다(S210). 상기 직선은 천장을 포함하는 상방 영역 또는 전방에 존재하는 형광등, 인테리어 구조물 등에 의하거나, 벽이나, 천장 등에 의해 추출될 수도 있다. 상기 이동 로봇은, 상기 직선들 중 카메라 뷰의 중심으로부터 방사되는 직선, 즉 특징선을 추출한다(S220). 상기 특징선들은 일반적으로 벽, 창틀, 문틀 등 세로 선(vertical line)의 형태로 추출된다. 도 6은 상기 특징선과 다른 직선에 의해 형성되는 기하학적 형태의 예들을 보인 것으로서, 도 7과 같은 영상에서 도 6과 같은 형태의 특징선들이 나타나는 것을 볼 수 있다. 형태 1은 거울 등의 부착물의 모서리 부분에서, 형태 2는 출입문이나 창문 등의 겹치는 부분에서, 형태 3은 방의 구석에서 각각 나타나는 것을 볼 수 있다. 상기 형태들은 특징선과 다른 직선들의 교차로 형성되고, 특징점들은 상기 교차하는 곳의 점이 된다. 이때, 상기 특징선은 벽이나, 출입문, 창문, 거울 등의 부착물을 따라 카메라 뷰의 중심으로 향하는 세로 선이다.
상기 특징점들 중 일부는 상기 특징선 상에 위치하게 된다. 즉, 상기 특징점들 중 일부는, 상기 특징선과 상기 직선의 교차점을 상기 특징점으로 추출한다(S230). 상기 이동 로봇은, 상기 특징점 정보를 이용하여 특징점들 사이의 유사도를 연산하고, 상기 유사도가 가장 큰 특징점을 이용하여 상기 위치를 인식한다. 이때, 상기 이동 로봇은, 검출한 복수의 영상으로부터 추출한 특징점들의 특징점 정보들을 이용하여 특징점들을 정합하고(S400), 자신의 위치를 인식하거나(S500), 또는 미리 저장된 영상 정보, 즉 영상이나 특징선, 특징점 등과 검출한 영상의 영상 정보들을 이용하여 특징점들을 정합하고(S400), 이동 로봇의 위치를 인식한다(S500).
본 발명에 따른 이동 로봇의 제어 방법은, 이동 로봇의 이동 거리를 측정하는 단계(미도시)를 더 포함하여 구성되고, 상기 이동 로봇은 상기 특징점 정합 결과를 근거로 인식된 위치와 상기 이동 거리를 근거로 인식된 위치를 이용하여 더욱 정밀하게 위치를 인식할 수 있다.
도 9는, 본 발명에 따른 이동 로봇의 일 예인 로봇 청소기의 제어 방법을 개략적으로 도시한 흐름도이다. 도 9를 참조하면, 본 발명에 따른 로봇 청소기의 제어 방법은, 주변을 촬영하여 하나 이상의 영상을 검출하는 영상 검출 단계(S100)와, 상기 영상으로부터 하나 이상의 직선을 추출하는 직선 추출 단계(S210)와, 상기 직선 중 상기 영상의 중심을 향하는 하나 이상의 특징선을 추출하는 특징선 추출 단계(S220)와, 상기 영상으로부터 하나 이상의 특징점을 추출하는 특징점 추출 단계(S230)와, 상기 특징점을 정합하는 단계(S400)와, 상기 특징점 정합 결과를 근거로 위치를 인식하는 단계(S510)와, 이동 로봇의 이동 거리를 근거로 위치를 인식하는 단계(S520)를 포함하여 구성된다. 이하 장치의 구성은 도 3 내지 도 5를 참조한다.
먼저, 상기 로봇 청소기는, 상부에 설치되고, 상방을 촬영하여 상방 영상을 검출하는 상방 카메라이거나, 또는 전방을 촬영하여 전방 영상을 검출하는 전방 카메라 등의 영상 검출 유닛을 통해 복수의 영상을 검출한다(S100). 그런 다음, 상기 로봇 청소기는, 상기 영상으로부터 하나 이상의 직선을 추출한다(S210). 상기 직선은 천장을 포함하는 상방 영역 또는 전방에 존재하는 형광등, 인테리어 구조물 등에 의할 수도 있고, 벽이나, 천장 등에 의해 추출될 수도 있다. 상기 로봇 청소기는, 상기 직선들 중 카메라 뷰의 중심으로부터 방사되는 직선, 즉 특징선을 추출한다(S220). 또한, 상기 로봇 청소기는, 복수의 영상들로부터 천장을 포함하는 상방 영역 또는 전방에 존재하는 형광등, 인테리어 구조물 등의 자연 표식으로부터 특징점을 추출하고(S230), 상기 특징점들 사이의 거리를 연산하여 유사를 연산하고, 상기 유사도를 근거로 상기 특징점을 정합한다(S400). 상기 특징점들 중 일부는 상기 특징선 상에 위치하게 된다. 즉, 상기 특징점들 중 일부는, 상기 특징선과 상기 직선의 교차점이 된다. 상기 로봇 청소기는, 상기 특징점 정보를 이용하여 특징점들 사이의 유사도를 연산하고, 상기 유사도가 가장 큰 특징점을 이용하여 상기 위치를 인식한다. 이때, 상기 로봇 청소기는, 일정 주기에 따라 촬영한 복수의 영상으로부터 추출한 특징점들의 특징점 정보들을 이용하여 특징점들을 정합하고, 위치를 인식하거나, 또는 미리 저장된 영상 정보, 즉 영상이나 특징선, 특징점 등과 현재 검출된 영상의 영상 정보들을 이용하여 특징점들을 정합하고, 위치를 인식한다(S510). 또한, 상기 로봇 청소기는, 이동 거리를 측정하는 단계(미도시)를 더 포함하여 구성되고, 상기 로봇 청소기는 상기 특징점 정합 결과를 근거로 인식된 위치와 상기 이동 거리를 근거로 인식된 위치를 이용하여 더욱 정밀하게 위치를 인식할 수 있다(S520, S530).
도 9를 참조하면, 본 발명에 따른 로봇 청소기의 제어 방법은, 주변의 장애물을 검출하는 장애물 검출 단계(S600)와, 상기 장애물을 근거로 내부지도를 생성하는 지도 생성 단계(S700)와, 상기 내부지도를 근거로 청소경로 또는 주행경로를 설정하는 단계(S810)와, 상기 설정된 청소경로 또는 상기 수정된 주행경로를 근거로 청소를 수행하거나, 또는 주행하는 단계(S820)를 더 포함하여 구성된다.
상기 로봇 청소기는, 장애물 검출 유닛을 통해 이동하거나, 청소하는 중에 주변의 장애물을 검출하고(S600), 검출한 상기 장애물을 근거로 내부지도를 생성한 다음(S700), 상기 내부지도를 근거로 청소경로 또는 주행경로를 설정한다(S810). 또한, 상기 로봇 청소기는, 상기 특징점 정합 결과를 통해 인식하거나, 또는 이동 거리를 이용하여 검증된 위치를 근거로 상기 청소경로 또는 상기 주행경로를 수정할 수 있다(미도시). 상기 로봇 청소기는, 상기 청소경로 또는 상기 주행경로를 근거로 청소를 수행하거나, 또는 주행한다(S820).
도 10은 실제로 상기 영상 검출 유닛(100)을 통해 촬영된 영상으로부터 상기 특징선을 추출하고, 특징점들을 정합하는 동작을 보인 도이다. 도 10을 참조하면, 본 발명에 따른 이동 로봇은, 영상으로부터 복수의 특징점들을 추출하고, 이들을 정합하여 위치를 인식하는데, 상기 영상으로부터 복수의 특징선들을 추출하고, 이러한 특징선들과 다른 직선들에 의해 형성되는 특징점을 정합하면, 연산량을 줄일 수 있고, 더욱 정밀하게 특징점을 정합할 수 있게 된다. 즉, 상기 특징점들 중 일부는 조명의 변화에 따라 사라지거나, 새롭게 추출될 수 있고, 특히 조명이 급변하는 경우, 예를 들어 온/오프되는 경우에는 조명 자체에 의해 발생하거나, 사라지게 된다. 그러나, 본 발명에 따른 이동 로봇은 기하하적인 제약을 둠으로써 상기 조명 변화에 강인한 특징점들을 추출하고, 이들을 이용하여 정합함으로써 환경의 제약 없이 더욱 정밀하게 위치를 인식할 수 있다.
이상 설명한 바와 같이, 본 발명에 따른 이동 로봇 및 이의 제어 방법은, 저가의 카메라를 이용하여 자신의 위치를 인식함에 있어서 기하학적인 제약 조건을 적용하여 외부 조명변화가 발생하는 상황에서도 위치 인식의 오차를 줄이고 정밀하게 위치를 인식한다. 본 발명은 저가의 카메라를 통해 검출한 영상들로부터 특징점들을 추출하고, 이들을 정합함에 있어서 특징선들에 의한 기하학적인 제약 조건을 적용하여 외부 조명변화가 발생하는 상황에서도 강인하게 특징점들을 정합함으로써 조명 변화에 취약한 기존의 카메라 기반 위치 인식 방법의 성능을 개선하고, 시스템의 효율을 증대한다.
100: 영상 검출 유닛 210: 직선 추출 유닛
220: 특징선 추출 유닛 230: 특징점 추출 유닛
300: 제어 유닛 400: 저장 유닛
510: 바퀴 520: 구동 유닛
530: 거리 측정 유닛 600: 장애물 검출 유닛
700: 전원 유닛 800: 입력 유닛
900: 출력 유닛 110: 상방 카메라

Claims (15)

  1. 주변을 촬영하여 하나 이상의 영상을 검출하는 영상 검출 유닛;
    상기 영상으로부터 하나 이상의 직선을 추출하는 직선 추출 유닛;
    상기 직선 중 상기 영상의 중심을 향하는 하나 이상의 특징선을 추출하는 특징선 추출 유닛;
    상기 영상으로부터 하나 이상의 특징점을 추출하는 특징점 추출 유닛; 및
    상기 특징점을 정합하고, 상기 특징점 정합 결과를 근거로 위치를 인식하는 제어 유닛;을 이동 로봇.
  2. 제1 항에 있어서,
    상기 영상 검출 유닛을 통해 검출된 영상, 상기 특징선 추출 유닛을 통해 추출된 특징선, 및 상기 특징점 추출 유닛을 통해 추출된 특징점을 포함하는 영상 정보를 저장하는 저장 유닛;을 더 포함하는 이동 로봇.
  3. 제2 항에 있어서, 상기 제어 유닛은,
    상기 저장 유닛에 저장된 특징점과, 상기 영상 검출 유닛을 통해 검출된 영상의 특징점을 정합하고, 상기 특징점 정합 결과를 근거로 위치를 인식하는 것을 특징으로 하는 이동 로봇.
  4. 제1 항 내지 제3 항 중 어느 한 항에 있어서, 상기 특징점 추출 유닛은,
    상기 특징선과 상기 직선의 교차점을 상기 특징점으로 추출하는 것을 특징으로 하는 이동 로봇.
  5. 제4 항에 있어서,
    상기 특징점은, 상기 영상에서의 위치, 방향, 및 기술자로 구성된 특징점 정보를 포함하고,
    상기 기술자는, 상기 특징점의 추출 정보를 나타내는 것을 특징으로 하는 이동 로봇.
  6. 제5 항에 있어서, 상기 제어 유닛은,
    상기 특징점 정보를 이용하여 특징점들 사이의 유사도를 연산하고, 상기 유사도가 가장 큰 특징점을 이용하여 상기 위치를 인식하는 것을 특징으로 하는 이동 로봇.
  7. 제1 항에 있어서,
    바퀴를 구동하여 이동 로봇을 이동하는 구동 유닛; 및
    상기 바퀴에 연결되어 이동 거리를 측정하는 거리 측정 유닛;을 더 포함하는 것을 특징으로 하는 이동 로봇.
  8. 제1 항에 있어서, 상기 영상 검출 유닛은,
    상부에 설치되고, 상방을 촬영하여 상방 영상을 검출하는 상방 카메라;인 것을 특징으로 하는 이동 로봇.
  9. 주변을 촬영하여 하나 이상의 영상을 검출하는 영상 검출 단계;
    상기 영상으로부터 하나 이상의 직선을 추출하는 직선 추출 단계;
    상기 직선 중 상기 영상의 중심을 향하는 하나 이상의 특징선을 추출하는 특징선 추출 단계;
    상기 영상으로부터 하나 이상의 특징점을 추출하는 특징점 추출 단계;
    상기 특징점을 정합하는 단계; 및
    상기 특징점 정합 결과를 근거로 위치를 인식하는 단계;를 포함하는 이동 로봇의 제어 방법.
  10. 제9 항에 있어서,
    상기 영상, 상기 특징선, 및 상기 특징점을 포함하는 영상 정보를 저장하는 단계;를 더 포함하는 이동 로봇의 제어 방법.
  11. 제10 항에 있어서, 상기 위치를 인식하는 단계는,
    상기 저장된 특징점과, 상기 검출된 영상의 특징점을 정합하고, 상기 특징점 정합 결과를 근거로 위치를 인식하는 것을 특징으로 하는 이동 로봇의 제어 방법.
  12. 제9 항 내지 제11 항 중 어느 한 항에 있어서,
    상기 특징점은, 상기 특징선과 다른 직선의 교차점인 것을 특징으로 하는 이동 로봇의 제어 방법.
  13. 제12 항에 있어서,
    상기 특징점은, 상기 영상에서의 위치, 방향, 및 기술자로 구성된 특징점 정보를 포함하고,
    상기 기술자는, 상기 특징점의 추출 정보를 나타내는 것을 특징으로 하는 이동 로봇의 제어 방법.
  14. 제13 항에 있어서, 상기 위치를 인식하는 단계는,
    상기 특징점 정보를 이용하여 특징점들 사이의 유사도를 연산하는 과정;
    상기 유사도를 상호 비교하는 과정;을 포함하고,
    상기 유사도가 가장 큰 특징점을 이용하여 상기 위치를 인식하는 것을 특징으로 하는 이동 로봇의 제어 방법.
  15. 제9 항에 있어서,
    이동 로봇의 이동 거리를 측정하는 단계;를 더 포함하는 이동 로봇의 제어 방법.
KR1020100085107A 2010-08-31 2010-08-31 이동 로봇 및 이의 제어 방법 Ceased KR20120021064A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020100085107A KR20120021064A (ko) 2010-08-31 2010-08-31 이동 로봇 및 이의 제어 방법
US13/219,290 US8781164B2 (en) 2010-08-31 2011-08-26 Control of mobile robot by detecting line intersections
EP11179314.7A EP2423772B1 (en) 2010-08-31 2011-08-30 Mobile robot and visual navigation method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100085107A KR20120021064A (ko) 2010-08-31 2010-08-31 이동 로봇 및 이의 제어 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020160092820A Division KR20160090278A (ko) 2016-07-21 2016-07-21 이동 로봇 및 이의 제어 방법

Publications (1)

Publication Number Publication Date
KR20120021064A true KR20120021064A (ko) 2012-03-08

Family

ID=44509045

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100085107A Ceased KR20120021064A (ko) 2010-08-31 2010-08-31 이동 로봇 및 이의 제어 방법

Country Status (3)

Country Link
US (1) US8781164B2 (ko)
EP (1) EP2423772B1 (ko)
KR (1) KR20120021064A (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101400400B1 (ko) * 2012-09-28 2014-05-27 엘지전자 주식회사 로봇 청소기 및 로봇 청소기의 제어방법
WO2016028021A1 (ko) * 2014-08-20 2016-02-25 삼성전자주식회사 청소 로봇 및 그 제어 방법
KR20180043753A (ko) * 2016-10-20 2018-04-30 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
AU2015304254B2 (en) * 2014-08-20 2018-07-19 Samsung Electronics Co., Ltd. Cleaning robot and controlling method thereof
CN113311844A (zh) * 2021-07-28 2021-08-27 福勤智能科技(昆山)有限公司 一种伺服控制方法、装置、计算机设备及存储介质

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101750340B1 (ko) * 2010-11-03 2017-06-26 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
US9170581B2 (en) 2013-09-30 2015-10-27 Crown Equipment Limited Industrial vehicles with overhead light based localization
JP6127925B2 (ja) * 2013-11-11 2017-05-17 株式会社安川電機 ロボットシミュレーション装置、ロボットシミュレーション方法、およびロボットシミュレーションプログラム
KR102158695B1 (ko) * 2014-02-12 2020-10-23 엘지전자 주식회사 로봇 청소기 및 이의 제어방법
GB2529847B (en) 2014-09-03 2018-12-19 Dyson Technology Ltd A mobile Robot with Independently Adjustable Light Sources
GB2529846B (en) 2014-09-03 2019-02-20 Dyson Technology Ltd Illumination Control of a Vision System for a Mobile Robot
US9174830B1 (en) 2014-09-29 2015-11-03 Crown Equipment Limited Industrial vehicles with point fix based localization
US9918008B2 (en) 2015-02-06 2018-03-13 Wipro Limited Method and device for assisting a user to capture images
KR101659037B1 (ko) * 2015-02-16 2016-09-23 엘지전자 주식회사 로봇 청소기, 이를 포함하는 원격 제어 시스템 및 이의 제어 방법
US9717387B1 (en) * 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
KR101697857B1 (ko) * 2015-04-08 2017-01-18 엘지전자 주식회사 이동 로봇 및 그의 위치인식방법
KR20180121244A (ko) * 2017-04-28 2018-11-07 엘지전자 주식회사 이동 로봇 및 그 제어방법
JP6905390B2 (ja) * 2017-06-01 2021-07-21 株式会社豊田中央研究所 自車位置推定用環境地図生成装置、自車位置推定装置、自車位置推定用環境地図生成プログラム、及び自車位置推定プログラム
KR102350533B1 (ko) 2017-06-13 2022-01-11 엘지전자 주식회사 비전 정보에 기반한 위치 설정 방법 및 이를 구현하는 로봇
WO2020184738A1 (ko) * 2019-03-08 2020-09-17 엘지전자 주식회사 로봇
WO2020184739A1 (ko) * 2019-03-08 2020-09-17 엘지전자 주식회사 로봇
KR102143349B1 (ko) * 2019-03-27 2020-08-11 엘지전자 주식회사 이동 로봇의 제어 방법
KR20210055342A (ko) * 2019-11-07 2021-05-17 엘지전자 주식회사 로봇 및 그의 제어 방법
CN111012254B (zh) * 2019-12-30 2024-10-18 南京智慧建筑研究院有限公司 智能扫地机器人

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6956348B2 (en) * 2004-01-28 2005-10-18 Irobot Corporation Debris sensor for cleaning apparatus
KR100877071B1 (ko) 2007-07-18 2009-01-07 삼성전자주식회사 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치
KR100926760B1 (ko) 2007-12-17 2009-11-16 삼성전자주식회사 이동 로봇의 위치 인식 및 지도 작성 방법
EP3311722B1 (en) * 2008-04-24 2019-07-24 iRobot Corporation Application of localization, positioning & navigation systems for robotic enabled mobile products
KR101503903B1 (ko) 2008-09-16 2015-03-19 삼성전자 주식회사 이동 로봇의 지도 구성 장치 및 방법

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101400400B1 (ko) * 2012-09-28 2014-05-27 엘지전자 주식회사 로봇 청소기 및 로봇 청소기의 제어방법
WO2016028021A1 (ko) * 2014-08-20 2016-02-25 삼성전자주식회사 청소 로봇 및 그 제어 방법
AU2015304254B2 (en) * 2014-08-20 2018-07-19 Samsung Electronics Co., Ltd. Cleaning robot and controlling method thereof
AU2018250455B2 (en) * 2014-08-20 2019-04-04 Samsung Electronics Co., Ltd. Cleaning robot and controlling method thereof
US10394249B2 (en) 2014-08-20 2019-08-27 Samsung Electronics Co., Ltd. Cleaning robot and control method thereof
KR20180043753A (ko) * 2016-10-20 2018-04-30 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
CN113311844A (zh) * 2021-07-28 2021-08-27 福勤智能科技(昆山)有限公司 一种伺服控制方法、装置、计算机设备及存储介质

Also Published As

Publication number Publication date
US20120051595A1 (en) 2012-03-01
EP2423772B1 (en) 2013-12-25
US8781164B2 (en) 2014-07-15
EP2423772A1 (en) 2012-02-29

Similar Documents

Publication Publication Date Title
KR20120021064A (ko) 이동 로봇 및 이의 제어 방법
KR101813922B1 (ko) 로봇 청소기 및 이의 제어 방법
KR101677634B1 (ko) 로봇 청소기 및 이의 제어 방법
KR20120044768A (ko) 로봇 청소기 및 이의 제어 방법
KR101976462B1 (ko) 로봇청소기 및 그 제어방법
KR101649645B1 (ko) 로봇 청소기 및 이의 제어 방법
US10213082B2 (en) Robot cleaner
KR20160022769A (ko) 청소 로봇 및 그 제어 방법
KR101842459B1 (ko) 로봇 청소기 및 이의 제어 방법
KR20120118818A (ko) 로봇 청소기 및 이의 제어 방법
KR101786516B1 (ko) 이동 로봇 및 그 제어방법
KR101951414B1 (ko) 로봇 청소기 및 이의 제어 방법
KR101303161B1 (ko) 이동 로봇 및 이의 제어 방법
KR101943359B1 (ko) 로봇 청소기 및 이의 제어 방법
KR101895314B1 (ko) 로봇 청소기 및 이의 제어 방법
KR20110085500A (ko) 로봇 청소기 및 이의 제어 방법
KR20160090278A (ko) 이동 로봇 및 이의 제어 방법
KR20120126771A (ko) 로봇 청소기 및 이의 제어 방법
EP3478143B1 (en) Robot cleaner
KR102029920B1 (ko) 이동 로봇 및 이의 위치 인식 방법

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20100831

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20141017

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20100831

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20151030

Patent event code: PE09021S01D

E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20160429

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20151030

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I

E601 Decision to refuse application
E801 Decision on dismissal of amendment
PE0601 Decision on rejection of patent

Patent event date: 20160620

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20151030

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I

PE0801 Dismissal of amendment

Patent event code: PE08012E01D

Comment text: Decision on Dismissal of Amendment

Patent event date: 20160620

Patent event code: PE08011R01I

Comment text: Amendment to Specification, etc.

Patent event date: 20160526

Patent event code: PE08011R01I

Comment text: Amendment to Specification, etc.

Patent event date: 20151207

A107 Divisional application of patent
PA0107 Divisional application

Comment text: Divisional Application of Patent

Patent event date: 20160721

Patent event code: PA01071R01D