KR20130042389A - 이동 로봇 및 이의 제어 방법 - Google Patents

이동 로봇 및 이의 제어 방법 Download PDF

Info

Publication number
KR20130042389A
KR20130042389A KR1020110106658A KR20110106658A KR20130042389A KR 20130042389 A KR20130042389 A KR 20130042389A KR 1020110106658 A KR1020110106658 A KR 1020110106658A KR 20110106658 A KR20110106658 A KR 20110106658A KR 20130042389 A KR20130042389 A KR 20130042389A
Authority
KR
South Korea
Prior art keywords
feature
obstacle
unit
extracting
lines
Prior art date
Application number
KR1020110106658A
Other languages
English (en)
Other versions
KR101303161B1 (ko
Inventor
이성수
백승민
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020110106658A priority Critical patent/KR101303161B1/ko
Publication of KR20130042389A publication Critical patent/KR20130042389A/ko
Application granted granted Critical
Publication of KR101303161B1 publication Critical patent/KR101303161B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • B25J13/089Determining the position of the robot with reference to its environment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/04Viewing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

이동 로봇 및 이의 제어 방법이 개시된다. 본 발명의 실시 예들은 영상 정보와 장애물 정보를 이용하여 자신의 위치를 인식할 수 있다. 특히, 본 발명의 실시 예들은 주변의 조명 변화에 따라 영상 정보와 장애물 정보로부터 각각 추출한 특징선들을 이용하거나, 또는 영상 정보를 이용하여 생성한 장애물 지도와 장애물 정보로부터 추출한 특징선을 이용하여 자신의 위치를 정밀하게 인식할 수 있다. 또, 본 발명의 실시 예들은 영상 정보를 이용한 절대 위치 인식과 장애물 정보를 이용한 상대 위치 인식을 병행 수행함으로써 다양한 조명 환경에서 위치 인식의 오차를 줄이고, 절대 위치 인식의 성능을 개선하며, 운전 효율을 증대한다.

Description

이동 로봇 및 이의 제어 방법{MOBILE ROBOT AND CONTROLLING METHOD OF THE SAME}
본 발명은 다양한 조명 조건에서 정밀하게 위치를 인식할 수 있는 이동 로봇 및 이의 제어 방법에 관한 것이다.
일반적으로 로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다.
상기 가정용 로봇의 대표적인 예는 로봇 청소기로서, 일정 영역을 스스로 주행하면서 주변의 먼지 또는 이물질을 흡입하여 청소하는 전자기기의 일종이다. 이러한 로봇 청소기는 일반적으로 충전 가능한 배터리를 구비하고, 주행 중 장애물을 피할 수 있는 장애물 센서를 구비하여 스스로 주행하며 청소할 수 있다.
근래에는 이동 로봇, 특히 로봇 청소기를 이용한 응용 기술이 개발되고 있다. 예를 들어, 네트워킹 기능을 가진 이동 로봇의 개발이 진행되어, 원격지에서 청소 명령을 내릴 수 있도록 하거나 집안 상황을 모니터링할 수 있도록 하는 기능이 구현되고 있다. 또, 카메라나 각종 센서들을 이용하여 자기 위치인식 및 지도작성 기능을 가진 이동 로봇들이 개발되고 있다.
본 발명의 실시 예들은 영상 정보와 장애물 정보를 이용하여 자신의 위치를 인식하는 이동 로봇 및 이의 제어 방법을 제공함에 일 목적이 있다.
본 발명의 실시 예들은 영상 정보와 장애물 정보로부터 각각 특징선들을 추출하고 정합하여 자신의 위치를 정확하게 인식할 수 있는 이동 로봇 및 이의 제어 방법을 제공함에 다른 목적이 있다.
본 발명의 실시 예들은 영상 정보를 이용하여 생성한 장애물 지도와 장애물 정보로부터 추출한 특징선을 이용하여 조명이 변하는 환경에서도 자신의 위치를 정밀하게 인식할 수 있는 이동 로봇 및 이의 제어 방법을 제공함에 또 다른 목적이 있다.
일 실시 예에 따른 이동 로봇은, 주변으로부터 획득한 영상 정보로부터 특징점들을 추출하고, 상기 특징점들을 이용하여 제1 특징선들을 추출하는 제1 특징선 추출부와, 상기 주변의 장애물에 대한 장애물 정보를 이용하여 하나 이상의 제2 특징선을 추출하는 제2 특징선 추출부와, 상기 제1 특징선들과 상기 제2 특징선을 정합하고, 정합 결과를 근거로 위치를 인식하는 위치 인식부를 포함하여 구성된다.
다른 실시 예에 따른 이동 로봇은, 주변을 촬영하여 영상 정보를 검출하는 영상 검출 유닛과, 하나 이상의 센서를 구비하고, 상기 주변의 장애물을 감지하여 장애물 정보를 출력하는 장애물 감지 유닛과, 상기 영상 정보로부터 복수의 제1 특징선들을 추출하고, 상기 장애물 정보로부터 하나 이상의 제2 특징선을 추출하며, 상기 제1 특징선들과 상기 제2 특징선을 정합하여 위치를 인식하는 제어 유닛을 포함하여 구성된다.
일 실시 예에 따른 이동 로봇의 제어 방법은, 주변을 촬영하여 영상 정보를 검출하는 단계와, 상기 주변의 장애물을 감지하여 장애물 정보를 출력하는 단계와, 상기 영상 정보로부터 복수의 제1 특징선들을 추출하는 단계와, 상기 장애물 정보로부터 하나 이상의 제2 특징선을 추출하는 단계와, 상기 제1 특징선들과 상기 제2 특징선을 정합하는 단계와, 상기 정합 결과를 이용하여 이동 로봇의 위치를 인식하는 단계를 포함하여 구성된다.
본 발명의 실시 예들은 영상 정보와 장애물 정보를 이용하여 자신의 위치를 인식할 수 있다. 특히, 본 발명의 실시 예들은 주변의 조명 변화에 따라 영상 정보와 장애물 정보로부터 각각 추출한 특징선들을 이용하거나, 또는 영상 정보를 이용하여 생성한 장애물 지도와 장애물 정보로부터 추출한 특징선을 이용하여 자신의 위치를 정밀하게 인식할 수 있다.
본 발명의 실시 예들은 영상 정보를 이용한 절대 위치 인식과 장애물 정보를 이용한 상대 위치 인식을 병행 수행함으로써 다양한 조명 환경에서 위치 인식의 오차를 줄이고, 절대 위치 인식의 성능을 개선하며, 운전 효율을 증대한다.
본 발명의 실시 예들은 정밀하게 위치를 이동하거나 누락 없이 청소를 수행함으로써 사용자의 편의성 및 시스템의 안전성을 제고한다.
도 1은 일 실시 예에 따른 이동 로봇의 구성을 개략적으로 보인 블록도;
도 2 및 도 3은 다른 실시 예들에 따른 이동 로봇의 구성을 개략적으로 보인 블록도;
도 4a 및 도 4b는 본 발명의 실시 예들에 따라 영상 정보로부터 각각 특징점 및 특징선을 추출하는 동작을 설명하기 위한 도들;
도 5a 내지 도 5d는 본 발명의 실시 예들에 따라 영상 정보 및 장애물 정보로부터 각각 추출한 특징선들을 정합하는 동작을 설명하기 위한 도들;
도 6은 일 실시 예에 따른 로봇 청소기를 보인 사시도;
도 7은 일 실시 예에 따른 로봇 청소기를 보인 정면도; 및
도 8 내지 도 10은 실시 예들에 따른 이동 로봇의 제어 방법을 개략적으로 보인 흐름도들이다.
도 1을 참조하면, 일 실시 예에 따른 이동 로봇은, 제1 특징선 추출부(10)와, 제2 특징선 추출부(20)와, 위치 인식부(40)를 포함하여 구성된다. 제1 특징선 추출부(10)는, 주변으로부터 획득한 영상 정보로부터 특징점들을 추출하고, 상기 특징점들을 이용하여 제1 특징선들을 추출한다. 제2 특징선 추출부(20)는 상기 주변의 장애물에 대한 장애물 정보를 이용하여 하나 이상의 제2 특징선을 추출한다. 위치 인식부(40)는 상기 제1 특징선들과 상기 제2 특징선을 정합하고, 정합 결과를 근거로 위치를 인식한다.
상기 이동 로봇은, 상기 제1 특징선들을 이용하여 장애물 지도를 생성하는 지도 생성부(30)를 더 포함하여 구성된다. 여기서, 위치 인식부(40)는, 조도 정보에 따라 위치 인식을 달리한다. 즉, 위치 인식부(40)는, 주변의 조도가 일정 조도 이하이면, 지도 생성부(30)가 생성한 장애물 지도 내의 제1 특징선들과 제2 특징선 추출부(20)가 추출한 제2 특징선을 정합하여 위치를 인식한다. 반면, 위치 인식부(40)는, 주변의 조도가 일정 조도보다 크면, 영상 정보와 장애물 정보로부터 추출한 제1, 제2 특징선을 정합하여 위치를 인식한다.
도 4는 영상 정보로부터 제1 특징선을 추출하는 동작을 설명한다. 도 4a를 참조하면, 이동 로봇은 영상 정보를 소정 영상 처리하여 복수의 특징점들을 추출한다. 그런 다음, 이동 로봇은 연속 촬영한 둘 이상의 영상 정보를 근거로 복수의 특징점들을 정합한다. 복수의 특징점들은 3차원의 좌표로 표현될 수 있다. 도 4b를 참조하면, 이동 로봇은 3차원 좌표로 표현된 특징점들과 영상 정보로부터 추출한 선 성분들을 이용하여 제1 특징선들을 추출한다. 영상 정보로부터 제1 특징선들을 추출하는 방식은 영상 처리 기법에 따라 다양하므로, 영상 처리 기법에 대한 자세한 설명은 생략한다. 지도 생성부(30)는 제1 특징선들을 이용하여 전체 영역에 대한 장애물 지도를 생성할 수 있다. 즉, 제1 특징선들은 절대 위치를 가리키는 지표가 된다.
도 5a를 참조하면, 지도 생성부(30)는 제1 특징선들을 이용하여 장애물 지도를 생성할 수 있다. 즉, 이동 로봇은 3차원의 특징점들을 이용하여 영상 정보로부터 추출한 선 성분들을 장애물 지도로 표현할 수 있다.
도 5b 내지 도 5c를 참조하면, 이동 로봇은 주변의 장애물을 감지하여 장애물 정보를 생성하고 장애물 정보를 이용하여 제2 특징선을 추출한다. 장애물 정보는 장애물 감지 위치(또는 장애물 감지 시의 이동 로봇의 위치), 장애물 감지 주기(시간 간격) 등을 포함한다. 장애물 감지 위치는 도 5b와 같이 표시될 수 있고, 이를 연결하면 제2 특징선을 추출할 수 있다. 제2 특징선은 국부적인 장애물의 선 성분이다.
도 5d를 참조하면, 위치 인식부(40)는 제1 특징선과 제2 특징선을 정합하고 정합 결과를 이용하여 위치를 인식한다. 즉, 위치 인식부(40)는 절대 위치를 갖는 제1 특징선에 제2 특징선을 정합하여 위치를 인식한다. 여기서, 조명의 변화가 심하거나 조도가 일정 조도이한 경우, 위치 인식부(40)는 장애물 지도 내의 제1 특징선들에 제2 특징선을 정합하고 그 정합 결과를 이용할 수 있다.
도 2를 참조하면, 다른 실시 예에 따른 이동 로봇은, 주변을 촬영하여 영상 정보를 검출하는 영상 검출 유닛(100)과, 하나 이상의 센서를 구비하고, 상기 주변의 장애물을 감지하여 장애물 정보를 출력하는 장애물 감지 유닛(200)과, 제어 유닛(300)을 포함하여 구성된다. 제어 유닛(300)은, 상기 영상 정보로부터 복수의 제1 특징선들을 추출하고, 상기 장애물 정보로부터 하나 이상의 제2 특징선을 추출하며, 상기 제1 특징선들과 상기 제2 특징선을 정합하여 위치를 인식한다.
영상 검출 유닛(100)은 주변을 촬영하여 영상 정보를 검출한다. 영상 검출 유닛(100)은, 도 6에 도시한 바와 같이, 상방이나 전방을 향하도록 설치되고, 카메라를 구비하여, 이동 로봇의 주변을 촬영하여 영상 정보를 검출한다. 도 6 및 도 7은 이동 로봇의 일 예인 로봇 청소기의 사시도 및 정면도이다. 영상 검출 유닛(100)이 복수의 카메라들을 구비하는 경우, 카메라들은 일정 거리 또는 일정 각도로 이동 로봇의 상부나 옆면에 형성될 수 있다. 영상 검출 유닛(100)은, 카메라에 연결되어 피사체의 초점을 맞추는 렌즈를 포함할 수 있다. 상기 렌즈는 소정의 위치에서도 주변의 모든 영역, 예를 들어 천장의 모든 영역이 촬영될 수 있도록 화각이 넓은 렌즈를 사용한다.
도 3을 참조하면, 제어 유닛(300)은, 특징점 추출부(311)와, 좌표 산출부(312)와, 제1 특징선 추출부(310)를 포함하여 구성된다. 특징점 추출부(311)는 두 영상 정보로부터 복수의 점들을 추출하고, 상기 두 영상 정보 사이의 점들을 정합하여 복수의 특징점들을 추출한다. 좌표 산출부(312)는 상기 복수의 특징점들에 대한 3차원 좌표를 산출한다. 제1 특징선 추출부(310)는 상기 영상 정보로부터 상기 복수의 제1 특징선들을 추출한다.
도 4는 영상 정보로부터 제1 특징선을 추출하는 동작을 설명한다. 도 4a를 참조하면, 특징점 추출부(311)은 영상 정보를 소정 영상 처리하여 복수의 특징점들을 추출한다. 그런 다음, 제어 유닛(300)은 연속 촬영한 둘 이상의 영상 정보를 근거로 복수의 특징점들을 정합한다. 복수의 특징점들은 3차원의 좌표로 표현될 수 있다. 도 4b를 참조하면, 제1 특징선 추출부(310)는 3차원 좌표로 표현된 특징점들과 영상 정보로부터 추출한 선 성분들을 이용하여 제1 특징선들을 추출한다. 영상 정보로부터 제1 특징선들을 추출하는 방식은 영상 처리 기법에 따라 다양하므로, 영상 처리 기법에 대한 자세한 설명은 생략한다. 제1 특징선들은 절대 위치를 가리키는 지표가 된다.
도 6 및 도 7을 참조하면, 장애물 감지 유닛(200)은 이동 로봇의 전방, 즉 외주면에 일정 간격으로 설치되는 제1 센서(210)를 포함한다. 또, 장애물 감지 유닛(200)은 본체의 외측으로 돌출되는 면을 갖도록 설치되는 제2 센서(220)를 포함할 수 있다. 제1 센서와 제2 센서의 위치와 종류는 이동 로봇의 기종에 따라 달라질 수 있고, 장애물 감지 유닛은 더 다양한 센서를 포함할 수 있다. 제1 센서(210)는 이동 로봇의 이동 방향에 존재하는 물체, 특히 장애물을 감지하여 장애물 정보를 제어 유닛(300)에 전달한다. 즉, 제1 센서는, 이동 로봇의 이동 경로 상에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지하여 그 정보를 제어 유닛에 전달한다. 제1 센서는, 적외선 센서, 초음파 센서, RF 센서, 지자기 센서 등일 수 있다. 제2 센서(220)는 전방이나 측면에 존재하는 장애물을 감지하여 장애물 정보를 제어 유닛에 전달한다. 즉, 제2 센서는 이동 로봇의 이동 경로 상에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지하여 그 정보를 제어 유닛에 전달한다. 제2 센서는 적외선 센서, 초음파 센서, RF 센서, PSD(Position Sensitive Device) 센서 등일 수 있다.
장애물 감지 유닛(200)은 본체의 하면(저면)에 설치되고, 바닥면의 장애물, 예를 들어 낭떠러지를 감지하는 낭떠러지 센서를 더 포함할 수 있다. 낭떠러지 센서는 바닥면의 반사율, 색의 차이에 상관없이 안정적인 측정값을 얻을 수 있도록 구성되고, PSD 센서와 같이 적외선 모듈의 형태일 수 있다.
제어 유닛(300)은, 상기 제1 특징선들을 이용하여 장애물 지도를 생성할 수 있다. 도 3을 참조하면, 제어 유닛(300)은, 상기 3차원 좌표를 갖는 복수의 특징점들을 이용하여 상기 제1 특징선들을 상기 장애물 지도로 표현하는 지도 생성부(330)를 더 포함할 수 있다. 또, 제어 유닛(300)은, 상기 장애물 정보로부터 상기 하나 이상의 제2 특징선을 추출하는 제2 특징선 추출부(320)를 더 포함할 수 있다.
도 5a를 참조하면, 지도 생성부(330)는 제1 특징선들을 이용하여 장애물 지도를 생성할 수 있다. 즉, 지도 생성부(330)는 3차원의 특징점들을 이용하여 영상 정보로부터 추출한 선 성분들을 장애물 지도로 표현할 수 있다.
도 5b 내지 도 5c를 참조하면, 제2 특징선 추출부(320)는 주변의 장애물을 감지하여 장애물 정보를 생성하고 장애물 정보를 이용하여 제2 특징선을 추출한다. 장애물 정보는 장애물 감지 위치(또는 장애물 감지 시의 이동 로봇의 위치), 장애물 감지 주기(시간 간격) 등을 포함한다. 장애물 감지 위치는 도 5b와 같이 표시될 수 있고, 이를 연결하면 제2 특징선을 추출할 수 있다. 제2 특징선은 국부적인 장애물의 선 성분이다.
도 5d를 참조하면, 위치 인식부(340)는 제1 특징선과 제2 특징선을 정합하고 정합 결과를 이용하여 위치를 인식한다. 즉, 위치 인식부(340)는 절대 위치를 갖는 제1 특징선에 제2 특징선을 정합하여 위치를 인식한다. 여기서, 조명의 변화가 심하거나 조도가 일정 조도이한 경우, 위치 인식부(340)는 장애물 지도 내의 제1 특징선들에 제2 특징선을 정합하고 그 정합 결과를 이용할 수 있다.
도 2를 다시 참조하면, 상기 이동 로봇은, 상기 제1 특징선들, 상기 하나 이상의 제2 특징선, 및 상기 장애물 지도를 저장하는 저장 유닛(400)을 더 포함하여 구성된다. 저장 유닛(400)은 제1 특징선들, 제2 특징선 외에 영상 정보, 장애물 정보, 영역, 경로 중 하나 이상의 정보를 더 저장할 수 있다. 저장 유닛(400)은 이동 로봇을 제어(구동)하는 제어 프로그램 및 그에 따른 데이터를 저장한다. 또, 저장 유닛(400)은, 로봇 청소기의 경우에 청소 방식, 주행 방식, 청소 패턴, 청소 영역 등을 더 저장할 수 있다. 저장 유닛(400)으로는 롬(ROM), 플래시 메모리(Flash Memory) 등의 비휘발성 메모리(Non-Volatile Memory, NVM, NVRAM)를 사용하는 것이 좋다.
도 2를 다시 참조하면, 상기 이동 로봇은, 상기 주변의 조도를 감지하는 조도 감지 유닛(500)을 더 포함하여 구성된다. 조도 감지 유닛(500)은 이동 로봇이 위치하는 곳, 즉 영상 검출 유닛(100)이 촬영하고자 하는 영역에 대한 조도를 감지한다. 조도 감지 유닛(500)은, 예를 들어, 포토 센서, 포토 트랜지스터(Photo Transistor) 등을 이용하여 광을 감지할 수 있다. 여기서, 제어 유닛(300)은, 조도 감지 유닛(500)이 감지한 조도가 일정 조도보다 크면, 영상 정보와 장애물 정보로부터 각각 추출한 제1 특징선들과 제2 특징선의 정합 결과를 이용하고, 조도 감지 유닛(500)이 감지한 조도가 일정 조도 이하이면, 장애물 지도 내의 제1 특징선들과 추출한 제2 특징선의 정합 결과를 이용하여 위치를 인식한다.
도 3을 참조하면, 이동 로봇은 구동 유닛(600)과, 입력 유닛(700)과, 출력 유닛(800)을 더 포함할 수 있다.
이동 로봇은 하부 양측에 이동 가능하도록 하는 좌, 우측 주바퀴를 구비한다. 주 바퀴의 양측면에는 사용자의 파지가 용이하도록 손잡이가 설치될 수 있다. 구동 유닛(600)은 좌, 우측 주 바퀴(610)와 연결되고, 상기 바퀴들을 회전시키는 소정의 휠 모터(Wheel Motor)를 구비하여, 휠 모터를 구동함으로써 본체를 이동시킨다. 휠 모터는 각각 주 바퀴에 연결되어 주 바퀴가 회전하도록 하고, 휠 모터는 서로 독립적으로 작동하며 양방향으로 회전이 가능하다. 또, 이동 로봇은 배면에 하나 이상의 보조 바퀴를 구비하여 본체를 지지하고, 본체의 하면과 바닥면 사이의 마찰을 최소화하고 이동 로봇의 이동이 원활하도록 한다.
이동 로봇은 본체의 구동에 따른 이동 로봇의 동작을 감지하고 동작 정보를 출력하는 동작 감지 유닛(미도시)을 더 포함할 수 있다. 동작 감지 유닛으로는, 자이로 센서, 휠 센서, 가속도 센서 등을 사용한다.
자이로 센서(Gyro Sensor)는, 이동 로봇이 운전 모드에 따라 움직일 때 회전 방향을 감지하고 회전각을 검출한다. 자이로 센서는, 이동 로봇의 각속도를 검출하여 각속도에 비례하는 전압 값을 출력한다. 제어 유닛(300)은, 자이로 센서로부터 출력되는 전압 값을 이용하여 회전 방향 및 회전각을 산출한다.
휠 센서(Wheel Sensor)는, 좌, 우측의 주 바퀴(610)에 연결되어 주 바퀴의 회전수를 감지한다. 여기서, 휠 센서는 로터리 엔코더(Rotary Encoder)일 수 있다. 로터리 엔코더는 좌측과 우측의 주 바퀴의 회전수를 감지하여 출력한다. 제어 유닛(300)은 회전수를 이용하여 좌, 우측 바퀴의 회전 속도를 연산할 수 있다. 또, 제어 유닛(300)은, 좌, 우측 바퀴의 회전수 차이를 이용하여 회전각을 연산할 수 있다.
가속도 센서(Acceleration Sensor)는, 이동 로봇의 속도 변화, 예를 들어, 출발, 정지, 방향 전환, 물체와의 충돌 등에 따른 이동 속도의 변화를 감지한다. 가속도 센서는 주 바퀴나 보조바퀴의 인접 위치에 부착되어, 바퀴의 미끄러짐이나 공회전을 검출할 수 있다. 또, 가속도 센서는 제어 유닛(300)에 내장되어 이동 로봇의 속도 변화를 감지할 수 있다. 즉, 가속도 센서는 속도 변화에 따른 충격량을 검출하여 이에 대응하는 전압 값을 출력한다. 따라서, 가속도 센서는 전자식 범퍼의 기능을 수행할 수 있다.
제어 유닛(300)은 동작 감지 유닛으로부터 출력된 동작 정보를 근거로 이동 로봇의 위치 변화를 산출할 수 있다. 이러한 위치는 영상 정보를 이용한 절대 위치에 대응하여 상대 위치가 된다. 이동 로봇은 이러한 상대 위치 인식을 통해 영상 정보와 장애물 정보를 이용한 위치 인식의 성능을 향상시킬 수 있다.
도 6을 참조하면, 이동 로봇은 직접 제어 명령을 입력받는 입력 유닛(700)을 더 포함하여 구성된다. 또, 사용자 등은 입력 유닛을 통해 저장 유닛에 저장된 정보들 중 하나 이상의 정보를 출력하도록 하는 명령을 입력할 수 있다. 입력 유닛(700)은 하나 이상의 버튼으로 형성될 수 있다. 예를 들어, 로봇 청소기의 경우에, 입력 유닛(700)은 청소 모드를 설정하거나 변경하는 버튼을 구비할 수 있다. 또, 입력 유닛(700)은 충전 스테이션으로 복귀하도록 하는 명령을 입력받는 버튼을 더 구비할 수 있다. 입력 유닛(700)은, 도 6에 도시한 바와 같이, 하드 키나 소프트 키, 터치패드 등으로 이동 로봇의 상부에 설치될 수 있다. 또, 입력 유닛(700)은 출력 유닛과 함께 터치 스크린의 형태를 가질 수 있다.
출력 유닛(800)은, 도 6에 도시한 바와 같이, 이동 로봇의 상부에 구비된다. 물론 설치 위치나 설치 형태는 달라질 수 있다. 예를 들어, 출력 유닛(800)은, 예약 정보, 배터리 상태, 집중 청소, 공간 확장, 지그재그 운전 등의 청소 방식 또는 주행 방식 등을 화면에 표시한다. 출력 유닛(800)은 이동 로봇을 구성하는 각 유닛들의 현재 상태와, 현재 청소 상태를 출력할 수 있다. 또, 출력 유닛(800)은 장애물 정보, 위치 정보, 영상 정보, 장애물 지도, 영역, 경로 등을 화면에 디스플레이할 수 있다.
도 3을 참조하면, 이동 로봇은 전원 유닛(900)을 더 포함하여 구성된다. 전원 유닛(900)은, 충전 가능한 배터리를 구비하여 이동 로봇 내로 전원을 공급한다. 전원 유닛은 각 유닛들에 구동 전원과, 이동 로봇이 주행하거나 청소를 수행하는데 따른 동작 전원을 공급하며, 전원 잔량이 부족하면 충전 스테이션으로 이동하여 충전 전류를 공급받아 충전된다. 이동 로봇은, 배터리의 충전 상태를 감지하고, 감지 결과를 제어 유닛(300)에 전송하는 배터리 감지 유닛(미도시)을 더 포함할 수 있다. 배터리 잔량은 출력 유닛의 화면에 표시될 수 있다. 제어 유닛(300)은 미리 기준 값(배터리 잔량)을 설정하고, 배터리 잔량과 기준 값을 비교한다. 비교 결과, 감지 결과가 기준 값 이하이면, 제어 유닛(300)은 이동 로봇을 충전 스테이션으로 이동시켜 충전을 수행한다.
이동 로봇이 로봇 청소기인 경우에, 이동 로봇은 청소 유닛을 더 포함할 수 있다. 청소 유닛은, 집진된 먼지가 저장되는 먼지통과, 청소 영역의 먼지를 흡입하는 동력을 제공하는 흡입팬과, 상기 흡입팬을 회전시켜 공기를 흡입하는 흡입 모터로 구성되어, 주변의 먼지 또는 이물질을 흡입한다.
도 8을 참조하면, 일 실시 예에 따른 이동 로봇의 제어 방법은, 주변을 촬영하여 영상 정보를 검출하는 단계(S100)와, 상기 주변의 장애물을 감지하여 장애물 정보를 출력하는 단계(S200)와, 상기 영상 정보로부터 복수의 제1 특징선들을 추출하는 단계(S300)와, 상기 장애물 정보로부터 하나 이상의 제2 특징선을 추출하는 단계(S400)와, 상기 제1 특징선들과 상기 제2 특징선을 정합하는 단계(S500)와, 상기 정합 결과를 이용하여 이동 로봇의 위치를 인식하는 단계(S600)를 포함하여 구성된다. 이하 장치의 구성은 도 1 내지 도 7을 참조한다.
상기 제1 특징선들을 추출하는 단계(S300)는, 두 영상 정보로부터 복수의 점들을 추출하는 과정과, 상기 두 영상 정보 사이의 점들을 정합하여 복수의 특징점들을 추출하는 과정(S310)과, 상기 복수의 특징점들에 대한 3차원 좌표를 산출하는 과정(S320)과, 상기 3차원 좌표를 갖는 복수의 특징점들을 이용하여 상기 제1 특징선들을 추출하는 과정(S330)을 포함하여 구성된다.
도 4는 영상 정보로부터 제1 특징선을 추출하는 동작을 설명한다. 이동 로봇은 카메라를 이용하여 주변을 촬영하여 영상 정보를 검출한다(S100). 도 4a를 참조하면, 이동 로봇은 영상 정보를 소정 영상 처리하여 복수의 특징점들을 추출한다(S310). 그런 다음, 이동 로봇은 연속 촬영한 둘 이상의 영상 정보를 근거로 복수의 특징점들을 정합한다. 복수의 특징점들은 3차원의 좌표로 표현될 수 있다(S320). 도 4b를 참조하면, 이동 로봇은 3차원 좌표로 표현된 특징점들과 영상 정보로부터 추출한 선 성분들을 이용하여 제1 특징선들을 추출한다(S330). 영상 정보로부터 제1 특징선들을 추출하는 방식은 영상 처리 기법에 따라 다양하므로, 영상 처리 기법에 대한 자세한 설명은 생략한다. 이동 로봇은 제1 특징선들을 이용하여 전체 영역에 대한 장애물 지도를 생성할 수 있다. 즉, 제1 특징선들은 절대 위치를 가리키는 지표가 된다.
도 9를 참조하면, 상기 제어 방법은, 상기 복수의 제1 특징선들을 이용하여 장애물 지도를 생성하는 단계(S340)를 더 포함하여 구성된다. 상기 장애물 지도를 생성하는 단계(S340)는, 두 영상 정보로부터 복수의 점들을 추출하는 과정과, 상기 두 영상 정보 사이의 점들을 정합하여 복수의 특징점들을 추출하는 과정과, 상기 복수의 특징점들에 대한 3차원 좌표를 산출하는 과정과, 상기 3차원 좌표를 갖는 복수의 특징점들을 이용하여 상기 제1 특징선들을 상기 장애물 지도로 표현하는 과정을 포함하여 구성된다.
도 5a를 참조하면, 이동 로봇은 제1 특징선들을 이용하여 장애물 지도를 생성할 수 있다(S340). 즉, 이동 로봇은 3차원의 특징점들을 이용하여 영상 정보로부터 추출한 선 성분들을 장애물 지도로 표현할 수 있다.
이동 로봇은 PSD 센서나 초음파 센서 등의 장애물 감지 유닛을 이용하여 주변의 장애물을 감지하고 장애물 정보를 생성한다(S200). 도 5b 내지 도 5c를 참조하면, 이동 로봇은 장애물 정보를 이용하여 제2 특징선을 추출한다(S400). 장애물 정보는 장애물 감지 위치(또는 장애물 감지 시의 이동 로봇의 위치), 장애물 감지 주기(시간 간격) 등을 포함한다. 장애물 감지 위치는 도 5b와 같이 표시될 수 있고, 이를 연결하면 제2 특징선을 추출할 수 있다. 제2 특징선은 국부적인 장애물의 선 성분이다.
도 5d를 참조하면, 이동 로봇은 제1 특징선과 제2 특징선을 정합하고(S500) 정합 결과를 이용하여 위치를 인식한다(S600). 즉, 이동 로봇은 절대 위치를 갖는 제1 특징선에 제2 특징선을 정합하여 위치를 인식한다. 여기서, 조명의 변화가 심하거나 조도가 일정 조도 이하인 경우, 이동 로봇은 장애물 지도 내의 제1 특징선들에 제2 특징선을 정합하고 그 정합 결과를 이용할 수 있다.
도 10을 참조하면, 상기 제어 방법은, 상기 주변의 조도를 감지하는 단계(S700)와, 상기 감지한 조도와 일정 조도를 비교하는 단계(S710)를 더 포함하여 구성된다. 여기서, 상기 위치를 인식하는 단계(S600)는, 비교 결과를 이용하여 상기 위치를 인식한다. 또, 상기 정합하는 단계(S500)는, 상기 감지한 조도가 상기 일정 조도 이하이면, 상기 장애물 지도 내의 제1 특징선들과 상기 제2 특징선을 정합한다. 이동 로봇은, 포토 센서, 포토 트랜지스터(Photo Transistor) 등을 이용하여 광을 감지하고 이를 이용하여 조도를 감지한다(S700). 이동 로봇은 감지한 조도가 일정 조도보다 크면, 영상 정보와 장애물 정보로부터 각각 추출한 제1 특징선들과 제2 특징선의 정합 결과를 이용하고(S520), 감지한 조도가 일정 조도 이하이면, 장애물 지도 내의 제1 특징선들과 추출한 제2 특징선의 정합 결과를 이용하여(S510) 위치를 인식한다(S600).
이상 설명한 바와 같이, 본 발명의 실시 예들에 따른 이동 로봇 및 이의 제어 방법은 영상 정보와 장애물 정보를 이용하여 자신의 위치를 인식할 수 있다. 특히, 본 발명의 실시 예들은 주변의 조명 변화에 따라 영상 정보와 장애물 정보로부터 각각 추출한 특징선들을 이용하거나, 또는 영상 정보를 이용하여 생성한 장애물 지도와 장애물 정보로부터 추출한 특징선을 이용하여 자신의 위치를 정밀하게 인식할 수 있다. 또, 본 발명의 실시 예들은 영상 정보를 이용한 절대 위치 인식과 장애물 정보를 이용한 상대 위치 인식을 병행 수행함으로써 다양한 조명 환경에서 위치 인식의 오차를 줄이고, 절대 위치 인식의 성능을 개선하며, 운전 효율을 증대한다.
10: 제1 특징선 추출부 20: 제2 특징선 추출부
30: 지도 생성부 40: 위치 인식부
100: 영상 검출 유닛 200: 장애물 감지 유닛
300: 제어 유닛 400: 저장 유닛
500: 조도 감지 유닛 600: 구동 유닛

Claims (14)

  1. 주변으로부터 획득한 영상 정보로부터 특징점들을 추출하고, 상기 특징점들을 이용하여 제1 특징선들을 추출하는 제1 특징선 추출부;
    상기 주변의 장애물에 대한 장애물 정보를 이용하여 하나 이상의 제2 특징선을 추출하는 제2 특징선 추출부; 및
    상기 제1 특징선들과 상기 제2 특징선을 정합하고, 정합 결과를 근거로 위치를 인식하는 위치 인식부;를 포함하는 이동 로봇.
  2. 제1 항에 있어서,
    상기 제1 특징선들을 이용하여 장애물 지도를 생성하는 지도 생성부;를 더 포함하는 이동 로봇.
  3. 제2 항에 있어서, 상기 위치 인식부는,
    상기 주변의 조도가 일정 조도 이하이면, 상기 장애물 지도 내의 제1 특징선들과 상기 제2 특징선을 정합하여 상기 위치를 인식하는 것을 특징으로 하는 이동 로봇.
  4. 주변을 촬영하여 영상 정보를 검출하는 영상 검출 유닛;
    하나 이상의 센서를 구비하고, 상기 주변의 장애물을 감지하여 장애물 정보를 출력하는 장애물 감지 유닛; 및
    상기 영상 정보로부터 복수의 제1 특징선들을 추출하고, 상기 장애물 정보로부터 하나 이상의 제2 특징선을 추출하며, 상기 제1 특징선들과 상기 제2 특징선을 정합하여 위치를 인식하는 제어 유닛;을 포함하는 이동 로봇.
  5. 제4 항에 있어서, 상기 제어 유닛은,
    상기 제1 특징선들을 이용하여 장애물 지도를 생성하는 것을 특징으로 하는 이동 로봇.
  6. 제5 항에 있어서,
    상기 제1 특징선들, 상기 하나 이상의 제2 특징선, 및 상기 장애물 지도를 저장하는 저장 유닛;을 더 포함하는 이동 로봇.
  7. 제5 항 또는 제6 항에 있어서,
    상기 주변의 조도를 감지하는 조도 감지 유닛;을 더 포함하는 이동 로봇.
  8. 제7 항에 있어서, 상기 제어 유닛은,
    상기 조도 감지 유닛이 감지한 조도가 일정 조도보다 크면, 상기 제1 특징선들과 상기 제2 특징선의 정합 결과를 이용하고,
    상기 조도 감지 유닛이 감지한 조도가 상기 일정 조도 이하이면, 상기 장애물 지도 내의 제1 특징선들과 상기 제2 특징선의 정합 결과를 이용하여 상기 위치를 인식하는 것을 특징으로 하는 이동 로봇.
  9. 제5 항에 있어서, 상기 제어 유닛은,
    두 영상 정보로부터 복수의 점들을 추출하고, 상기 두 영상 정보 사이의 점들을 정합하여 복수의 특징점들을 추출하는 특징점 추출부;
    상기 복수의 특징점들에 대한 3차원 좌표를 산출하는 좌표 산출부;
    상기 영상 정보로부터 상기 복수의 제1 특징선들을 추출하는 제1 특징선 추출부;
    상기 3차원 좌표를 갖는 복수의 특징점들을 이용하여 상기 제1 특징선들을 상기 장애물 지도로 표현하는 지도 생성부; 및
    상기 장애물 정보로부터 상기 하나 이상의 제2 특징선을 추출하는 제2 특징선 추출부;를 포함하는 것을 특징으로 하는 이동 로봇.
  10. 주변을 촬영하여 영상 정보를 검출하는 단계;
    상기 주변의 장애물을 감지하여 장애물 정보를 출력하는 단계;
    상기 영상 정보로부터 복수의 제1 특징선들을 추출하는 단계;
    상기 장애물 정보로부터 하나 이상의 제2 특징선을 추출하는 단계;
    상기 제1 특징선들과 상기 제2 특징선을 정합하는 단계; 및
    상기 정합 결과를 이용하여 이동 로봇의 위치를 인식하는 단계;를 포함하는 이동 로봇의 제어 방법.
  11. 제10 항에 있어서,
    상기 복수의 제1 특징선들을 이용하여 장애물 지도를 생성하는 단계;를 더 포함하는 이동 로봇의 제어 방법.
  12. 제11 항에 있어서,
    상기 주변의 조도를 감지하는 단계; 및
    상기 감지한 조도와 일정 조도를 비교하는 단계;를 더 포함하고,
    상기 위치를 인식하는 단계는,
    비교 결과를 이용하여 상기 위치를 인식하는 것을 특징으로 하는 이동 로봇의 제어 방법.
  13. 제12 항에 있어서, 상기 정합하는 단계는,
    상기 감지한 조도가 상기 일정 조도 이하이면, 상기 장애물 지도 내의 제1 특징선들과 상기 제2 특징선을 정합하는 것을 특징으로 하는 이동 로봇의 제어 방법.
  14. 제11 항 내지 제13 항 중 어느 한 항에 있어서, 상기 장애물 지도를 생성하는 단계는,
    두 영상 정보로부터 복수의 점들을 추출하는 과정;
    상기 두 영상 정보 사이의 점들을 정합하여 복수의 특징점들을 추출하는 과정;
    상기 복수의 특징점들에 대한 3차원 좌표를 산출하는 과정; 및
    상기 3차원 좌표를 갖는 복수의 특징점들을 이용하여 상기 제1 특징선들을 상기 장애물 지도로 표현하는 과정;을 포함하는 것을 특징으로 하는 이동 로봇의 제어 방법.
KR1020110106658A 2011-10-18 2011-10-18 이동 로봇 및 이의 제어 방법 KR101303161B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110106658A KR101303161B1 (ko) 2011-10-18 2011-10-18 이동 로봇 및 이의 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110106658A KR101303161B1 (ko) 2011-10-18 2011-10-18 이동 로봇 및 이의 제어 방법

Publications (2)

Publication Number Publication Date
KR20130042389A true KR20130042389A (ko) 2013-04-26
KR101303161B1 KR101303161B1 (ko) 2013-09-09

Family

ID=48441101

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110106658A KR101303161B1 (ko) 2011-10-18 2011-10-18 이동 로봇 및 이의 제어 방법

Country Status (1)

Country Link
KR (1) KR101303161B1 (ko)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160100876A (ko) * 2016-08-08 2016-08-24 연세대학교 산학협력단 장애물 식별 장치 및 방법
KR20160120494A (ko) * 2015-04-08 2016-10-18 엘지전자 주식회사 이동 로봇 및 그의 위치인식방법
WO2018038553A1 (ko) * 2016-08-25 2018-03-01 엘지전자 주식회사 이동 로봇 및 그 제어방법
KR20180023301A (ko) * 2016-08-25 2018-03-07 엘지전자 주식회사 이동 로봇 및 그 제어방법
WO2019017521A1 (ko) * 2017-07-21 2019-01-24 엘지전자 주식회사 청소기 및 그 제어방법
KR20190134872A (ko) * 2018-04-30 2019-12-05 엘지전자 주식회사 인공지능 청소기 및 그 제어방법
CN115381335A (zh) * 2022-04-26 2022-11-25 深圳市普森斯科技有限公司 一种扫地机器人的路径控制方法、装置、设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101553950B1 (ko) * 2009-03-02 2015-09-17 엘지전자 주식회사 로봇 청소기 및 그의 위치 검출 방법
KR101513639B1 (ko) * 2009-04-30 2015-04-20 엘지전자 주식회사 이동 로봇, 로봇 청소기 및 이동 로봇의 각도 검출 방법
KR101649645B1 (ko) * 2010-02-08 2016-08-22 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10303179B2 (en) 2015-04-08 2019-05-28 Lg Electronics Inc. Moving robot and method of recognizing location of a moving robot
KR20160120494A (ko) * 2015-04-08 2016-10-18 엘지전자 주식회사 이동 로봇 및 그의 위치인식방법
CN106054872A (zh) * 2015-04-08 2016-10-26 Lg电子株式会社 移动机器人及其位置识别方法
CN106054872B (zh) * 2015-04-08 2019-10-25 Lg电子株式会社 移动机器人及其位置识别方法
KR20160100876A (ko) * 2016-08-08 2016-08-24 연세대학교 산학협력단 장애물 식별 장치 및 방법
WO2018038552A1 (ko) * 2016-08-25 2018-03-01 엘지전자 주식회사 이동 로봇 및 그 제어방법
US11199852B2 (en) 2016-08-25 2021-12-14 Lg Electronics Inc. Mobile robot and control method for controlling the same
KR20180023301A (ko) * 2016-08-25 2018-03-07 엘지전자 주식회사 이동 로봇 및 그 제어방법
WO2018038553A1 (ko) * 2016-08-25 2018-03-01 엘지전자 주식회사 이동 로봇 및 그 제어방법
US11150666B2 (en) 2016-08-25 2021-10-19 Lg Electronics Inc. Mobile robot and control method for controlling the same
AU2017316091B2 (en) * 2016-08-25 2020-10-29 Lg Electronics Inc. Mobile robot and control method therefor
AU2017316090B2 (en) * 2016-08-25 2020-10-29 Lg Electronics Inc. Mobile robot and control method therefor
JP2020528311A (ja) * 2017-07-21 2020-09-24 エルジー エレクトロニクス インコーポレイティド 掃除機及びその制御方法
US10845819B2 (en) 2017-07-21 2020-11-24 Lg Electronics Inc. Cleaner and control method thereof
WO2019017521A1 (ko) * 2017-07-21 2019-01-24 엘지전자 주식회사 청소기 및 그 제어방법
US11759075B2 (en) 2017-07-21 2023-09-19 Lg Electronics Inc. Cleaner and control method thereof
KR20190134872A (ko) * 2018-04-30 2019-12-05 엘지전자 주식회사 인공지능 청소기 및 그 제어방법
CN115381335A (zh) * 2022-04-26 2022-11-25 深圳市普森斯科技有限公司 一种扫地机器人的路径控制方法、装置、设备及存储介质
CN115381335B (zh) * 2022-04-26 2024-01-02 深圳市普森斯科技有限公司 一种扫地机器人的路径控制方法、装置、设备及存储介质

Also Published As

Publication number Publication date
KR101303161B1 (ko) 2013-09-09

Similar Documents

Publication Publication Date Title
KR101366860B1 (ko) 이동 로봇 및 이의 제어 방법
KR101677634B1 (ko) 로봇 청소기 및 이의 제어 방법
KR101303161B1 (ko) 이동 로봇 및 이의 제어 방법
CN110091326B (zh) 移动机器人以及移动机器人的控制方法
KR102275300B1 (ko) 이동 로봇 및 그 제어방법
KR101813922B1 (ko) 로봇 청소기 및 이의 제어 방법
KR101954144B1 (ko) 로봇 청소기와, 이의 제어 방법, 및 이를 포함한 로봇 청소 시스템
KR102527645B1 (ko) 청소 로봇 및 그 제어 방법
KR101949277B1 (ko) 이동 로봇
KR101649645B1 (ko) 로봇 청소기 및 이의 제어 방법
KR20180082264A (ko) 이동 로봇 및 그 제어방법
KR101976462B1 (ko) 로봇청소기 및 그 제어방법
KR20120044768A (ko) 로봇 청소기 및 이의 제어 방법
KR101697857B1 (ko) 이동 로봇 및 그의 위치인식방법
KR101951414B1 (ko) 로봇 청소기 및 이의 제어 방법
KR101842459B1 (ko) 로봇 청소기 및 이의 제어 방법
KR101943359B1 (ko) 로봇 청소기 및 이의 제어 방법
KR20110085500A (ko) 로봇 청소기 및 이의 제어 방법
KR101223480B1 (ko) 이동 로봇 및 이의 제어 방법
KR20200142865A (ko) 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
EP3478143B1 (en) Robot cleaner
KR102203438B1 (ko) 이동 로봇 및 이동 로봇의 제어방법
KR20160090278A (ko) 이동 로봇 및 이의 제어 방법
KR101895314B1 (ko) 로봇 청소기 및 이의 제어 방법
KR102029920B1 (ko) 이동 로봇 및 이의 위치 인식 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160722

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee