KR101366860B1 - 이동 로봇 및 이의 제어 방법 - Google Patents

이동 로봇 및 이의 제어 방법 Download PDF

Info

Publication number
KR101366860B1
KR101366860B1 KR1020110094803A KR20110094803A KR101366860B1 KR 101366860 B1 KR101366860 B1 KR 101366860B1 KR 1020110094803 A KR1020110094803 A KR 1020110094803A KR 20110094803 A KR20110094803 A KR 20110094803A KR 101366860 B1 KR101366860 B1 KR 101366860B1
Authority
KR
South Korea
Prior art keywords
image information
mobile robot
image
information
feature point
Prior art date
Application number
KR1020110094803A
Other languages
English (en)
Other versions
KR20130031088A (ko
Inventor
이성수
백승민
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020110094803A priority Critical patent/KR101366860B1/ko
Priority to US13/571,902 priority patent/US20130073088A1/en
Priority to EP12182383.5A priority patent/EP2573639B1/en
Publication of KR20130031088A publication Critical patent/KR20130031088A/ko
Application granted granted Critical
Publication of KR101366860B1 publication Critical patent/KR101366860B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0225Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving docking at a fixed facility, e.g. base station or loading bay
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L9/00Details or accessories of suction cleaners, e.g. mechanical means for controlling the suction or for effecting pulsating action; Storing devices specially adapted to suction cleaners or parts thereof; Carrying-vehicles specially adapted for suction cleaners
    • A47L9/28Installation of the electric equipment, e.g. adaptation or attachment to the suction cleaner; Controlling suction cleaners by electric means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

이동 로봇 및 이의 제어 방법이 개시된다. 본 발명의 실시 예들은, 영상 검출 유닛을 통해 복수의 영상을 검출하여 상기 복수의 영상으로부터 둘 이상의 특징점들을 추출하고, 특징점들의 정보를 상호 비교하여 정합함으로써 위치를 정밀하게 인식할 수 있다. 본 발명의 실시 예들은 영상 정보들을 이용하여 충전 스테이션의 위치를 용이하게 검출하고, 배터리 부족 등의 경우에 신속하게 충전 스테이션으로 이동하도록 한다. 본 발명의 실시 예들은 영상 정보들을 이용하여 충전 스테이션의 위치를 검출하고 신호 수신 범위 내에서 안내 신호를 수신함으로써 충전 스테이션에 용이하게 도킹할 수 있도록 한다.

Description

이동 로봇 및 이의 제어 방법{MOBILE ROBOT AND CONTROLLING METHOD OF THE SAME}
본 발명은 영상 정보를 이용하여 자신의 위치를 인식하고 충전 스테이션의 위치를 검출하는 이동 로봇 및 이의 제어 방법에 관한 것이다.
일반적으로 로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다.
상기 가정용 로봇의 대표적인 예는 로봇 청소기로서, 일정 영역을 스스로 주행하면서 주변의 먼지 또는 이물질을 흡입하여 청소하는 전자기기의 일종이다. 이러한 로봇 청소기는 일반적으로 충전 가능한 배터리를 구비하고, 주행 중 장애물을 피할 수 있는 장애물 센서를 구비하여 스스로 주행하며 청소할 수 있다.
근래에는 이동 로봇, 특히 로봇 청소기를 이용한 응용 기술이 개발되고 있다. 예를 들어, 네트워킹 기능을 가진 이동 로봇의 개발이 진행되어, 원격지에서 청소 명령을 내릴 수 있도록 하거나 집안 상황을 모니터링할 수 있도록 하는 기능이 구현되고 있다. 또, 카메라나 각종 센서들을 이용하여 자기 위치인식 및 지도작성 기능을 가진 이동 로봇들이 개발되고 있다.
본 발명의 실시 예들은 카메라를 이용하여 영상 정보를 검출하고 영상 정보를 이용하여 자신의 위치를 인식하는 이동 로봇 및 이의 제어 방법을 제공함에 일 목적이 있다.
본 발명의 실시 예들은 영상 정보를 이용하여 충전 스테이션의 위치를 신속하게 검출할 수 있는 이동 로봇 및 이의 제어 방법을 제공함에 다른 목적이 있다.
본 발명의 실시 예들은 영상 정보와 충전 스테이션으로부터의 안내 신호를 근거로 충전 스테이션으로 신속하게 이동할 수 있는 이동 로봇 및 이의 제어 방법을 제공함에 또 다른 목적이 있다.
일 실시 예에 따른 이동 로봇은, 주변을 촬영하여 영상 정보를 검출하는 영상 검출 유닛과, 상기 영상 정보를 저장하는 저장 유닛과, 현재 검출한 영상 정보와 저장된 영상 정보를 비교하여 절대 위치를 인식하고, 절대 위치의 인식 결과를 근거로 충전 스테이션의 위치를 검출하는 제어 유닛을 포함하여 구성된다. 상기 저장 유닛은, 상기 영상 정보에 대응하는 위치 정보를 더 저장하고, 상기 제어 유닛은, 상기 충전 스테이션의 위치에서의 영상 정보와 현재 검출한 영상 정보를 비교하고, 비교 결과를 이용하여 상기 충전 스테이션의 위치를 검출한다.
일 실시 예에 따른 이동 로봇은, 상기 충전 스테이션이 발신하는 안내 신호를 수신하는 충전 신호 센서를 포함하는 물체 감지 유닛을 더 포함하여 구성된다.
일 실시 예에 따른 이동 로봇의 제어 방법은, 주변을 촬영하여 영상 정보를 검출하는 영상 검출 단계와, 현재 검출한 영상 정보와 기 저장된 영상 정보를 비교하는 영상 비교 단계와, 상기 영상 비교 단계의 비교 결과를 근거로 이동 로봇의 절대 위치를 인식하는 위치 인식 단계와, 절대 위치의 인식 결과를 근거로 충전 스테이션의 위치를 검출하는 충전 스테이션 검출 단계를 포함하여 구성된다.
본 발명의 실시 예들에 따른 이동 로봇 및 이의 제어 방법은, 상방 카메라와 같은 영상 검출 유닛을 통해 복수의 영상을 검출하여 상기 복수의 영상으로부터 둘 이상의 특징점들을 추출하고, 특징점들의 정보를 상호 비교하여 정합함으로써 위치를 정밀하게 인식할 수 있다.
본 발명의 실시 예들은 영상 정보들을 이용하여 충전 스테이션의 위치를 용이하게 검출하고, 배터리 부족 등의 경우에 신속하게 충전 스테이션으로 이동하도록 함으로써 시스템의 안정성 및 운용 효율이 제고된다.
본 발명의 실시 예들은 영상 정보들을 이용하여 충전 스테이션의 위치를 검출하고 신호 수신 범위 내에서 안내 신호를 수신함으로써 충전 스테이션에 용이하게 도킹할 수 있도록 한다.
본 발명의 실시 예들에 따라 정밀하게 인식된 위치와 내부지도를 연계하여 청소 또는 주행을 수행함으로써 시스템의 효율을 증대하는 효과가 있다.
본 발명의 실시 예들은 영상을 이용하여 위치를 인식함에 있어서, 임의의 지점에 놓이거나 위치 변동이 있는 경우에 발생하기 쉬운 오차를 줄이고, 빠른 시간 내에 자기 위치를 정밀하게 인식할 수 있다.
도 1은 일 실시 예에 따른 이동 로봇의 외관을 도시한 사시도;
도 2는 실시 예들에 따라 특징점을 추출하는 동작을 설명하기 위한 도;
도 3 및 도 4는 실시 예들에 따른 이동 로봇의 구성을 도시한 블록도;
도 5는 실시 예들에 따른 충전 신호 센서를 확대하여 도시한 도;
도 6 내지 도 8은 실시 예들에 따른 이동 로봇의 제어 방법을 도시한 흐름도;
도 9는 실시 예들에 따라 영상들 사이의 유사도를 이용하여 정합하는 동작을 설명하기 위한 도이다.
도 3을 참조하면, 일 실시 예에 따른 이동 로봇은, 주변을 촬영하여 영상 정보를 검출하는 영상 검출 유닛(100)과, 상기 영상 정보를 저장하는 저장 유닛(200)과, 현재 검출한 영상 정보와 저장된 영상 정보를 비교하여 절대 위치를 인식하고, 절대 위치의 인식 결과를 근거로 충전 스테이션의 위치를 검출하는 제어 유닛(300)을 포함하여 구성된다.
저장 유닛(200)은, 영상 정보와 함께 상기 영상 정보에 대응하는 위치 정보를 더 저장한다. 상기 제어 유닛(300)은, 충전 스테이션의 위치에서의 영상 정보와 현재 검출한 영상 정보를 비교하고, 비교 결과를 이용하여 충전 스테이션의 위치를 검출한다. 예를 들어, 저장 유닛(200)은 충전 스테이션이 존재하는 영역의 영상 정보와 충전 스테이션의 위치를 미리 저장하고, 제어 유닛(300)은 저장된 영상 정보와 검출한 영상 정보를 비교하여 충전 스테이션의 위치를 검출할 수 있다.
저장 유닛(200)은 영상 정보, 위치 정보 외에 장애물 정보, 내부 지도(청소 지도), 영역, 경로 중 하나 이상의 정보를 더 저장할 수 있다. 저장 유닛(200)은 이동 로봇을 제어(구동)하는 제어 프로그램 및 그에 따른 데이터를 저장한다. 또, 저장 유닛(200)은 청소 방식, 주행 방식, 충전 스테이션의 위치를 더 저장할 수 있다.
영상 검출 유닛(100)은 주변을 촬영하여 영상 정보를 검출한다. 영상 검출 유닛(100)은, 도 5에 도시한 바와 같이, 상방이나 전방을 향하도록 설치되고, 카메라를 구비하여, 이동 로봇의 주변을 촬영하여 영상 정보를 검출한다. 영상 검출 유닛(100)이 복수의 카메라를 구비하는 경우, 카메라들은 일정 거리 또는 일정 각도로 이동 로봇의 상부나 옆면에 형성될 수 있다. 영상 검출 유닛(100)은 또 다른 형태의 위치 인식 유닛으로 사용될 수 있다. 영상 검출 유닛(100)은, 카메라에 연결되어 피사체의 초점을 맞추는 렌즈를 포함할 수 있다. 상기 렌즈는 소정의 위치에서도 주변의 모든 영역, 예를 들어 천장의 모든 영역이 촬영될 수 있도록 화각이 넓은 렌즈를 사용한다.
제어 유닛(300)은, 영상 검출 유닛(100)이 검출한 영상 정보와 저장 유닛(200)에 저장된 영상 정보로부터 하나 이상의 특징점을 추출한다. 제어 유닛(300)은, 복수의 영상들 각각에 대하여 좌표 정보를 갖는 하나 이상의 특징점을 추출한다. 도 2를 참조하면, 영상 검출 유닛(100)을 통해 검출된 영상에서 특징점들은 천장을 포함하는 상방 영역 또는 전방에 존재하는 형광등, 인테리어 구조물 등의 자연 표식이다. 여기서, 상기 특징점은, 영상에서의 위치, 방향, 및 기술자(descriptor)로 구성된 특징점 정보를 포함하고, 기술자는, 특징점의 추출 정보를 나타낸다. 상기 기술자는, 특징점의 특징을 나타내는 것으로서, 영상에서 특징점을 포함하는 일정한 크기의 행렬이 된다. 상기 기술자는, 영상으로부터 추출된 위치에서의 구조물의 형태 또는 모양을 포함한다.
또한, 제어 유닛(300)은, 특징점 정보를 이용하여 특징점들 사이의 유사도를 연산하고, 유사도를 이용하여 절대 위치를 인식한다. 이때, 제어 유닛(300)은, 저장 유닛(200)에 미리 저장된 영상 정보, 즉 영상이나 특징점 등과 영상 검출 유닛(100)을 통해 검출된 영상의 영상 정보들을 이용하여 특징점들을 정합하고, 이동 로봇의 위치를 인식한다. 특징점들 간에는 유사도를 판별하는 특징점 공간에서의 거리가 존재한다. 즉, 거리가 짧으면 특징점들은 큰 유사도를 가지고, 거리가 길면 특징점들의 유사도는 작아진다. 상기 특징점은, 예를 들어, (x1,i, y1 ,i), (x2,i, y2 ,i)와 같이 표시될 수 있다. 물론 특징점을 3차원 좌표계 상의 점으로 표시할 수 있다. 이때, 특징점들 사이의 거리(Δ)는, 하기 수학식 1과 같이 쓸 수 있다.
Figure 112011073207791-pat00001
상기 제어 유닛(300)은, 예를 들어, 상기 수학식 1을 이용하여 그 거리가 일정 거리 이하이면 이를 동일한 특징점으로 판단하여 정합한다.
도 3을 참조하면, 제어 유닛(300)은, 상기 영상 검출 유닛(100)이 검출한 영상 정보와 상기 저장 유닛(200)에 저장된 영상 정보로부터 특징점 정보를 갖는 하나 이상의 특징점을 추출하는 특징점 추출 모듈(310)을 포함하여 구성된다. 또, 제어 유닛(300)은, 상기 특징점 정보를 상호 비교하여 영상 정보들 간의 유사도를 연산하는 유사도 연산 모듈(320)과, 상기 유사도를 이용하여 상기 절대 위치를 인식하는 위치 인식 모듈(330)을 더 포함하여 구성된다.
특징점 추출 모듈(310), 유사도 연산 모듈(320), 위치 인식 모듈(330)은 각각 서로 다른 유닛의 형태로 구성될 수 있고, 또 하나의 마이크로 프로세서 등의 제어 유닛(300)으로 통합될 수 있다.
특징점 추출 모듈(310)은, 영상 검출 유닛(100)이 검출한 영상 정보와 저장 유닛(200)에 저장된 영상 정보로부터 하나 이상의 특징점을 추출한다. 특징점 추출 모듈(310)은, 복수의 영상들 각각에 대하여 좌표 정보를 갖는 하나 이상의 특징점을 추출한다. 도 2를 참조하면, 영상에서 특징점들은 천장을 포함하는 상방 영역 또는 전방에 존재하는 형광등, 인테리어 구조물 등의 자연 표식이다. 여기서, 특징점은, 상기 영상에서의 위치, 방향, 및 기술자로 구성된 특징점 정보를 포함하고, 상기 기술자는, 상기 특징점의 추출 정보를 나타낸다.
유사도 연산 모듈(320)은, 특징점 정보를 이용하여 특징점들 사이의 유사도를 연산하고, 위치 인식 모듈(330)은 유사도를 이용하여 절대 위치를 인식한다. 이때, 도 9에 도시한 바와 같이, 유사도 연산 모듈(320)은, 저장 유닛(200)에 미리 저장된 영상 정보, 즉 영상이나 특징점 등과 영상 검출 유닛(100)을 통해 검출된 영상의 영상 정보들을 이용하여 유사도를 연산한다. 특징점들 간에는 유사도를 판별하는 특징점 공간에서의 거리가 존재한다. 즉, 상기 거리가 짧으면 특징점들은 큰 유사도를 가지고, 거리가 길면 특징점들의 유사도는 작아진다.
영상 검출 유닛(100)은 청소 수행중이거나, 주행중에 주변 영상 정보를 검출하고, 저장 유닛(200)은 영상 정보를 저장한다. 여기서, 저장 유닛(200)은 검출된 영상 정보뿐만 아니라 미리 영역 내의 영상 정보를 데이터 베이스의 형태로 저장할 수 있다. 그런 다음, 사용자 등에 의하거나 다른 원인에 의해 다른 지점으로 이동되면, 영상 검출 유닛(100)은 다시 이동 로봇이 놓인 위치에서 영상 정보를 검출한다. 이때, 위치 인식 모듈(330)은, 영상 검출 유닛(100)이 검출한 영상 정보와 저장 유닛(200)에 저장된 영상 정보를 비교한 결과를 이용하여 이동 로봇의 위치를 인식한다. 이때의 위치는 위치 인식 유닛, 예를 들어 휠 센서, 자이로 센서, 가속도 센서 등에 의해 인식된 상대 위치가 아니라, 영역 내의 어느 위치에 해당하는지를 나타내는 절대 위치가 된다.
이동 로봇은 하부 양측에 이동 가능하도록 하는 좌, 우측 주 바퀴를 구비한다. 주 바퀴의 양측면에는 사용자의 파지가 용이하도록 손잡이가 설치될 수 있다. 구동 유닛(500)은 좌, 우측 주 바퀴와 연결되고, 상기 바퀴들을 회전시키는 소정의 휠 모터(Wheel Motor)를 구비하여, 휠 모터를 구동함으로써 본체를 이동시킨다. 휠 모터는 각각 주 바퀴에 연결되어 주 바퀴가 회전하도록 하고, 휠 모터는 서로 독립적으로 작동하며 양방향으로 회전이 가능하다. 또, 이동 로봇은 배면에 하나 이상의 보조 바퀴를 구비하여 본체를 지지하고, 본체의 하면과 바닥면(피청소면) 사이의 마찰을 최소화하고 이동 로봇의 이동이 원활하도록 한다. 휠 센서(Wheel Sensor)는, 좌, 우측의 주 바퀴에 연결되어 주 바퀴의 회전수를 감지한다. 여기서, 휠 센서는 로터리 엔코더(Rotary Encoder)일 수 있다. 로터리 엔코더는 이동 로봇이 주행 모드나 청소 모드에 따라 움직일 때, 좌측과 우측의 주 바퀴의 회전수를 감지하여 출력한다. 제어 유닛(300)은 회전수를 이용하여 좌, 우측 바퀴의 회전 속도를 연산할 수 있다. 또, 제어 유닛(300)은, 좌, 우측 바퀴의 회전수 차이를 이용하여 회전각을 연산할 수 있다. 이렇게 함으로써 제어 유닛(300)은 휠 센서를 이용하여 상대 위치를 인식할 수 있다. 다른 예로, 이동 로봇은 속도 및 위치를 인식하는 가속도 센서, 로봇 청소기의 회전 속도를 검출하는 자이로 센서 등을 구비하여 상대 위치를 검출할 수 있다.
도 4는 다른 실시 예에 따른 이동 로봇의 구성을 도시한다. 도 4를 참조하면, 제어 유닛(300)은, 일 실시 예에서의 모듈들 외에, 상기 특징점들을 일정 개수의 특징점 집합들로 구분하는 특징점 집합 생성 모듈(340)과, 상기 특징점 집합들에 대하여 각 특징점 집합들 내의 특징점들을 대표하는 중심점을 추출하는 중심점 추출 모듈(350)과, 상기 중심점들의 특징점 정보를 이용하여 상기 중심점들을 정합하는 중심점 정합 모듈(360)을 더 포함할 수 있다.
또, 제어 유닛(300)은, 상기 연산한 유사도가 일정 기준 유사도 이상인 영상들 내의 특징점들과 상기 새로 검출한 영상들 내의 특징점들을 정합하는 특징점 정합 모듈(370)을 더 포함하여 구성된다.
특징점 집합 생성 모듈(340)은 복수의 특징점들을 일정 개수(예를 들어, 16, 32, 64개)로 클러스터화하여 일정 개수의 특징점 집합을 생성한다. 중심점 추출 모듈(350)은, 개개의 클러스터에서의 중심점들을 추출한다. 이때, 중심점 추출 모듈(350)은, 예를 들어 k-means 알고리즘을 이용할 수 있다. 여기서, 중심점들은 각 클러스터 내의 특징점들의 특징을 포함할 수 있다. 각각의 특징점들과 중심점들과의 관계는, 히스토그램의 형태로 표현될 수 있다. 이러한 관계를 이용하여 각 영상들을 표현할 수 있다. 중심점을 이용하여 표현된 각 영상 정보들은 저장 유닛(200)에 저장될 수 있다.
유사도 연산 모듈(320)은 중심점들을 이용하여 복수의 영상들 사이의 유사도를 연산할 수 있다. 중심점 정합 모듈(360)은 유사도 연산 결과를 이용하여 중심점을 정합한다. 중심점들로 표현된 영상들 사이의 유사도는 각 히스토그램 사이의 관계로부터 연산될 수 있다. 영상의 유사도는, 유클리디안 디스턴스의 누적합 등의 방법, 예를 들어 하기 수학식 2로 연산될 수 있다.
Figure 112011073207791-pat00002
여기서, α는 유사도, H1, H2는 히스토그램, K는 클러스터의 수이다.
일정한 영역을 연속해서 찍은 영상들은 일반적으로 유사도가 높은 반면, 다른 영역의 영상들은 서로 유사도가 낮다. 그러나, 다른 영역에서의 영상들도 유사도가 높게 나올 수 있다. 이를 구분하기 위해, 특징점 정합 모듈(370)은 특징점 정합을 수행할 수 있다.
제어 유닛(300)은 중심점들 사이에서 연산한 유사도가 큰 일정 개수의 영상들을 선별하고, 선별한 영상들 내의 특징점들과 새로 검출한 영상들 내의 특징점들을 정합한다. 그런 다음, 제어 유닛(300)은, 특징점들의 정합 결과를 이용하여 절대 위치를 인식한다. 중심점이나 특징점을 정합하는 정합 알고리즘은 다양한 형태로 존재하므로, 이하 구체적인 정합 알고리즘은 생략한다.
특징점 추출 모듈(310), 유사도 연산 모듈(320), 위치 인식 모듈(330), 특징점 집합 생성 모듈(340), 중심점 추출 모듈(350), 중심점 정합 모듈(360), 특징점 정합 모듈(370)은 각각 서로 다른 유닛의 형태로 구성될 수 있다. 각 모듈들은 설명의 편의를 위해 구분되어 있으므로 하나의 마이크로 프로세서 등의 제어 유닛(300)으로 통합될 수 있다.
도 4를 참조하면, 일 실시 예에 따른 이동 로봇은, 충전 스테이션이 발신하는 안내 신호를 수신하는 충전 신호 센서(410)를 포함하는 물체 감지 유닛(400)을 더 포함하여 구성된다. 이동 로봇은 충전 신호 센서(410)를 이용하여 충전 스테이션이 발생하는 안내 신호를 수신하여 충전 스테이션의 위치 및 방향을 확인한다. 충전 스테이션은 이동 로봇이 복귀 가능하도록 방향 및 거리를 지시하는 안내 신호를 발신한다. 이동 로봇은 충전 스테이션으로부터 발신되는 신호를 수신하여 현재의 위치를 판단하고 이동 방향을 설정하여 충전 스테이션으로 복귀한다. 충전 신호 센서(410)는, 적외선 센서(Infrared Ray Sensor), 초음파 센서(Ultra Sonic Sensor), RF 센서(Radio Frequency Sensor) 등일 수 있는데, 일반적으로 적외선 센서가 이용된다. 그러나, 센서는 송수신 범위가 존재하므로, 충전 스테이션으로부터 이동 로봇이 일정 거리 이상 멀어지면, 이동 로봇은 안내 신호를 수신할 수 없다. 이때, 상기 이동 로봇은 영상 정보를 이용하여 검출한 충전 스테이션의 위치로 이동한 다음, 안내 신호를 수신하여 정밀하게 충전 스테이션에 도킹할 수 있다.
충전 신호 센서(410)는 이동 로봇의 내부나 외부의 일 측에 구비된다. 충전 신호 센서(410)는, 예를 들어 도 5에 도시한 바와 같이, 출력 유닛(700)의 하부 또는 영상 검출 유닛(100)의 주변에 설치될 수 있다. 도 5에 도시한 바와 같이, 출력 유닛(700)은 배터리 잔량을 화면에 표시할 수 있다.
도 4를 참조하면, 이동 로봇은 전원 유닛(800)을 더 포함하여 구성된다. 전원 유닛(800)은, 충전 가능한 배터리를 구비하여 이동 로봇 내로 전원을 공급한다. 전원 유닛(800)은 각 유닛들에 구동 전원과, 이동 로봇이 이동하거나 청소를 수행하는데 따른 동작 전원을 공급하며, 전원 잔량이 부족하면 충전 스테이션으로 이동하여 충전 전류를 공급받아 충전된다. 이동 로봇은, 배터리의 충전 상태를 감지하고, 감지 결과를 제어 유닛(300)에 전송하는 배터리 감지 유닛을 더 포함한다. 배터리는 배터리 감지 유닛과 연결되어 배터리 잔량 및 충전 상태가 제어 유닛(300)에 전달된다. 배터리 잔량은 출력 유닛의 화면에 표시될 수 있다. 배터리는 이동 로봇의 하부 중앙에 위치할 수도 있고, 먼지통이 본체의 최하단에 위치하도록 좌, 우측 중 어느 한쪽에 위치할 수도 있다. 후자의 경우, 이동 로봇은 배터리의 무게 편중을 해소하기 위해 균형추를 더 구비할 수 있다. 제어 유닛(300)은 미리 기준 값(배터리 잔량)을 설정하고, 배터리 감지 유닛의 감지 결과와 기준 값을 비교한다. 비교 결과, 감지 결과가 기준 값 이하이면, 제어 유닛(300)은 이동 로봇을 충전 스테이션으로 이동시켜 충전을 수행한다.
물체 감지 유닛(400)은 이동 로봇의 전방, 즉 도 1에 도시한 바와 같이, 외주면에 일정 간격으로 설치되는 제1 센서(420)를 포함한다. 또, 물체 감지 유닛(400)은 본체의 외측으로 돌출되는 면을 갖도록 설치되는 제2 센서를 포함할 수 있다. 제1 센서와 제2 센서의 위치와 종류는 이동 로봇의 기종에 따라 달라질 수 있고, 장애물 검출 유닛은 더 다양한 센서를 포함할 수 있다. 제1 센서는 이동 로봇의 이동 방향에 존재하는 물체, 특히 장애물을 감지하여 검출 정보를 제어 유닛(300)에 전달한다. 즉, 제1 센서는, 이동 로봇의 이동 경로 상에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지하여 그 정보를 제어 유닛에 전달한다. 제1 센서는, 적외선 센서, 초음파 센서, RF 센서, 지자기 센서 등일 수 있다. 제2 센서는 전방이나 측면에 존재하는 장애물을 감지하여 장애물 정보를 제어 유닛에 전달한다. 즉, 제2 센서는 이동 로봇의 이동 경로 상에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지하여 그 정보를 제어 유닛에 전달한다. 제2 센서는 적외선 센서, 초음파 센서, RF 센서, PSD(Position Sensitive Device) 센서 등일 수 있다.
물체 감지 유닛(400)은 본체의 하면(저면)에 설치되고, 바닥면의 장애물, 예를 들어 낭떠러지를 감지하는 낭떠러지 센서를 더 포함할 수 있다. 낭떠러지 센서는 바닥면의 반사율, 색의 차이에 상관없이 안정적인 측정값을 얻을 수 있도록 구성되고, PSD 센서와 같이 적외선 모듈의 형태일 수 있다.
도 1 또는 도 4를 참조하면, 이동 로봇은 직접 제어 명령을 입력받는 입력 유닛(600)을 더 포함하여 구성된다. 또, 사용자 등은 입력 유닛을 통해 저장 유닛에 저장된 정보들 중 하나 이상의 정보를 출력하도록 하는 명령을 입력할 수 있다. 입력 유닛(600)은 하나 이상의 버튼으로 형성될 수 있다. 예를 들어, 로봇 청소기의 경우에, 입력 유닛(600)은 청소 모드를 설정하거나 변경하는 버튼을 구비할 수 있다. 또, 입력 유닛(600)은 충전 스테이션으로 복귀하도록 하는 명령을 입력받는 버튼을 더 구비할 수 있다. 입력 유닛(600)은, 도 1에 도시한 바와 같이, 하드 키나 소프트 키, 터치패드 등으로 이동 로봇의 상부에 설치될 수 있다. 또, 입력 유닛(600)은 출력 유닛과 함께 터치 스크린의 형태를 가질 수 있다.
출력 유닛(700)은, 도 1에 도시한 바와 같이, 이동 로봇의 상부에 구비된다. 물론 설치 위치나 설치 형태는 달라질 수 있다. 예를 들어, 출력 유닛(700)은, 예약 정보, 배터리 상태, 집중 청소, 공간 확장, 지그재그 운전 등의 청소 방식 또는 주행 방식 등을 화면에 표시한다. 출력 유닛(700)은 이동 로봇을 구성하는 각 유닛들의 현재 상태와, 현재 청소 상태를 출력할 수 있다. 또, 출력 유닛(700)은 장애물 정보, 위치 정보, 영상 정보, 내부 지도, 영역, 경로 등을 화면에 디스플레이할 수 있다.
이동 로봇이 로봇 청소기인 경우에, 이동 로봇은 청소 유닛을 더 포함할 수 있다. 청소 유닛은, 집진된 먼지가 저장되는 먼지통과, 청소 영역의 먼지를 흡입하는 동력을 제공하는 흡입팬과, 상기 흡입팬을 회전시켜 공기를 흡입하는 흡입 모터로 구성되어, 주변의 먼지 또는 이물질을 흡입한다.
도 6을 참조하면, 일 실시 예에 따른 이동 로봇의 제어 방법은, 주변을 촬영하여 영상 정보를 검출하는 영상 검출 단계(S100)와, 현재 검출한 영상 정보와 기 저장된 영상 정보를 비교하는 영상 비교 단계(S300)와, 상기 영상 비교 단계의 비교 결과를 근거로 이동 로봇의 절대 위치를 인식하는 위치 인식 단계(S400)와, 절대 위치의 인식 결과를 근거로 충전 스테이션의 위치를 검출하는 충전 스테이션 검출 단계(S500)를 포함하여 구성된다. 상기 제어 방법은, 상기 영상 정보와 상기 영상 정보에 대응하는 위치 정보를 저장하는 정보 저장 단계(S200)를 더 포함할 수 있다. 이하 장치의 구성은 도 1 내지 도 5를 참조한다.
도 7을 참조하면, 상기 영상 비교 단계(S300)는, 영상 정보들로부터 특징점 정보를 갖는 하나 이상의 특징점을 추출하는 과정(S310)과, 상기 특징점 정보를 상호 비교하여 영상 정보들 간의 유사도를 연산하는 과정(S320)을 포함할 수 있다. 이동 로봇은, 현재 검출한 영상 정보와 저장된 영상 정보로부터 하나 이상의 특징점을 추출한다(S310). 즉, 이동 로봇은, 복수의 영상들 각각에 대하여 좌표 정보를 갖는 하나 이상의 특징점을 추출한다. 도 2를 참조하면, 영상에서 특징점들은 천장을 포함하는 상방 영역 또는 전방에 존재하는 형광등, 인테리어 구조물 등의 자연 표식이다. 여기서, 상기 특징점은, 영상에서의 위치, 방향, 및 기술자(descriptor)로 구성된 특징점 정보를 포함하고, 기술자는, 특징점의 추출 정보를 나타낸다. 상기 기술자는, 특징점의 특징을 나타내는 것으로서, 영상에서 특징점을 포함하는 일정한 크기의 행렬이 된다. 상기 기술자는, 영상으로부터 추출된 위치에서의 구조물의 형태 또는 모양을 포함한다. 이동 로봇은, 특징점 정보를 이용하여 특징점들 사이의 유사도를 연산한다. 이동 로봇은, 미리 저장된 영상 정보, 즉 영상이나 특징점 등과 카메라를 통해 검출된 영상의 영상 정보들을 이용하여 특징점들을 정합하고, 이동 로봇의 위치를 인식한다(S400). 영상 정보와 함께 상기 영상 정보에 대응하는 위치 정보가 더 저장되어 있어, 이동 로봇은 충전 스테이션의 위치에서의 영상 정보와 현재 검출한 영상 정보를 비교하고, 비교 결과를 이용하여 충전 스테이션의 위치를 검출한다(S500).
도 8을 참조하면, 상기 영상 비교 단계(S300)는, 상기 특징점들을 일정 개수의 특징점 집합들로 구분하는 과정과, 상기 특징점 집합들에 대하여 각 특징점 집합들 내의 특징점들을 대표하는 중심점을 추출하는 과정(S311)과, 상기 중심점들의 특징점 정보를 이용하여 상기 중심점들을 정합하는 과정(S321)을 더 포함하여 구성된다.
이동 로봇은, 복수의 특징점들을 일정 개수(예를 들어, 16, 32, 64개)로 클러스터화하여 일정 개수의 특징점 집합을 생성하고, 개개의 클러스터에서의 중심점들을 추출한다(S311). 각각의 특징점들과 중심점들과의 관계는, 히스토그램의 형태로 표현될 수 있다. 이러한 관계를 이용하여 각 영상들을 표현할 수 있다. 이동 로봇은, 중심점을 이용하여 표현된 각 영상 정보들은 저장할 수 있다. 이동 로봇은, 중심점들을 이용하여 복수의 영상들 사이의 유사도를 하고, 유사도 연산 결과를 이용하여 중심점을 정합한다(S321). 중심점들로 표현된 영상들 사이의 유사도는 각 히스토그램 사이의 관계로부터 연산될 수 있다. 영상의 유사도는, 예를 들어 유클리디안 디스턴스의 누적합 등의 방법으로 연산될 수 있다. 일정한 영역을 연속해서 찍은 영상들은 일반적으로 유사도가 높은 반면, 다른 영역의 영상들은 서로 유사도가 낮다. 그러나, 다른 영역에서의 영상들도 유사도가 높게 나올 수 있다. 이를 구분하기 위해, 이동 로봇은 선별된 영상들간의 특징점 정합을 수행할 수 있다(S323). 이동 로봇은, 중심점들 사이에서 연산한 유사도가 큰 일정 개수의 영상들을 선별하고, 선별한 영상들 내의 특징점들과 새로 검출한 영상들 내의 특징점들을 정합한다(S323). 그런 다음, 이동 로봇은, 특징점들의 정합 결과를 이용하여 절대 위치를 인식한다(S400). 중심점이나 특징점을 정합하는 정합 알고리즘은 다양한 형태로 존재하므로, 이하 구체적인 정합 알고리즘은 생략한다.
도 6 또는 도 8을 참조하면, 실시 예들에 따른 제어 방법은, 상기 충전 스테이션이 발신하는 안내 신호를 수신하는 신호 수신 단계(S600)를 더 포함하여 구성된다. 이동 로봇은 충전 스테이션이 발생하는 안내 신호를 수신하여 충전 스테이션의 위치 및 방향을 확인한다(S600). 충전 스테이션은 이동 로봇이 복귀 가능하도록 방향 및 거리를 지시하는 안내 신호를 발신한다. 이동 로봇은 충전 스테이션으로부터 발신되는 신호를 수신하여 현재의 위치를 판단하고 이동 방향을 설정하여 충전 스테이션으로 복귀한다. 센서는 송수신 범위가 존재하므로, 충전 스테이션으로부터 이동 로봇이 일정 거리 이상 멀어지면, 이동 로봇은 안내 신호를 수신할 수 없다. 이때, 상기 이동 로봇은 영상 정보를 이용하여 검출한 충전 스테이션의 위치로 이동한 다음, 안내 신호를 수신하여 정밀하게 충전 스테이션에 도킹할 수 있다(S700).
도 7을 참조하면, 실시 예들에 따른 제어 방법은, 상기 영상 정보와 상기 절대 위치를 이용하여 내부 지도를 생성하는 지도 생성 단계(S800)와, 상기 내부 지도를 근거로 이동하는 이동 단계(S900)를 더 포함하여 구성될 수 있다. 이동 로봇은, 영상 정보, 이를 이용하여 인식한 위치 등을 이용하여 내부 지도를 생성할 수 있다(S800). 또, 이동 로봇은 휠 센서 등을 이용한 위치 정보를 근거로 영상 정보를 이용하여 인식한 위치를 수정하거나, 생성한 내부 지도를 수정할 수 있다. 즉, 이동 로봇은 센서를 이용하여 감지한 위치 (상대 위치) 변화를 이용하여 영상 정보를 이용하여 인식한 위치(절대 위치)를 수정할 수 있다. 또, 이동 로봇은 수정된 위치를 반영하여 내부 지도를 수정할 수 있다. 다른 예로, 이동 로봇은 각종 센서를 구비하여 주변의 장애물을 감지할 수 있고, 장애물 정보를 이용하여 내부 지도를 생성하거나, 또는 기 생성된 내부 지도를 수정할 수 있다. 이동 로봇은 생성한 내부 지도를 근거로 경로를 설정하여 주행하거나 청소를 수행한다(S900).
이상 설명한 바와 같이, 본 발명의 실시 예들은, 상방이나 전방의 카메라와 같은 영상 검출 유닛을 통해 복수의 영상을 검출하여 상기 복수의 영상으로부터 둘 이상의 특징점들을 추출하고, 특징점들의 정보를 상호 비교하여 정합함으로써 위치를 정밀하게 인식할 수 있다. 본 발명의 실시 예들은 영상 정보들을 이용하여 충전 스테이션의 위치를 용이하게 검출하고, 배터리 부족 등의 경우에 신속하게 충전 스테이션으로 이동하도록 한다. 본 발명의 실시 예들은 영상 정보들을 이용하여 충전 스테이션의 위치를 검출하고 신호 수신 범위 내에서 안내 신호를 수신함으로써 충전 스테이션에 용이하게 도킹할 수 있도록 한다.
100: 영상 검출 유닛 200: 저장 유닛
300: 제어 유닛 400: 장애물 검출 유닛
410: 충전 신호 센서

Claims (13)

  1. 이동 로봇에 있어서,
    주변을 촬영하여 영상 정보를 검출하는 영상 검출 유닛;
    상기 영상 정보를 저장하는 저장 유닛;
    상기 이동 로봇이 임의의 지점에 놓인 경우에 현재 검출한 영상 정보와 기 저장된 영상 정보를 비교하여 절대 위치를 인식하고, 절대 위치의 인식 결과를 근거로 충전 스테이션의 위치를 검출하는 제어 유닛; 및
    상기 충전 스테이션이 발신하는 안내 신호를 수신하는 충전 신호 센서를 포함하는 물체 감지 유닛; 을 포함하고,
    상기 이동 로봇은 수신된 상기 안내 신호를 통해 상기 이동 로봇 또는 상기 충전 스테이션의 위치를 판단하는 것을 특징으로 하는 이동 로봇.
  2. 제1 항에 있어서,
    상기 저장 유닛은,
    상기 영상 정보에 대응하는 위치 정보를 더 저장하는 것을 특징으로 하는 이동 로봇.
  3. 제2 항에 있어서,
    상기 제어 유닛은,
    상기 충전 스테이션의 위치에서의 영상 정보와 현재 검출한 영상 정보를 비교하고, 비교 결과를 이용하여 상기 충전 스테이션의 위치를 검출하는 것을 특징으로 하는 이동 로봇.
  4. 제1 항 내지 제3 항 중 어느 한 항에 있어서,
    상기 제어 유닛은,
    상기 영상 검출 유닛이 검출한 영상 정보와 상기 저장 유닛에 저장된 영상 정보로부터 특징점 정보를 갖는 하나 이상의 특징점을 추출하는 특징점 추출 모듈;
    상기 특징점 정보를 상호 비교하여 영상 정보들 간의 유사도를 연산하는 유사도 연산 모듈; 및
    상기 유사도를 이용하여 상기 절대 위치를 인식하는 위치 인식 모듈;을 포함하는 것을 특징으로 하는 이동 로봇.
  5. 제4 항에 있어서,
    상기 제어 유닛은,
    상기 특징점들을 일정 개수의 특징점 집합들로 구분하는 특징점 집합 생성 모듈;
    상기 특징점 집합들에 대하여 각 특징점 집합들 내의 특징점들을 대표하는 중심점을 추출하는 중심점 추출 모듈; 및
    상기 중심점들의 특징점 정보를 이용하여 상기 중심점들을 정합하는 중심점 정합 모듈;을 더 포함하는 것을 특징으로 하는 이동 로봇.
  6. 제5 항에 있어서,
    상기 제어 유닛은,
    상기 연산한 유사도가 일정 기준 유사도 이상인 영상들 내의 특징점들과 새로 검출한 영상들 내의 특징점들을 정합하는 특징점 정합 모듈;을 더 포함하는 것을 특징으로 하는 이동 로봇.
  7. 삭제
  8. 임의의 지점에 놓인 이동 로봇이 주변을 촬영하여 영상 정보를 검출하는 영상 검출 단계;
    현재 검출한 영상 정보와 기 저장된 영상 정보를 비교하는 영상 비교 단계;
    상기 영상 비교 단계의 비교 결과를 근거로 이동 로봇의 절대 위치를 인식하는 위치 인식 단계;
    절대 위치의 인식 결과를 근거로 충전 스테이션의 위치를 검출하는 충전 스테이션 검출 단계; 및
    상기 충전 스테이션이 발신하는 안내 신호를 수신하는 신호 수신 단계; 를 포함하고,
    상기 이동 로봇은 수신된 상기 안내 신호를 통해 상기 이동 로봇 또는 상기 충전 스테이션의 위치를 판단하는 것을 특징으로 하는 이동 로봇의 제어 방법.
  9. 제8 항에 있어서,
    상기 영상 정보와 상기 영상 정보에 대응하는 위치 정보를 저장하는 정보 저장 단계;를 더 포함하는 이동 로봇의 제어 방법.
  10. 제8 항에 있어서,
    상기 영상 비교 단계는,
    영상 정보들로부터 특징점 정보를 갖는 하나 이상의 특징점을 추출하는 과정; 및
    상기 특징점 정보를 상호 비교하여 영상 정보들 간의 유사도를 연산하는 과정;을 포함하는 것을 특징으로 하는 이동 로봇의 제어 방법.
  11. 제10 항에 있어서,
    상기 영상 비교 단계는,
    상기 특징점들을 일정 개수의 특징점 집합들로 구분하는 과정;
    상기 특징점 집합들에 대하여 각 특징점 집합들 내의 특징점들을 대표하는 중심점을 추출하는 과정; 및
    상기 중심점들의 특징점 정보를 이용하여 상기 중심점들을 정합하는 과정;을 더 포함하는 것을 특징으로 하는 이동 로봇의 제어 방법.
  12. 삭제
  13. 제8 항에 있어서,
    상기 영상 정보와 상기 절대 위치를 이용하여 내부 지도를 생성하는 지도 생성 단계; 및
    상기 내부 지도를 근거로 이동하는 이동 단계;를 더 포함하는 이동 로봇의 제어 방법.
KR1020110094803A 2011-09-20 2011-09-20 이동 로봇 및 이의 제어 방법 KR101366860B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020110094803A KR101366860B1 (ko) 2011-09-20 2011-09-20 이동 로봇 및 이의 제어 방법
US13/571,902 US20130073088A1 (en) 2011-09-20 2012-08-10 Mobile robot and controlling method of the same
EP12182383.5A EP2573639B1 (en) 2011-09-20 2012-08-30 Mobile robot and controlling method of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110094803A KR101366860B1 (ko) 2011-09-20 2011-09-20 이동 로봇 및 이의 제어 방법

Publications (2)

Publication Number Publication Date
KR20130031088A KR20130031088A (ko) 2013-03-28
KR101366860B1 true KR101366860B1 (ko) 2014-02-21

Family

ID=47115242

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110094803A KR101366860B1 (ko) 2011-09-20 2011-09-20 이동 로봇 및 이의 제어 방법

Country Status (3)

Country Link
US (1) US20130073088A1 (ko)
EP (1) EP2573639B1 (ko)
KR (1) KR101366860B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101786516B1 (ko) * 2016-03-18 2017-10-18 엘지전자 주식회사 이동 로봇 및 그 제어방법
US10646086B2 (en) 2016-10-12 2020-05-12 Samsung Electronics Co., Ltd. Cleaning robot and method of controlling the same

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101750340B1 (ko) * 2010-11-03 2017-06-26 엘지전자 주식회사 로봇 청소기 및 이의 제어 방법
US9178370B2 (en) 2012-12-28 2015-11-03 Irobot Corporation Coverage robot docking station
EP3134021A4 (en) * 2014-04-24 2018-03-28 Covidien LP Robotic interface positioning determination systems and methods
DE102015109775B3 (de) 2015-06-18 2016-09-22 RobArt GmbH Optischer Triangulationssensor zur Entfernungsmessung
US9919425B2 (en) 2015-07-01 2018-03-20 Irobot Corporation Robot navigational sensor system
DE102015114883A1 (de) 2015-09-04 2017-03-09 RobArt GmbH Identifizierung und Lokalisierung einer Basisstation eines autonomen mobilen Roboters
KR102431996B1 (ko) 2015-10-12 2022-08-16 삼성전자주식회사 로봇 청소기 및 그 제어 방법
DE102015119501A1 (de) 2015-11-11 2017-05-11 RobArt GmbH Unterteilung von Karten für die Roboternavigation
DE102015119865B4 (de) 2015-11-17 2023-12-21 RobArt GmbH Robotergestützte Bearbeitung einer Oberfläche mittels eines Roboters
CN105375574A (zh) * 2015-12-01 2016-03-02 纳恩博(北京)科技有限公司 充电系统和充电方法
DE102015121666B3 (de) 2015-12-11 2017-05-24 RobArt GmbH Fernsteuerung eines mobilen, autonomen Roboters
CN105552995A (zh) * 2015-12-21 2016-05-04 联想(北京)有限公司 一种充电装置、电子设备、控制方法及系统
DE102016102644A1 (de) 2016-02-15 2017-08-17 RobArt GmbH Verfahren zur Steuerung eines autonomen mobilen Roboters
CN107229274B (zh) * 2016-03-24 2022-06-28 松下电器(美国)知识产权公司 位置指示方法、终端装置、自行式装置以及程序
KR20180021595A (ko) * 2016-08-22 2018-03-05 엘지전자 주식회사 이동 로봇 및 그 제어방법
US11709489B2 (en) 2017-03-02 2023-07-25 RobArt GmbH Method for controlling an autonomous, mobile robot
KR102448287B1 (ko) * 2017-08-08 2022-09-28 삼성전자주식회사 전자 장치 및 그 동작 방법
CN107562049A (zh) * 2017-08-09 2018-01-09 深圳市有光图像科技有限公司 一种通过对比图像识别智能叉车的位置的方法及智能叉车
USD879852S1 (en) * 2018-03-15 2020-03-31 Beijing Geekplus Technology Co., Ltd. Mobile robot
CN108508897B (zh) * 2018-04-20 2021-03-05 杭州蓝芯科技有限公司 一种基于视觉的机器人自动充电对准系统及方法
US11937751B2 (en) 2018-11-09 2024-03-26 Guangdong Midea White Home Appliance Technology Innovation Center Co., Ltd. Movable electric device
CN109512340B (zh) * 2018-12-06 2021-05-25 深圳飞科机器人有限公司 一种清洁机器人的控制方法及相关设备
US20210237716A1 (en) * 2020-02-03 2021-08-05 GM Global Technology Operations LLC Intelligent vehicles, control logic, and advanced park assist systems with camera-based automated vehicle alignment
JP7428025B2 (ja) * 2020-03-11 2024-02-06 株式会社Jvcケンウッド 管理装置、プログラム
CN113589800A (zh) * 2020-04-30 2021-11-02 苏州科瓴精密机械科技有限公司 自移动设备与充电站对接方法、装置、自移动设备及可读存储介质
US20210386262A1 (en) * 2020-06-12 2021-12-16 Sharkninja Operating Llc Method of surface type detection and robotic cleaner configured to carry out the same
CN112731924A (zh) * 2020-12-17 2021-04-30 深圳市银星智能科技股份有限公司 移动机器人的回充方法、移动机器人及存储介质
CN114910020B (zh) * 2021-02-09 2023-11-21 北京小米机器人技术有限公司 可移动设备的定位方法、装置、可移动设备及存储介质
SE545080C2 (en) * 2021-04-30 2023-03-21 Husqvarna Ab Method and system for charging a robotic work tool

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050011053A (ko) * 2003-07-21 2005-01-29 주식회사 한울로보틱스 천장 영상을 이용한 청소용 로봇의 자기위치 추정방법
KR100773344B1 (ko) 2006-08-09 2007-11-05 (주)다사로봇 랜드마크를 이용한 충전스테이션 위치 인식 시스템
KR100854653B1 (ko) 2006-05-12 2008-08-27 주식회사 한울로보틱스 충전스테이션을 이용한 이동로봇의 위치 인식장치
KR20110011424A (ko) * 2009-07-28 2011-02-08 주식회사 유진로봇 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5491670A (en) * 1993-01-21 1996-02-13 Weber; T. Jerome System and method for sonic positioning
US5525883A (en) * 1994-07-08 1996-06-11 Sara Avitzour Mobile robot location determination employing error-correcting distributed landmarks
RU2220643C2 (ru) * 2001-04-18 2004-01-10 Самсунг Гванджу Электроникс Ко., Лтд. Автоматическое чистящее устройство, автоматическая чистящая система и способ управления этой системой (варианты)
KR100437372B1 (ko) * 2001-04-18 2004-06-25 삼성광주전자 주식회사 이동통신망을 이용한 로봇 청소 시스템
AU767561B2 (en) * 2001-04-18 2003-11-13 Samsung Kwangju Electronics Co., Ltd. Robot cleaner, system employing the same and method for reconnecting to external recharging device
WO2004018159A1 (ja) * 2002-08-26 2004-03-04 Sony Corporation 環境同定装置及び環境同定方法、並びにロボット装置
KR100466321B1 (ko) * 2002-10-31 2005-01-14 삼성광주전자 주식회사 로봇청소기와, 그 시스템 및 제어방법
WO2004059900A2 (en) * 2002-12-17 2004-07-15 Evolution Robotics, Inc. Systems and methods for visual simultaneous localization and mapping
KR100506533B1 (ko) * 2003-01-11 2005-08-05 삼성전자주식회사 이동로봇 및 그에 따른 자율주행 시스템 및 방법
JP3841220B2 (ja) * 2004-01-30 2006-11-01 船井電機株式会社 自律走行ロボットクリーナー
JP2005218559A (ja) * 2004-02-04 2005-08-18 Funai Electric Co Ltd 自走式掃除機ネットワークシステム
US20050234679A1 (en) * 2004-02-13 2005-10-20 Evolution Robotics, Inc. Sequential selective integration of sensor data
US7689321B2 (en) * 2004-02-13 2010-03-30 Evolution Robotics, Inc. Robust sensor fusion for mapping and localization in a simultaneous localization and mapping (SLAM) system
CA2588870A1 (en) * 2004-11-23 2006-06-01 S. C. Johnson & Son, Inc. Device and methods of providing air purification in combination with cleaning of surfaces
US7688999B2 (en) * 2004-12-08 2010-03-30 Electronics And Telecommunications Research Institute Target detecting system and method
JP4328286B2 (ja) * 2004-12-14 2009-09-09 本田技研工業株式会社 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム
US7191056B2 (en) * 2005-01-04 2007-03-13 The Boeing Company Precision landmark-aided navigation
KR20060110483A (ko) * 2005-04-20 2006-10-25 엘지전자 주식회사 충전대 자동 복귀 기능을 가진 청소로봇 및 그 방법
JP2006313455A (ja) * 2005-05-09 2006-11-16 Funai Electric Co Ltd 自走式掃除ロボット、自走式ロボットおよび自走式ロボットの走行を制御するためのプログラム
ATE524784T1 (de) * 2005-09-30 2011-09-15 Irobot Corp Begleitroboter für persönliche interaktion
KR100692897B1 (ko) * 2005-10-28 2007-03-12 엘지전자 주식회사 이동로봇
US7912633B1 (en) * 2005-12-01 2011-03-22 Adept Mobilerobots Llc Mobile autonomous updating of GIS maps
KR100735565B1 (ko) * 2006-05-17 2007-07-04 삼성전자주식회사 구조광을 이용한 물체 검출 방법 및 이를 이용한 로봇
KR100785784B1 (ko) * 2006-07-27 2007-12-13 한국전자통신연구원 인공표식과 오도메트리를 결합한 실시간 위치산출 시스템및 방법
KR100877072B1 (ko) * 2007-06-28 2009-01-07 삼성전자주식회사 이동 로봇을 위한 맵 생성 및 청소를 동시에 수행하는 방법및 장치
KR101337534B1 (ko) * 2007-07-24 2013-12-06 삼성전자주식회사 이동 로봇의 위치 인식 장치 및 방법
US8036468B2 (en) * 2007-12-24 2011-10-11 Microsoft Corporation Invariant visual scene and object recognition
CN101527040B (zh) * 2008-03-05 2012-12-19 华为终端有限公司 图像处理方法及系统
US8961695B2 (en) * 2008-04-24 2015-02-24 Irobot Corporation Mobile robot for cleaning
US8805110B2 (en) * 2008-08-19 2014-08-12 Digimarc Corporation Methods and systems for content processing
US8929877B2 (en) * 2008-09-12 2015-01-06 Digimarc Corporation Methods and systems for content processing
US7926598B2 (en) * 2008-12-09 2011-04-19 Irobot Corporation Mobile robotic vehicle
KR101524020B1 (ko) * 2009-03-06 2015-05-29 엘지전자 주식회사 로봇 청소기의 점진적 지도 작성 및 위치 보정 방법
KR101570377B1 (ko) * 2009-03-31 2015-11-20 엘지전자 주식회사 단일 카메라를 장착한 로봇 청소기의 3차원 환경 인식 방법
US8768313B2 (en) * 2009-08-17 2014-07-01 Digimarc Corporation Methods and systems for image or audio recognition processing
US20110046784A1 (en) * 2009-08-18 2011-02-24 Noel Wayne Anderson Asymmetric stereo vision system
KR101083394B1 (ko) * 2009-10-30 2011-11-14 주식회사 유진로봇 이동 로봇의 위치 인식을 위한 지도 생성 및 갱신 방법
KR101741583B1 (ko) * 2009-11-16 2017-05-30 엘지전자 주식회사 로봇 청소기 및 그의 제어 방법
KR20110054472A (ko) * 2009-11-17 2011-05-25 엘지전자 주식회사 로봇 청소기 및 그의 제어 방법
US8224516B2 (en) * 2009-12-17 2012-07-17 Deere & Company System and method for area coverage using sector decomposition
US20110196563A1 (en) * 2010-02-09 2011-08-11 Carefusion 303, Inc. Autonomous navigation and ink recognition system
CN102906810B (zh) * 2010-02-24 2015-03-18 爱普莱克斯控股公司 支持视觉受损的个体的扩增的现实全景
KR20110119118A (ko) * 2010-04-26 2011-11-02 엘지전자 주식회사 로봇 청소기, 및 이를 이용한 원격 감시 시스템
GB2484316A (en) * 2010-10-06 2012-04-11 St Microelectronics Res & Dev Self navigation of mobile devices
US8711206B2 (en) * 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
US8942917B2 (en) * 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US20140002639A1 (en) * 2011-03-25 2014-01-02 Joseph M. Cheben Autonomous Detection of Chemical Plumes
CN103503135A (zh) * 2011-03-25 2014-01-08 埃克森美孚上游研究公司 用于气体羽状流检测的差分红外线成像仪

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050011053A (ko) * 2003-07-21 2005-01-29 주식회사 한울로보틱스 천장 영상을 이용한 청소용 로봇의 자기위치 추정방법
KR100854653B1 (ko) 2006-05-12 2008-08-27 주식회사 한울로보틱스 충전스테이션을 이용한 이동로봇의 위치 인식장치
KR100773344B1 (ko) 2006-08-09 2007-11-05 (주)다사로봇 랜드마크를 이용한 충전스테이션 위치 인식 시스템
KR20110011424A (ko) * 2009-07-28 2011-02-08 주식회사 유진로봇 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101786516B1 (ko) * 2016-03-18 2017-10-18 엘지전자 주식회사 이동 로봇 및 그 제어방법
US10646086B2 (en) 2016-10-12 2020-05-12 Samsung Electronics Co., Ltd. Cleaning robot and method of controlling the same

Also Published As

Publication number Publication date
EP2573639B1 (en) 2020-10-28
KR20130031088A (ko) 2013-03-28
US20130073088A1 (en) 2013-03-21
EP2573639A2 (en) 2013-03-27
EP2573639A3 (en) 2017-06-07

Similar Documents

Publication Publication Date Title
KR101366860B1 (ko) 이동 로봇 및 이의 제어 방법
CN110091326B (zh) 移动机器人以及移动机器人的控制方法
KR101677634B1 (ko) 로봇 청소기 및 이의 제어 방법
TWI603699B (zh) 行動機器人及其控制方法
JP7356566B2 (ja) 移動ロボット及びその制御方法
US11537135B2 (en) Moving robot and controlling method for the moving robot
EP3308911A1 (en) Mobile robot and method of controlling same
KR101976462B1 (ko) 로봇청소기 및 그 제어방법
KR101542498B1 (ko) 로봇 청소기 및 그의 위치 검출 방법
KR101649645B1 (ko) 로봇 청소기 및 이의 제어 방법
KR101303161B1 (ko) 이동 로봇 및 이의 제어 방법
KR101951414B1 (ko) 로봇 청소기 및 이의 제어 방법
KR102423573B1 (ko) 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
KR20120116278A (ko) 로봇 청소기 및 이의 제어 방법
KR20100119442A (ko) 이동 로봇, 로봇 청소기 및 이동 로봇의 각도 검출 방법
US11055341B2 (en) Controlling method for artificial intelligence moving robot
KR20180074141A (ko) 이동 로봇
KR102243178B1 (ko) 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
KR20110085500A (ko) 로봇 청소기 및 이의 제어 방법
KR20200142865A (ko) 인공지능을 이용한 이동 로봇 및 이동 로봇의 제어방법
KR101223480B1 (ko) 이동 로봇 및 이의 제어 방법
KR102620361B1 (ko) 로봇 청소기
JP7354528B2 (ja) 自律移動装置、自律移動装置のレンズの汚れ検出方法及びプログラム
JP7327596B2 (ja) 自律移動装置、自律移動装置のレンズの汚れ検出方法及びプログラム
KR102203438B1 (ko) 이동 로봇 및 이동 로봇의 제어방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170113

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180112

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190114

Year of fee payment: 6