KR20130135652A - 이동 로봇 및 이의 제어 방법 - Google Patents

이동 로봇 및 이의 제어 방법 Download PDF

Info

Publication number
KR20130135652A
KR20130135652A KR1020120059413A KR20120059413A KR20130135652A KR 20130135652 A KR20130135652 A KR 20130135652A KR 1020120059413 A KR1020120059413 A KR 1020120059413A KR 20120059413 A KR20120059413 A KR 20120059413A KR 20130135652 A KR20130135652 A KR 20130135652A
Authority
KR
South Korea
Prior art keywords
optimization range
range
mobile robot
setting
nodes
Prior art date
Application number
KR1020120059413A
Other languages
English (en)
Other versions
KR101956569B1 (ko
Inventor
이성수
백승민
안수남
오세영
이태경
임승욱
Original Assignee
엘지전자 주식회사
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사, 포항공과대학교 산학협력단 filed Critical 엘지전자 주식회사
Priority to KR1020120059413A priority Critical patent/KR101956569B1/ko
Publication of KR20130135652A publication Critical patent/KR20130135652A/ko
Application granted granted Critical
Publication of KR101956569B1 publication Critical patent/KR101956569B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

이동 로봇 및 이의 제어 방법이 개시된다. 본 발명의 실시 예들은, 이동 로봇의 위치를 인식하고 경로를 정밀하게 탐색함에 있어서, 전체 경로를 한번에 보정하지 아니하고, 환경에 따라 최적화 범위의 크기를 적절히 조절하면서 그 범위 내의 경로만을 보정하며, 가변 최적화 범위를 이동하여 점진적으로 경로를 보정한다. 본 발명의 실시 예들은, 가변 최적화 범위를 이용하므로 정보의 손실을 최소화할 수 있고, 환경에 따라 최적화 범위의 크기를 적절하게 결정할 수 있다. 또한, 본 발명의 실시 예들은, 지역 지도의 집합으로 전역 지도를 구성함으로써 전역 지도 보정에 효율적이다.

Description

이동 로봇 및 이의 제어 방법{MOBILE ROBOT AND METHOD FOR CONTROLLING THE SAME}
본 발명은 센서의 감지 정보를 이용하여 위치를 인식하고 실내 지도를 생성하며 실시간의 경로를 보정할 수 있는 이동 로봇 및 이의 제어 방법에 관한 것이다.
일반적으로 로봇은 산업용으로 개발되어 공장 자동화의 일 부분을 담당하여 왔다. 최근에는 로봇을 응용한 분야가 더욱 확대되어, 의료용 로봇, 우주 항공 로봇 등이 개발되고, 일반 가정에서 사용할 수 있는 가정용 로봇도 만들어지고 있다.
가정용 로봇의 대표적인 예는 로봇 청소기, 서비스 로봇 등이다. 특히 로봇 청소기는, 일정 영역을 스스로 주행하면서 주변의 먼지 또는 이물질을 흡입하여 청소하는 전자기기의 일종이다. 이러한 로봇 청소기는 일반적으로 충전 가능한 배터리를 구비하고, 주행 중 장애물을 피할 수 있는 장애물 센서를 구비하여 스스로 주행하며 청소할 수 있다.
근래에는 이동 로봇을 이용한 응용 기술이 개발되고 있다. 예를 들어, 네트워킹 기능을 가진 이동 로봇의 개발이 진행되어, 원격지에서 제어 명령을 내릴 수 있도록 하거나 주변 상황을 모니터할 수 있도록 하는 기능이 구현되고 있다. 또, 카메라나 각종 센서들을 이용하여 위치를 인식하거나 경로를 탐색하는 기능을 가진 이동 로봇들이 개발되고 있다.
본 발명의 실시 예들은 전체 경로를 한번에 보정하지 아니하고, 환경에 따라 윈도우의 크기를 적절히 조절하면서 윈도우 내의 경로만을 보정하며, 윈도우를 이동하여 점진적으로 경로를 보정할 수 있는 이동 로봇 및 이의 제어 방법을 제공하는 데에 일 목적이 있다.
본 발명의 실시 예들은 센서의 감지 정보를 이용하여 위치를 인식하거나 또는 실내 지도를 생성하는 이동 로봇 및 이의 제어 방법을 제공하는 데에 다른 목적이 있다.
본 발명의 실시 예들은 3차원 거리 센서를 이용하고, 3차원 거리 이미지들로부터 하나 이상의 평면을 추출하고 평면들을 정합함으로써 위치를 인식하거나 또는 3차원 지도를 생성할 수 있는 이동 로봇 및 이의 제어 방법을 제공하는 데에 또 다른 목적이 있다.
일 실시 예에 따른 이동 로봇은, 이동 로봇의 이동에 따라 연속적으로 주변을 감지하여 감지 정보들을 출력하는 감지 유닛과, 상기 감지 정보들을 이용하여 이동에 따른 위치들을 인식하는 제어 유닛을 포함하고, 상기 제어 유닛은, 상기 인식한 위치들 사이의 위치 관계들을 근거로 상기 인식한 위치들 중 일부를 포함하는 최적화 범위를 가변적으로 설정하고, 상기 최적화 범위 내에서 상기 인식한 위치들을 보정한다.
상기 제어 유닛은, 상기 인식한 위치들을 각각 노드들로 설정하는 노드 설정 모듈과, 상기 노드들의 노드 정보들을 이용하여 상기 노드들 사이의 위치 관계들을 설정하는 위치 관계 설정 모듈과, 상기 위치 관계들을 근거로 상기 노드들 중 일부를 포함하는 상기 최적화 범위를 가변적으로 설정하는 범위 설정 모듈을 포함하여 구성된다.
또, 상기 제어 유닛은, 상기 최적화 범위 내에서 상기 노드들의 노드 정보들을 변경하는 위치 보정 모듈을 더 포함하여 구성된다. 또, 상기 제어 유닛은, 상기 최적화 범위 내에서 상기 노드 정보들을 이용하여 이동 경로를 생성하는 경로 생성 모듈을 더 포함할 수 있다.
일 실시 예에 따른 이동 로봇의 제어 방법은, 이동 로봇의 이동에 따라 연속적으로 획득한 감지 정보들을 근거로 이동 로봇의 위치들을 인식하고, 상기 인식한 위치들 사이의 위치 관계들을 근거로 상기 인식한 위치들 중 일부를 포함하는 최적화 범위를 가변적으로 설정하며, 상기 최적화 범위 내에서 상기 인식한 위치들을 보정한다.
상기 이동 로봇의 제어 방법은, 상기 감지 정보들을 획득하는 정보 획득 단계와, 상기 위치들을 인식하는 위치 인식 단계와, 상기 인식한 위치들을 각각 노드들로 설정하는 노드 설정 단계와, 상기 노드들의 노드 정보들을 이용하여 상기 노드들 사이의 위치 관계들을 설정하는 위치 관계 설정 단계와, 상기 위치 관계들을 근거로 상기 노드들 중 일부를 포함하는 상기 최적화 범위를 가변적으로 설정하는 범위 설정 단계를 포함하여 구성된다.
상기 제어 방법은, 상기 최적화 범위 내에서 상기 노드들의 노드 정보들을 변경하는 위치 보정 단계를 더 포함하여 구성된다. 또, 상기 최적화 범위 내에서 상기 노드 정보들을 이용하여 이동 경로를 생성하는 경로 생성 단계를 더 포함하여 구성될 수 있다.
다른 실시 예에 따른 이동 로봇은, 주 바퀴를 회전시키는 소정의 휠 모터를 구비하고, 상기 휠 모터를 구동하여 이동 로봇을 이동시키는 구동 유닛과, 이동 로봇의 이동에 따라 연속적으로 센서 프레임들의 3차원 거리 이미지들을 획득하는 3차원 거리 센서와, 상기 3차원 거리 이미지들을 근거로 이동 로봇의 위치를 인식하는 제어 유닛을 포함하고, 상기 제어 유닛은, 상기 센서 프레임들에서의 상기 3차원 거리 이미지들에 따른 위치들을 각각 노드들로 설정하는 노드 설정 모듈과, 상기 3차원 거리 이미지들에 대한 거리 이미지 정보를 이용하여 각각의 3차원 거리 이미지들로부터 하나 이상의 평면을 추출하는 평면 추출 모듈과, 상기 평면들의 유사도를 근거로 상기 평면들을 정합하는 평면 정합 모듈과, 상기 평면들의 정합 결과를 근거로 상기 노드들의 위치 관계들을 설정하는 위치 관계 설정 모듈과, 상기 위치 관계들을 근거로 상기 노드들 중 일부를 포함하는 상기 최적화 범위를 가변적으로 설정하는 범위 설정 모듈을 포함하여 구성된다.
본 발명의 실시 예들은, 이동 로봇의 위치를 인식하고 경로를 정밀하게 탐색함에 있어서, 전체 경로를 한번에 보정하지 아니하고, 환경에 따라 최적화 범위의 크기를 적절히 조절하면서 그 범위 내의 경로만을 보정하며, 가변 최적화 범위를 이동하여 점진적으로 경로를 보정한다.
본 발명의 실시 예들은, 가변 최적화 범위를 이용하므로 정보의 손실을 최소화할 수 있고, 환경에 따라 최적화 범위의 크기를 적절하게 결정할 수 있음으로써 메모리 효율과 계산 효율을 향상시킬 수 있다. 또한, 본 발명의 실시 예들은, 지역 지도의 집합으로 전역 지도를 구성함으로써 전역 지도 보정에 효율적이다.
본 발명의 실시 예들은, 센서의 감지 정보를 이용하여 위치를 인식하거나 또는 실내 지도를 생성할 수 있다. 본 발명의 실시 예들은 3차원 거리 센서를 이용하고, 3차원 거리 이미지들로부터 하나 이상의 평면을 추출하고 평면들을 정합함으로써 위치를 인식하거나 또는 3차원 지도를 생성할 수 있다.
도 1은 일 실시 예에 따른 이동 로봇의 구성 중 제어 유닛을 개략적으로 보인 블록도;
도 2 및 도 3은 실시 예들에 따른 이동 로봇의 구성을 개략적으로 보인 블록도들;
도 4는 3차원 거리 센서를 이용한 이동 로봇의 구성을 개략적으로 보인 블록도;
도 5는 일 실시 예에 따른 이동 로봇의 제어 방법을 개략적으로 보인 흐름도;
도 6은 도 5의 최적화 범위 설정 단계를 상세히 보인 흐름도;
도 7a는 본 발명의 실시 예들에 따른 지역 지도의 구성의 예를 보인 도;
도 7b는 본 발명의 실시 예들에 따라 전역 지도를 보정하는 동작을 설명하기 위한 도;
도 8a는 본 발명의 실시 예들에 따라 최적화 범위를 설정하기 위한 가중치 행렬을 보인 도;
도 8b 및 도 8c는 도 8a의 가중치 행렬을 이용하여 최적화 범위를 설정하는 동작을 설명하기 위한 도들;
도 9a 내지 도 9c는 본 발명의 실시 예들에 따른 최적화 범위의 크기 변화 및 이동을 설명하기 위한 도들;
도 10a 내지 도 10c는 본 발명의 실시 예들에 따라 이동 로봇의 위치(노드)를 재배열하는 동작을 설명하기 위한 도들;
도 11a 및 도 11b는 본 발명의 실시 예들에 따라 이동 로봇의 위치(노드)를 병합하는 동작을 설명하기 위한 도들;
도 12는 3차원 거리 이미지의 일 예를 보인 도;
도 13은 도 12의 3차원 거리 이미지를 변환한 포인트 클라우드를 보인 도; 및
도 14는 도 12 및 도 13으로부터 평면을 추출하여 보인 도이다.
도 1을 참조하면, 일 실시 예에 따른 이동 로봇은, 이동 로봇의 이동에 따라 연속적으로 주변을 감지하여 감지 정보들을 출력하는 감지 유닛(100)과, 상기 감지 정보들을 이용하여 이동에 따른 위치들을 인식하는 제어 유닛(200)을 포함하여 구성된다.
감지 유닛(100)은, 이동 로봇의 외주면에 일정 간격으로 설치되거나, 또는 본체의 외측으로 돌출되는 면을 갖도록 설치되는 장애물 센서일 수 있다. 장애물 센서의 위치와 종류는 이동 로봇의 기종에 따라 달라질 수 있다. 장애물 센서는 이동 로봇의 이동 경로 상에 존재하는 돌출물, 집안의 집기, 가구, 벽면, 벽 모서리 등을 감지한다. 장애물 센서는, 적외선 센서, 초음파 센서, RF 센서, 지자기 센서, PSD(Position Sensitive Device) 센서 등일 수 있다.
감지 유닛(100)은, 이동 로봇의 배면에 구비되어, 이동 중 하방, 즉 바닥면, 피청소면을 촬영하는 하부 카메라 센서일 수 있다. 하부 카메라 센서는, 옵티컬 플로우 센서(Optical Flow Sensor)로서, 센서 내에 구비된 이미지 센서로부터 입력되는 하방 영상을 변환하여 소정 형식의 영상 데이터를 생성한다. 하부 카메라 센서는, 이동 로봇의 미끄러짐과 무관하게 이동 로봇의 위치를 검출할 수 있다. 제어 유닛(200)은 하부 카메라 센서에 의해 촬영된 영상 데이터를 시간에 따라 비교 분석하여 이동 거리 및 이동 방향을 산출하고, 이동 로봇의 위치를 산출한다. 하부 카메라 센서를 이용하여 이동 로봇의 하방을 관찰하도록 함으로써, 제어 유닛은 다른 수단에 의해 산출한 위치에 대하여 미끄러짐에 강인한 보정이 가능하다.
감지 유닛(100)은, 이동 로봇의 속도 변화, 예를 들어, 출발, 정지, 방향 전환, 물체와의 충돌 등에 따른 이동 속도의 변화를 감지하는 가속도 센서(Acceleration Sensor)나, 또는 이동 로봇이 이동하거나 청소할 때 회전 방향을 감지하고 회전각을 검출하는 자이로 센서(Gyro Sensor)일 수 있다. 또, 감지 유닛(100)은, 도 4에 도시한 바와 같이, 3차원 거리 센서(110)일 수 있다. 3차원 거리 센서로는 KINECT (RGB-D 센서), TOF (Structured Light sensor), stereo camera 등이 사용될 수 있다. 이에 대한 상세한 설명은 후술한다.
제어 유닛(200)은 가속도 센서, 자이로 센서 등의 감지 유닛(100)을 통해 획득한 감지 정보를 이용하여 이동 로봇의 위치를 인식할 수 있다. 또, 제어 유닛(200)은 인식한 위치를 이용하여 지도를 생성할 수 있다. 이동 로봇의 위치를 인식하기 위한 방식으로서 다양한 방식이 사용되는데, 특히 SLAM(Simultaneous Localization And Mapping) 등의 기술이 사용된다.
이동 로봇은 감지 정보, 위치, 지역 지도, 전역 지도 등을 임시로 아니면 지속적으로 저장하는 저장 유닛(300)을 더 포함할 수 있다. 또, 저장 유닛(300)은 이동 로봇을 제어(구동)하는 제어 프로그램 및 그에 따른 데이터를 더 저장할 수 있다. 저장 유닛(300)은, 램(RAM)의 형태를 가질 수 있고, 또는 롬(ROM), 플래시 메모리(Flash Memory) 등의 비휘발성 메모리(Non-Volatile Memory, NVM, NVRAM)의 형태로 구성될 수 있다.
도 2를 참조하면, 상기 이동 로봇은, 주 바퀴(410)에 연결되어 주 바퀴의 회전수를 감지하는 휠 센서(500)를 더 포함하여 구성된다. 휠 센서는 좌, 우측의 주 바퀴에 연결되어 주 바퀴의 회전수를 감지한다. 일 예로, 휠 센서는 로터리 엔코더(Rotary Encoder)일 수 있다. 로터리 엔코더는 이동 로봇이 이동할 때, 좌측과 우측의 주바퀴의 회전수를 감지하여 출력한다. 제어 유닛은 회전수를 이용하여 좌, 우측 바퀴의 회전 속도를 연산할 수 있다. 이동 로봇은 감지 유닛이 감지한 감지 정보들을 정합하여 상대 위치를 예측한다. 또, 이동 로봇은 주행하면서 휠 센서를 이용하여 대략적인 위치를 예측할 수 있다. 휠 센서의 정보는 부정확하므로 이동 로봇은 감지 정보로부터의 특징점을 활용하여 보정할 수 있다.
구동 유닛(500)은 바퀴들을 회전시키는 소정의 휠 모터(Wheel Motor)를 구비하여, 휠 모터를 구동함으로써 이동 로봇을 이동시킨다. 상기 바퀴는 주 바퀴와 보조 바퀴를 구분될 수 있다. 휠 모터는 각각 주 바퀴에 연결되어 주 바퀴가 회전하도록 하고, 휠 모터는 서로 독립적으로 작동하며 양방향으로 회전이 가능하다. 또, 이동 로봇은 배면에 하나 이상의 보조 바퀴를 구비하여 본체를 지지하고, 본체의 하면과 바닥면 사이의 마찰을 최소화하고 이동 로봇의 이동이 원활하도록 할 수 있다.
또, 도 3을 참조하면, 상기 이동 로봇은, 상방 또는 전방에 구비되고, 주변을 촬영하여 영상 정보를 획득하는 영상 카메라(600)를 더 포함하여 구성될 수 있다. 영상 카메라(600)는 전방이나 상방을 향하도록 설치된다. 설치 위치는 로봇의 크기, 형태 등에 따라 달라질 수 있다. 영상 카메라(600)는 일정 해상도 이상의 CCD 카메라, CMOS 카메라 등일 수 있다. 영상 카메라(600)는 필요에 따라 렌즈를 구비할 수 있다. 제어 유닛은 영상 정보를 이용하여 로봇의 위치를 계산할 수 있다.
제어 유닛(200)은, 상기 인식한 위치들 사이의 위치 관계들을 근거로 상기 인식한 위치들 중 일부를 포함하는 최적화 범위(window)를 가변적으로 설정하고, 상기 최적화 범위 내에서 상기 인식한 위치들을 보정한다. 제어 유닛(200)은, 최적화 범위의 크기에 대한 최대 크기를 설정한다. 또, 제어 유닛(200)은, 최적화 범위를 분리하기 위한 임계점을 설정한다. 즉, 제어 유닛(200)은, 최대 크기에 이르기까지 최적화 범위를 증가시키다가 분리 조건을 판단하여 임계점에 이르면 최적화 범위를 분리함으로써 최적화 범위의 크기를 가변적으로 설정한다.
도 1을 참조하면, 제어 유닛(200)은, 상기 인식한 위치들을 각각 노드들로 설정하는 노드 설정 모듈(210)과, 상기 노드들의 노드 정보들을 이용하여 상기 노드들 사이의 위치 관계들을 설정하는 위치 관계 설정 모듈(220)과, 상기 위치 관계들을 근거로 상기 노드들 중 일부를 포함하는 상기 최적화 범위를 가변적으로 설정하는 범위 설정 모듈(230)을 포함하여 구성된다.
노드 설정 모듈(210)은, 감지 정보들을 통해 인식한 이동 로봇의 위치를 노드로 설정한다. 노드 설정 모듈(210)은, 2차원 또는 3차원 좌표계를 이용하여 노드를 표시한다. 위치 관계 설정 모듈(220)은, 상기 노드들의 노드 정보들을 이용하여 상기 노드들 사이의 위치 관계들을 설정한다. 예를 들어, j 번째 위치와 이전의 i 번째 위치 사이의 상대적 위치 관계의 추정값에 대한 가우시안 분포는 이동 로봇의 이동 정보와 직전 위치에서 구해진 분포를 이용해 구할 수 있다. 이 정보를 이용하면, j 번째 위치를 i 번째 위치로 변환할 수 있다.
범위 설정 모듈(230)은, 위치 관계들을 이용하여 최적화 범위를 설정한다. 여기서, 최적화 범위는 이동 로봇의 위치를 정밀하게 인식하고 위치를 보정하기 위한 범위이다. 이동 로봇은 최적화 범위 내에서의 노드와 노드 간의 위치 관계를 이용하여 이동 로봇의 위치를 인식하거나 보정한다. 최적화 범위의 크기가 증가할수록 정밀한 위치 인식이나 보정이 가능하지만, 연산 시간이 증가하는 단점이 있다. 반면, 최적화 범위가 작을수록 연산 시간은 빨라지나, 정보 손실로 인해 정밀한 위치 인식이나 보정이 여려워진다.
범위 설정 모듈(230)은, 노드의 증가에 따라, 즉 이동 로봇의 이동에 따라 최적화 범위의 크기를 증가시킨다. 이때, 범위 설정 모듈(230)은, 최적화 범위의 크기에 대한 최대 크기를 미리 설정한다. 즉, 범위 설정 모듈은 최대 크기 내에서 최적화 범위의 크기를 증가시킨다. 범위 설정 모듈(230)은, 임계점을 설정하고, 상기 위치 관계들을 근거로 계산된 값이 상기 임계점에 도달하면, 상기 최적화 범위를 분리한다.
제어 유닛(200)은, 상기 최적화 범위 내에서 상기 노드들의 노드 정보들을 변경하는 위치 보정 모듈(240)을 더 포함하여 구성된다. 위치 보정 모듈(240)은, 각 노드들의 위치 관계들을 이용하여 비용 함수를 정의하고, 에러를 최소화하는 노드들의 위치를 구하여 위치를 보정한다. 또, 제어 유닛(200)은, 상기 최적화 범위 내에서 상기 노드 정보들을 이용하여 이동 경로를 생성하는 경로 생성 모듈(250)을 더 포함할 수 있다. 이동 경로는 간단하게 노드들을 연결함으로써 설정된다. 경로 생성 모듈(250)은 노드들의 위치가 보정되면 보정된 위치들을 연결하여 이동 경로를 설정한다.
제어 유닛(200)은, 상기 최적화 범위 내에서 상기 노드 정보들을 이용하여 지역 지도를 생성하는 지역 지도 생성 모듈(260)을 더 포함한다. 또, 상기 제어 유닛은, 이동 로봇의 이동에 따라 생성된 지역 지도들을 연결하여 전역 지도를 생성하는 전역 지도 생성 모듈(270)을 더 포함하여 구성된다. 상기 전역 지도 생성 모듈(270)은, 각 지역 지도들 내의 첫 번째 노드들의 노드 정보들을 이용하여 상기 전역 지도를 보정한다.
지역 지도 생성 모듈(260)은 도 7a에 도시한 바와 같이, 복수의 노드들로 이루어진 지역 지도들(a, b, c, d)을 생성한다. 지역 지도가 만들어지면 고정되어 모양이 더 이상 변하지 않는다. 도 7a을 다시 참조하면, 전역 지도 생성 모듈(270)은 여러 개의 지역지도들의 합으로 전역 지도를 생성한다. 전역 지도 생성 모듈(270)은, 도 7b의 왼쪽에 도시한 바와 같이, 각 지역 지도의 첫 번째 노드들만을 보정하여 전역 지도를 생성한다. 그런 다음, 도 7b의 오른쪽에 도시한 바와 같이, 전역 지도 생성 모듈은, 각 지역 지도의 나머지 노드들을 각 지역 지도의 첫 번째 노드를 기준으로 위치를 보정하여, 보정 하기 전의 지역 지도의 모양을 유지한다.
도 8a 내지 도 8c를 참조하여 이동 로봇의 임계점 설정 및 최적화 범위 분리를 예를 들어 설명한다. 범위 설정 모듈(230)은, 각 노드들의 위치 관계에 대한 분산(covariance) 행렬의 역수로 이루어진 행렬로부터, 도 8a에 도시한 바와 같이, 가중치 행렬 (weight matrix)을 구성한다. 그런 다음, 범위 설정 모듈은, 일반화된 특이값 시스템 (generalized eigenvalue system)을 풀어 최소 특이값 (smallest eigenvalue)이 일정 값 이하로 작아지는 부분을 임계점으로 설정한다. 임계점에 도달했을 때, 범위 설정 모듈은 최적화 범위의 영역을 도 8b 또는 도 8c와 같이 분리한다. 이때, 연결이 약한 부분을 중심으로 나누고, 가장 최근 노드가 포함된 곳은 다음 시점의 슬라이딩 윈도우가 되며, 남은 영역은 지역 지도(local map)로 고정된다. 도 8c의 경우는, 위치 관계들이 유사한 영역으로 다시 이동 로봇이 이동한 경우로서, 도 8c에 처음 부분과 끝 부분은 다음 시점의 최적화 범위가 되고, 중간 부분은 지역 지도로 고정된다.
도 9a를 참조하면, 임계점에 도달하기 전까지, 최적화 범위의 크기는 새로운 노드가 추가될 때마다 증가한다. 임계점에 도달하면, 도 9b에 도시한 바와 같이, 지역 지도 영역과 다음 시점의 최적화 범위 영역으로 나눈다. 이때 지역 지도는 고정되고 모양이 더 이상 변화되지 않는다. 그 후 새로운 노드가 추가되면, 도 9c에 도시한 바와 같이, 범위 설정 모듈은, 지역 지도 부분을 제외한 나머지 영역과 새로 추가된 노드를 포함하는 영역으로 최적화 범위를 정하고, 다음 임계점을 만날 때까지 새로운 노드가 추가될 때마다 최적화 범위의 크기를 증가시킨다. 위치 보정 모듈(240)은 각 최적화 범위 내에서는, 예를 들어 마할라노비스의 거리 (Mahalanobis distance)의 합이 최소가 되는 이동 로봇의 위치들을 찾아 보정하고, 경로 생성 모듈(250)은 이러한 위치들을 근거로 경로를 생성한다.
최적화 범위가 임계점에 도달했을 때, 도 10a에 도시한 바와 같이, 두 영역이 나뉘면 일반적으로 노드들의 재배열이 불필요하다. 그러나, 도 10b에 도시한 바와 같이, 두 영역으로 나뉠 경우, 다음 시점의 최적화 범위의 노드들의 인덱스가 불연속적이므로 노드의 재배열이 필요하다. 따라서, 범위 설정 모듈은 지역 지도 영역에 포함된 노드의 인덱스와 다음 시점의 최적화 범위에 해당하는 노드 중 지역 지도 영역에 포함된 노드의 인덱스보다 작은 인덱스를 가지는 노드들의 인덱스를 바꿔 도 10c에 도시한 바와 같이, 최적화 범위 내의 노드들의 인덱스가 연속적이게 만든다.
도 1을 다시 참조하면, 제어 유닛(200)은, 노드 정보들을 서로 비교하고, 상기 노드들을 병합하는 노드 병합 모듈(280)을 더 포함하여 구성된다. 도 11a를 참조하면, 이동 로봇이 동일한 지역을 반복해서 여러 번 주행할 경우, 가중치가 약한 부분이 존재하지 않아, 최적화 범위의 크기가 계속해서 증가할 수 있다. 이에 따라 실시간으로 이동 로봇의 경로를 보정하기 어렵고 메모리 사용량이 많아지게 되어 비효율적이다. 따라서 노드 병합 모듈은 동일한 지역에서 비슷하거나 동일한 노드와 위치 관계를 각각 병합하여 도 11b와 같이 노드를 줄여 메모리 효율과 계산 효율을 향상시킨다. 노드 병합 모듈(280)은 가중치 행렬에 약한 부분이 없어 최적화 범위의 크기가 미리 지정된 최대 크기에 도달하는 경우에 병합을 수행한다.
도 4를 참조하면, 다른 실시 예에 따른 이동 로봇은, 주 바퀴를 회전시키는 소정의 휠 모터를 구비하고, 상기 휠 모터를 구동하여 이동 로봇을 이동시키는 구동 유닛(400)과, 이동 로봇의 이동에 따라 연속적으로 센서 프레임들의 3차원 거리 이미지들을 획득하는 3차원 거리 센서(110)와, 상기 3차원 거리 이미지들을 근거로 이동 로봇의 위치를 인식하는 제어 유닛(200)을 포함하여 구성된다.
여기서, 제어 유닛(200)은, 상기 센서 프레임들에서의 상기 3차원 거리 이미지들에 따른 위치들을 각각 노드들로 설정하는 노드 설정 모듈(210)과, 상기 3차원 거리 이미지들에 대한 거리 이미지 정보를 이용하여 각각의 3차원 거리 이미지들로부터 하나 이상의 평면을 추출하는 평면 추출 모듈(291)과, 상기 평면들의 유사도를 근거로 상기 평면들을 정합하는 평면 정합 모듈(293)과, 상기 평면들의 정합 결과를 근거로 상기 노드들의 위치 관계들을 설정하는 위치 관계 설정 모듈(220)과, 상기 위치 관계들을 근거로 상기 노드들 중 일부를 포함하는 상기 최적화 범위를 가변적으로 설정하는 범위 설정 모듈(230)을 포함하여 구성된다.
3차원 거리 센서(110)는, 발광부와 수광부를 구비하고, 적외선을 이용하여 3차원 거리 이미지들을 검출할 수 있다. 3차원 거리 센서(110)는 발광부로부터 발신된 적외선이 수광부로 반사되어 돌아오는 시간을 이용하여 거리 이미지 정보를 생성한다. 발광부와 수광부는 서로 떨어져 있는데 그 거리가 짧을수록 오차가 줄어들고 정밀한 깊이 영상 정보를 생성할 수 있다. 검출한 거리 이미지(Depth Image)의 일 예는 도 12와 같다. 3차원 거리 센서로는 KINECT (RGB-D 센서), TOF (Structured Light sensor), stereo camera 등이 사용될 수 있다.
도 2를 참조하면, 상기 이동 로봇은, 주 바퀴(410)에 연결되어 주 바퀴의 회전수를 감지하는 휠 센서(500)를 더 포함하여 구성된다. 휠 센서는 좌, 우측의 주 바퀴에 연결되어 주 바퀴의 회전수를 감지한다. 일 예로,휠 센서는 로터리 엔코더(Rotary Encoder)일 수 있다. 로터리 엔코더는 이동 로봇이 이동할 때, 좌측과 우측의 주바퀴의 회전수를 감지하여 출력한다. 제어 유닛은 회전수를 이용하여 좌, 우측 바퀴의 회전 속도를 연산할 수 있다. 후술하는 바와 같이, 이동 로봇이 평면 추출을 수행한 후, 이전에 얻어진 평면과의 정합을 통하여 이전 센서 프레임과의 상대 위치를 예측한다. 또, 이동 로봇은 주행하면서 휠 센서를 이용하여 대략적인 위치를 예측할 수 있다. 휠 센서의 정보는 부정확하므로 이동 로봇은 평면 특징점을 활용하여 보정하게 된다. 이동 로봇은 휠 센서의 정보를 이용하여 두 센서 프레임 사이의 평면을 정합하게 되고, 정합 결과를 근거로 두 센서 프레임 사이의 최적의 상대 위치를 계산한다.
또, 도 3을 참조하면, 상기 이동 로봇은, 상방 또는 전방에 구비되고, 주변을 촬영하여 영상 정보를 획득하는 영상 카메라(600)를 더 포함하여 구성될 수 있다. 영상 카메라(600)는 전방이나 상방을 향하도록 설치된다. 설치 위치는 로봇의 크기, 형태 등에 따라 달라질 수 있다. 영상 카메라(600)는 일정 해상도 이상의 CCD 카메라, CMOS 카메라 등일 수 있다. 영상 카메라(600)는 필요에 따라 렌즈를 구비할 수 있다. 제어 유닛은 영상 정보를 이용하여 로봇의 위치를 계산할 수 있다. 계산된 위치를 이용하여 상기 휠 센서를 대신하거나, 또는 휠 센서의 위치 정보와 함께, 이동 로봇은 두 센서 프레임 사이의 평면을 정합할 수 있다.
도 13에 도시한 바와 같이, 평면 추출 모듈(291)은 3차원 거리 이미지를 포인트 클라우드로 변환하고, 도 14에 도시한 바와 같이, 평면들을 추출할 수 있다. 평면 추출 모듈(291)은, 3차원 거리 이미지들에 대한 거리 이미지 정보를 이용하여 각각의 3차원 거리 이미지들로부터 상기 하나 이상의 평면을 추출한다. 예를 들어, 평면 추출 모듈(291)은, 3차원 거리 이미지들의 픽셀들 각각에 대한 수직 벡터를 검출하고, 곡률이 크거나 주위 픽셀에 대하여 불연속인 픽셀을 에지로 검출한다. 그런 다음, 평면 추출 모듈(291)은, 일정 범위 내의 수직 벡터를 갖는 픽셀들로 이루어진 픽셀 집합을 추출한다. 평면 추출 모듈(291)은, 픽셀 집합과 대응하는 포인트 클라우드에 대해 영상 처리 기법을 적용하여 평면의 초기 모델을 생성한다. 여기서, 영상 처리 기법으로는 RANSAC (RANdom SAmple Consensus) 등을 사용할 수 있다. 두 개의 각도 파라미터 (α, β)와, 평면의 원점으로부터의 수직 거리 (d)등을 이용하여 평면을 표현한다. 또, 평면을 표현함에 있어서, 각도, 거리 등의 에러 모델, 즉 에러 분산(variance)을 더 이용한다. 추가적으로 평면의 범위를 표현하기 위해서 평면을 구하기 위해 사용된 픽셀 집합에 대응되는 3차원 포인트들의 가우시안 분포를 사용할 수 있다. 이때, 전체 픽셀들을 모두 사용하지 않고 RANSAC 등을 이용하여 일부의 픽셀들을 이용하여 초기 파라미터 값을 생성할 수 있다. 또, 평면 추출 모듈(291)은, 일정 개수의 픽셀들로 이루어진 외곽선을 추출한다.
평면 정합 모듈(293)은, 평면들의 유사도를 근거로 상기 평면들을 정합한다. 위치 관계 설정 모듈(220)은 평면들의 정합 결과를 근거로 상기 센서 프레임들의 위치 관계들을 설정한다. 새로 생성된 j 번째 프레임과 이전의 i 번째 프레임 사이의 상대적 위치관계의 추정값에 대한 가우시안 분포(To, CTo)는 이동 로봇의 이동 정보와 직전 프레임에서 구해진 분포를 이용해 구할 수 있다. 이 정보를 이용하면 j번째 프레임을 i 번째 프레임 상으로 변환할 수 있다. 두 개의 평면이 서로 유사한지를 판단하기 위해 이동 로봇은 각도, 거리, 범위 등 평면 파라미터들에 대해 독립적으로 유사도를 계산한다. 이동 로봇은 mahalanobis 거리를 이용할 수 있다. 평면 정합 모듈(293)은, 계산한 유사도가 일정 기준 값보다 클 경우(mahalanobis 거리가 기준 거리보다 작은 경우)에, 두 평면을 정합 후보로 설정한다. 하나의 평면이 다른 프레임의 여러 개의 평면과 중복 정합될 경우에, 평면 정합 모듈(293)은, 정확도가 가장 높은 정합을 선택한다. 위치 관계 설정 모듈(220)은 모든 평면에 대한 정합이 완료되면, 두 센서 프레임 사이의 상대적 위치 관계에 대한 가우시안 분포(Tc, CTc)를 구하게 된다.
노드 설정 모듈(210)은, 3차원 거리 이미지들을 통해 인식한 이동 로봇의 위치를 노드로 설정한다. 범위 설정 모듈(230)은, 위치 관계들을 이용하여 최적화 범위를 설정한다. 범위 설정 모듈(230)은, 노드의 증가에 따라, 즉 이동 로봇의 이동에 따라 최적화 범위의 크기를 증가시킨다. 이때, 범위 설정 모듈(230)은, 최적화 범위의 크기에 대한 최대 크기를 미리 설정한다. 즉, 범위 설정 모듈은 최대 크기 내에서 최적화 범위의 크기를 증가시킨다. 범위 설정 모듈(230)은, 임계점을 설정하고, 상기 위치 관계들을 근거로 계산된 값이 상기 임계점에 도달하면, 상기 최적화 범위를 분리한다.
도 4를 다시 참조하면, 제어 유닛(200)은, 상기 최적화 범위 내에서 상기 노드들의 노드 정보들을 변경하는 위치 보정 모듈(240)과, 상기 최적화 범위 내에서 상기 노드 정보들을 이용하여 이동 경로를 생성하는 경로 생성 모듈(250)과, 상기 최적화 범위 내에서 상기 노드 정보들을 이용하여 지역 지도를 생성하는 지역 지도 생성 모듈(260)과, 이동 로봇의 이동에 따라 생성된 지역 지도들을 연결하여 전역 지도를 생성하는 전역 지도 생성 모듈(270)을 더 포함하여 구성된다. 다른 모듈들에 대한 설명은 도 1 및 일 실시 예에서의 설명에 유사하므로 이에 갈음하고 이하 생략한다.
도 5 및 도 6을 참조하면, 일 실시 예에 따른 이동 로봇의 제어 방법은, 이동 로봇의 이동에 따라 연속적으로 획득한 감지 정보들을 근거로 이동 로봇의 위치들을 인식하고, 상기 인식한 위치들 사이의 위치 관계들을 근거로 상기 인식한 위치들 중 일부를 포함하는 최적화 범위를 가변적으로 설정하며, 상기 최적화 범위 내에서 상기 인식한 위치들을 보정한다. 이하 장치의 구성은 도 1 내지 도 4를 참조한다.
도 5를 참조하면, 이동 로봇의 제어 방법은, 감지 정보들을 획득하는 정보 획득 단계(S10)와, 상기 위치들을 인식하는 위치 인식 단계(S20)와, 상기 인식한 위치들을 각각 노드들로 설정하는 노드 설정 단계(S30)와, 상기 노드들의 노드 정보들을 이용하여 상기 노드들 사이의 위치 관계들을 설정하는 위치 관계 설정 단계(S40)와, 상기 위치 관계들을 근거로 상기 노드들 중 일부를 포함하는 상기 최적화 범위를 가변적으로 설정하는 범위 설정 단계(S50)를 포함하여 구성된다.
또, 상기 제어 방법은, 상기 최적화 범위 내에서 상기 노드들의 노드 정보들을 변경하는 위치 보정 단계(S60)를 더 포함하여 구성된다. 또, 상기 제어 방법은, 상기 최적화 범위 내에서 상기 노드 정보들을 이용하여 이동 경로를 생성하는 경로 생성 단계(S70)를 더 포함하여 구성된다.
또, 상기 제어 방법은, 상기 최적화 범위 내에서 상기 노드 정보들을 이용하여 지역 지도를 생성하는 지역 지도 생성 단계(S80)를 더 포함할 수 있고, 이동 로봇의 이동에 따라 생성된 지역 지도들을 연결하여 전역 지도를 생성하는 전역 지도 생성 단계(S90)를 더 포함할 수 있다.
이동 로봇은 이동하면서(S1) 감지 유닛을 이용하여 연속적으로 주변을 감지한다(S10). 이동 로봇은, 장애물 센서, 가속도 센서, 자이로 센서, 3차원 거리 센서 등이나 또는 휠 센서, 영상 카메라 등의 감지 유닛을 통해 획득한 감지 정보를 이용하여 위치를 인식한다(S20). 이동 로봇은, 인식한 위치들을 각각 노드들로 설정하고(S30), 상기 노드들의 노드 정보들을 이용하여 상기 노드들 사이의 위치 관계들을 설정한다(S40). 그런 다음, 이동 로봇은, 상기 위치 관계들을 근거로 상기 노드들 중 일부를 포함하는 상기 최적화 범위를 가변적으로 설정한다.
이동 로봇은, 감지 정보들을 통해 인식한 이동 로봇의 위치를 노드로 설정한다(S30). 이동 로봇은, 2차원 또는 3차원 좌표계를 이용하여 노드를 표시한다. 이동 로봇은, 상기 노드들의 노드 정보들을 이용하여 상기 노드들 사이의 위치 관계들을 설정한다(S40). 예를 들어, j 번째 위치와 이전의 i 번째 위치 사이의 상대적 위치 관계의 추정값에 대한 가우시안 분포는 이동 로봇의 이동 정보와 직전 위치에서 구해진 분포를 이용해 구할 수 있다. 이 정보를 이용하면, j 번째 위치를 i 번째 위치로 변환할 수 있다.
범위 설정 단계(S50)는, 상기 노드의 증가에 따라 상기 최적화 범위의 크기를 증가시킨다. 도 6을 참조하면, 상기 범위 설정 단계(S50)는, 상기 최적화 범위의 크기에 대한 최대 크기를 미리 설정하는 과정(S51a)과, 상기 최대 크기 내에서 상기 최적화 범위의 크기를 증가시키는 과정(S54)을 포함하여 구성된다. 또, 범위 설정 단계(S50)는, 임계점을 설정하는 과정(S51b)과, 상기 위치 관계들을 근거로 계산된 값이 상기 임계점에 도달하는지 여부를 판단하는 과정(S55)과, 상기 임계점에 도달하면, 상기 최적화 범위를 분리하는 과정(S56)을 더 포함하여 구성된다.
이동 로봇은, 각 노드들의 위치 관계들을 이용하여 비용 함수를 정의하고, 에러를 최소화하는 노드들의 위치를 구하여 위치를 보정한다(S60). 또, 이동 로봇은, 상기 최적화 범위 내에서 상기 노드 정보들을 이용하여 이동 경로를 생성한다(S70). 이동 경로는 간단하게 노드들을 연결함으로써 설정된다. 이동 로봇은, 노드들의 위치가 보정되면 보정된 위치들을 연결하여 이동 경로를 설정한다.
이동 로봇은, 상기 최적화 범위 내에서 상기 노드 정보들을 이용하여 지역 지도를 생성한다(S80). 또, 이동 로봇은, 이동에 따라 생성된 지역 지도들을 연결하여 전역 지도를 생성한다(S90). 이동 로봇은, 각 지역 지도들 내의 첫 번째 노드들의 노드 정보들을 이용하여 상기 전역 지도를 보정한다.
이동 로봇은, 도 7a에 도시한 바와 같이, 복수의 노드들로 이루어진 지역 지도들(a, b, c, d)을 생성한다(S80). 지역 지도가 만들어지면 고정되어 모양이 더 이상 변하지 않는다. 도 7a을 다시 참조하면, 이동 로봇은 여러 개의 지역지도들의 합으로 전역 지도를 생성한다(S90). 이동 로봇은, 도 7b의 왼쪽에 도시한 바와 같이, 각 지역 지도의 첫 번째 노드들만을 보정하여 전역 지도를 생성한다. 그런 다음, 도 7b의 오른쪽에 도시한 바와 같이, 이동 로봇은, 각 지역 지도의 나머지 노드들을 각 지역 지도의 첫 번째 노드를 기준으로 위치를 보정하여, 보정 하기 전의 지역 지도의 모양을 유지한다.
도 8a 내지 도 8c를 참조하여 이동 로봇의 임계점 설정 및 최적화 범위 분리를 예를 들어 설명한다. 이동 로봇은, 각 노드들의 위치 관계에 대한 분산(covariance) 행렬의 역수로 이루어진 행렬로부터, 도 8a에 도시한 바와 같이, 가중치 행렬 (weight matrix)을 구성한다. 그런 다음, 이동 로봇은, 일반화된 특이값 시스템 (generalized eigenvalue system)을 풀어 최소 특이값 (smallest eigenvalue)이 일정 값 이하로 작아지는 부분을 임계점으로 설정한다(S51b). 임계점에 도달했을 때(S55), 이동 로봇은 최적화 범위의 영역을 도 8b 또는 도 8c와 같이 분리한다(S56). 이때, 연결이 약한 부분을 중심으로 나누고, 가장 최근 노드가 포함된 곳은 다음 시점의 슬라이딩 윈도우가 되며, 남은 영역은 지역 지도(local map)로 고정된다. 도 8c의 경우는, 위치 관계들이 유사한 영역으로 다시 이동 로봇이 이동한 경우로서, 도 8c에 처음 부분과 끝 부분은 다음 시점의 최적화 범위가 되고, 중간 부분은 지역 지도로 고정된다.
도 9a를 참조하면, 임계점에 도달하기 전까지, 최적화 범위의 크기는 새로운 노드가 추가될 때마다 증가한다(S54). 임계점에 도달하면(S55), 도 9b에 도시한 바와 같이, 지역 지도 영역과 다음 시점의 최적화 범위 영역으로 나눈다. 이때 지역 지도는 고정되고 모양이 더 이상 변화되지 않는다. 그 후 새로운 노드가 추가되면(S53), 도 9c에 도시한 바와 같이, 이동 로봇은, 지역 지도 부분을 제외한 나머지 영역과 새로 추가된 노드를 포함하는 영역으로 최적화 범위를 정하고, 다음 임계점을 만날 때까지 새로운 노드가 추가될 때마다 최적화 범위의 크기를 증가시킨다(S54). 이동 로봇은 각 최적화 범위 내에서는, 예를 들어 마할라노비스의 거리 (Mahalanobis distance)의 합이 최소가 되는 이동 로봇의 위치들을 찾아 보정하고(S60), 이러한 위치들을 근거로 경로를 생성한다(S70). 지역 지도로 고정된 후, 다음 최적화 범위로 이동하며(S120), 이동 로봇의 이동에 따라(S52) 새로운 노드가 추가되면(S53) 최적화 범위의 크기는 증가한다(54).
최적화 범위가 임계점에 도달했을 때, 도 10a에 도시한 바와 같이, 두 영역이 나뉘면 일반적으로 노드들의 재배열이 불필요하다. 그러나, 도 10b에 도시한 바와 같이, 두 영역으로 나뉠 경우, 다음 시점의 최적화 범위의 노드들의 인덱스가 불연속적이므로 노드의 재배열이 필요하다. 따라서, 이동 로봇은 지역 지도 영역에 포함된 노드의 인덱스와 다음 시점의 최적화 범위에 해당하는 노드 중 지역 지도 영역에 포함된 노드의 인덱스보다 작은 인덱스를 가지는 노드들의 인덱스를 바꿔 도 10c에 도시한 바와 같이, 최적화 범위 내의 노드들의 인덱스가 연속적이게 만든다.
이동 로봇은, 노드 정보들을 서로 비교하고, 비교 결과에 따라 상기 노드들을 병합할 수 있다(S100, S110). 도 11a를 참조하면, 이동 로봇이 동일한 지역을 반복해서 여러 번 주행할 경우, 가중치가 약한 부분이 존재하지 않아, 최적화 범위의 크기가 계속해서 증가할 수 있다(도 6의 S57의 예). 이에 따라 실시간으로 이동 로봇의 경로를 보정하기 어렵고 메모리 사용량이 많아지게 되어 비효율적이다. 따라서 이동 로봇은 동일한 지역에서 비슷하거나 동일한 노드와 위치 관계를 각각 병합하여(S110), 도 11b와 같이 노드를 줄여 메모리 효율과 계산 효율을 향상시킨다. 이동 로봇은, 가중치 행렬에 약한 부분이 없어 최적화 범위의 크기가 미리 지정된 최대 크기에 도달하는 경우에 병합을 수행한다(S110).
이상 설명한 바와 같이, 본 발명의 실시 예들에 따른 이동 로봇 및 이의 제어 방법은, 이동 로봇의 위치를 인식하고 경로를 정밀하게 탐색함에 있어서, 전체 경로를 한번에 보정하지 아니하고, 환경에 따라 최적화 범위의 크기를 적절히 조절하면서 그 범위 내의 경로만을 보정하며, 가변 최적화 범위를 이동하여 점진적으로 경로를 보정한다. 본 발명의 실시 예들은, 가변 최적화 범위를 이용하므로 정보의 손실을 최소화할 수 있고, 환경에 따라 최적화 범위의 크기를 적절하게 결정할 수 있다. 또한, 본 발명의 실시 예들은, 지역 지도의 집합으로 전역 지도를 구성함으로써 전역 지도 보정에 효율적이다. 또, 본 발명의 실시 예들은, 센서의 감지 정보를 이용하여 위치를 인식하거나 또는 실내 지도를 생성할 수 있다. 본 발명의 실시 예들은 3차원 거리 센서를 이용하고, 3차원 거리 이미지들로부터 하나 이상의 평면을 추출하고 평면들을 정합함으로써 위치를 인식하거나 또는 3차원 지도를 생성할 수 있다.
100: 3차원 거리 센서 200: 제어 유닛
300: 저장 유닛 400: 구동 유닛
500: 휠 센서 600: 영상 카메라

Claims (25)

  1. 이동 로봇의 이동에 따라 연속적으로 주변을 감지하여 감지 정보들을 출력하는 감지 유닛; 및
    상기 감지 정보들을 이용하여 이동에 따른 위치들을 인식하는 제어 유닛;을 포함하고,
    상기 제어 유닛은,
    상기 인식한 위치들 사이의 위치 관계들을 근거로 상기 인식한 위치들 중 일부를 포함하는 최적화 범위를 가변적으로 설정하고, 상기 최적화 범위 내에서 상기 인식한 위치들을 보정하는 것을 특징으로 하는 이동 로봇.
  2. 제1 항에 있어서,
    상기 제어 유닛은,
    상기 인식한 위치들을 각각 노드들로 설정하는 노드 설정 모듈;
    상기 노드들의 노드 정보들을 이용하여 상기 노드들 사이의 위치 관계들을 설정하는 위치 관계 설정 모듈; 및
    상기 위치 관계들을 근거로 상기 노드들 중 일부를 포함하는 상기 최적화 범위를 가변적으로 설정하는 범위 설정 모듈;을 포함하는 이동 로봇.
  3. 제2 항에 있어서,
    상기 제어 유닛은,
    상기 최적화 범위 내에서 상기 노드들의 노드 정보들을 변경하는 위치 보정 모듈;을 더 포함하는 것을 특징으로 하는 이동 로봇.
  4. 제3 항에 있어서,
    상기 제어 유닛은,
    상기 최적화 범위 내에서 상기 노드 정보들을 이용하여 이동 경로를 생성하는 경로 생성 모듈;을 더 포함하는 것을 특징으로 하는 이동 로봇.
  5. 제2 항 내지 제4 항 중 어느 한 항에 있어서,
    상기 범위 설정 모듈은,
    상기 노드의 증가에 따라 상기 최적화 범위의 크기를 증가시키는 것을 특징으로 하는 이동 로봇.
  6. 제5 항에 있어서,
    상기 범위 설정 모듈은,
    상기 최적화 범위의 크기에 대한 최대 크기를 미리 설정하고, 상기 최대 크기 내에서 상기 최적화 범위의 크기를 증가시키는 것을 특징으로 하는 이동 로봇.
  7. 제6 항에 있어서,
    상기 범위 설정 모듈은,
    임계점을 설정하고, 상기 위치 관계들을 근거로 계산된 값이 상기 임계점에 도달하면, 상기 최적화 범위를 분리하는 것을 특징으로 하는 이동 로봇.
  8. 제7 항에 있어서,
    상기 제어 유닛은,
    상기 최적화 범위 내에서 상기 노드 정보들을 이용하여 지역 지도를 생성하는 지역 지도 생성 모듈;을 더 포함하는 것을 특징으로 하는 이동 로봇.
  9. 제8 항에 있어서,
    상기 제어 유닛은,
    이동 로봇의 이동에 따라 생성된 지역 지도들을 연결하여 전역 지도를 생성하는 전역 지도 생성 모듈;을 더 포함하는 것을 특징으로 하는 이동 로봇.
  10. 제9 항에 있어서,
    상기 전역 지도 생성 모듈은,
    각 지역 지도들 내의 첫 번째 노드들의 노드 정보들을 이용하여 상기 전역 지도를 보정하는 것을 특징으로 하는 이동 로봇.
  11. 제7 항에 있어서,
    상기 제어 유닛은,
    상기 노드 정보들을 서로 비교하고, 상기 노드들을 병합하는 노드 병합 모듈;을 더 포함하는 것을 특징으로 하는 이동 로봇.
  12. 이동 로봇의 이동에 따라 연속적으로 획득한 감지 정보들을 근거로 이동 로봇의 위치들을 인식하고, 상기 인식한 위치들 사이의 위치 관계들을 근거로 상기 인식한 위치들 중 일부를 포함하는 최적화 범위를 가변적으로 설정하며, 상기 최적화 범위 내에서 상기 인식한 위치들을 보정하는 것을 특징으로 하는 이동 로봇의 제어 방법.
  13. 제12 항에 있어서,
    상기 감지 정보들을 획득하는 정보 획득 단계;
    상기 위치들을 인식하는 위치 인식 단계;
    상기 인식한 위치들을 각각 노드들로 설정하는 노드 설정 단계;
    상기 노드들의 노드 정보들을 이용하여 상기 노드들 사이의 위치 관계들을 설정하는 위치 관계 설정 단계; 및
    상기 위치 관계들을 근거로 상기 노드들 중 일부를 포함하는 상기 최적화 범위를 가변적으로 설정하는 범위 설정 단계;를 포함하는 이동 로봇의 제어 방법.
  14. 제13 항에 있어서,
    상기 최적화 범위 내에서 상기 노드들의 노드 정보들을 변경하는 위치 보정 단계;를 더 포함하는 이동 로봇의 제어 방법.
  15. 제14 항에 있어서,
    상기 최적화 범위 내에서 상기 노드 정보들을 이용하여 이동 경로를 생성하는 경로 생성 단계;를 더 포함하는 이동 로봇의 제어 방법.
  16. 제13 항 내지 제15 항 중 어느 한 항에 있어서,
    상기 범위 설정 단계는,
    상기 노드의 증가에 따라 상기 최적화 범위의 크기를 증가시키는 것을 특징으로 하는 이동 로봇의 제어 방법.
  17. 제16 항에 있어서,
    상기 범위 설정 단계는,
    상기 최적화 범위의 크기에 대한 최대 크기를 미리 설정하는 과정; 및
    상기 최대 크기 내에서 상기 최적화 범위의 크기를 증가시키는 과정;을 포함하는 것을 특징으로 하는 이동 로봇의 제어 방법.
  18. 제17 항에 있어서,
    상기 범위 설정 단계는,
    임계점을 설정하는 과정;
    상기 위치 관계들을 근거로 계산된 값이 상기 임계점에 도달하는지 여부를 판단하는 과정; 및
    상기 임계점에 도달하면, 상기 최적화 범위를 분리하는 과정;을 더 포함하는 것을 특징으로 하는 이동 로봇의 제어 방법.
  19. 제18 항에 있어서,
    상기 최적화 범위 내에서 상기 노드 정보들을 이용하여 지역 지도를 생성하는 지역 지도 생성 단계;를 더 포함하는 이동 로봇의 제어 방법.
  20. 제19 항에 있어서,
    이동 로봇의 이동에 따라 생성된 지역 지도들을 연결하여 전역 지도를 생성하는 전역 지도 생성 단계;를 더 포함하는 이동 로봇의 제어 방법.
  21. 주 바퀴를 회전시키는 소정의 휠 모터를 구비하고, 상기 휠 모터를 구동하여 이동 로봇을 이동시키는 구동 유닛;
    이동 로봇의 이동에 따라 연속적으로 센서 프레임들의 3차원 거리 이미지들을 획득하는 3차원 거리 센서; 및
    상기 3차원 거리 이미지들을 근거로 이동 로봇의 위치를 인식하는 제어 유닛;을 포함하고,
    상기 제어 유닛은,
    상기 센서 프레임들에서의 상기 3차원 거리 이미지들에 따른 위치들을 각각 노드들로 설정하는 노드 설정 모듈;
    상기 3차원 거리 이미지들에 대한 거리 이미지 정보를 이용하여 각각의 3차원 거리 이미지들로부터 하나 이상의 평면을 추출하는 평면 추출 모듈;
    상기 평면들의 유사도를 근거로 상기 평면들을 정합하는 평면 정합 모듈;
    상기 평면들의 정합 결과를 근거로 상기 노드들의 위치 관계들을 설정하는 위치 관계 설정 모듈; 및
    상기 위치 관계들을 근거로 상기 노드들 중 일부를 포함하는 상기 최적화 범위를 가변적으로 설정하는 범위 설정 모듈;을 포함하는 것을 특징으로 하는 이동 로봇.
  22. 제21 항에 있어서,
    상기 주 바퀴에 연결되어 상기 주 바퀴의 회전수를 감지하는 휠 센서;를 더 포함하는 이동 로봇.
  23. 제21 항에 있어서,
    상방 또는 전방에 구비되고, 주변을 촬영하여 영상 정보를 획득하는 영상 카메라;를 더 포함하는 이동 로봇.
  24. 제21 항 내지 제23 항 중 어느 한 항에 있어서,
    상기 범위 설정 모듈은,
    상기 최적화 범위의 크기에 대한 최대 크기와, 상기 최적화 범위를 분리하기 위한 임계점을 설정하고,
    상기 최대 크기 내에서 상기 노드의 증가에 따라 상기 최적화 범위의 크기를 증가시키며,
    상기 위치 관계들을 근거로 계산된 값이 상기 임계점에 도달하면, 상기 최적화 범위를 분리하는 것을 특징으로 하는 이동 로봇.
  25. 제24 항에 있어서,
    상기 제어 유닛은,
    상기 최적화 범위 내에서 상기 노드들의 노드 정보들을 변경하는 위치 보정 모듈;
    상기 최적화 범위 내에서 상기 노드 정보들을 이용하여 이동 경로를 생성하는 경로 생성 모듈;
    상기 최적화 범위 내에서 상기 노드 정보들을 이용하여 지역 지도를 생성하는 지역 지도 생성 모듈; 및
    이동 로봇의 이동에 따라 생성된 지역 지도들을 연결하여 전역 지도를 생성하는 전역 지도 생성 모듈;을 더 포함하는 것을 특징으로 하는 이동 로봇.
KR1020120059413A 2012-06-01 2012-06-01 이동 로봇 및 이의 제어 방법 KR101956569B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120059413A KR101956569B1 (ko) 2012-06-01 2012-06-01 이동 로봇 및 이의 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120059413A KR101956569B1 (ko) 2012-06-01 2012-06-01 이동 로봇 및 이의 제어 방법

Publications (2)

Publication Number Publication Date
KR20130135652A true KR20130135652A (ko) 2013-12-11
KR101956569B1 KR101956569B1 (ko) 2019-03-11

Family

ID=49982842

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120059413A KR101956569B1 (ko) 2012-06-01 2012-06-01 이동 로봇 및 이의 제어 방법

Country Status (1)

Country Link
KR (1) KR101956569B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160129143A (ko) 2015-04-29 2016-11-09 (주)이산솔루션 스마트 디바이스 기반의 로봇 제어 서비스 시스템
WO2018074903A1 (ko) * 2016-10-20 2018-04-26 엘지전자 주식회사 이동 로봇의 제어방법
WO2021117999A1 (ko) * 2019-12-10 2021-06-17 한국로봇융합연구원 Rgb-d 카메라를 이용한 척수제어 모바일 로봇

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102568651B1 (ko) * 2022-10-26 2023-08-22 주식회사 클로봇 다수 무인이동체의 이동경로 생성을 위한 위상지도 형성장치 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100094757A (ko) * 2009-02-19 2010-08-27 삼성전자주식회사 로봇의 리로케이션 장치 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100094757A (ko) * 2009-02-19 2010-08-27 삼성전자주식회사 로봇의 리로케이션 장치 및 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160129143A (ko) 2015-04-29 2016-11-09 (주)이산솔루션 스마트 디바이스 기반의 로봇 제어 서비스 시스템
WO2018074903A1 (ko) * 2016-10-20 2018-04-26 엘지전자 주식회사 이동 로봇의 제어방법
US11561549B2 (en) 2016-10-20 2023-01-24 Lg Electronics Inc. Method of controlling mobile robot
WO2021117999A1 (ko) * 2019-12-10 2021-06-17 한국로봇융합연구원 Rgb-d 카메라를 이용한 척수제어 모바일 로봇

Also Published As

Publication number Publication date
KR101956569B1 (ko) 2019-03-11

Similar Documents

Publication Publication Date Title
JP7150773B2 (ja) 移動ロボット及びその制御方法
KR102135560B1 (ko) 카메라와 라이다를 이용한 융합 센서 및 이동체
KR102275300B1 (ko) 이동 로봇 및 그 제어방법
EP3447532B1 (en) Hybrid sensor with camera and lidar, and moving object
KR102403504B1 (ko) 이동 로봇 및 그 제어 방법
KR101618030B1 (ko) 이동 로봇의 위치 인식 및 주행 제어 방법과 이를 이용한 이동 로봇
KR101813922B1 (ko) 로봇 청소기 및 이의 제어 방법
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101503903B1 (ko) 이동 로봇의 지도 구성 장치 및 방법
JP6030405B2 (ja) 平面検出装置およびそれを備えた自律移動装置
KR101705601B1 (ko) 3차원 깊이정보기반 자율주행 로봇의 위치추정 장치 및 그 방법
EP3079031B1 (en) Moving robot and method of recognizing location of moving robot
WO2014064990A1 (ja) 平面検出装置、平面検出装置を備えた自律移動装置、路面段差検出方法、路面段差検出装置、および路面段差検出装置を備えた車両
KR101786516B1 (ko) 이동 로봇 및 그 제어방법
CN108544494B (zh) 一种基于惯性和视觉特征的定位装置、方法及机器人
US20220214696A1 (en) Simultaneous Localization and Mapping
KR101965739B1 (ko) 이동 로봇 및 이의 제어 방법
KR101956569B1 (ko) 이동 로봇 및 이의 제어 방법
US11055341B2 (en) Controlling method for artificial intelligence moving robot
KR20190119231A (ko) 위치 보정 기능이 향상된 주행 제어장치 및 이를 이용한 로봇 청소기
KR102203438B1 (ko) 이동 로봇 및 이동 로봇의 제어방법
CN113379911A (zh) Slam方法、slam系统及智能机器人
KR20160090278A (ko) 이동 로봇 및 이의 제어 방법
KR100949116B1 (ko) 이동 로봇의 위치 인식 및 지도 작성 방법
KR20220121483A (ko) 지능적 맵 생성 방법 및 그 이동 로봇

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant