KR101457148B1 - 로봇의 위치 추정 장치 및 그 방법 - Google Patents

로봇의 위치 추정 장치 및 그 방법 Download PDF

Info

Publication number
KR101457148B1
KR101457148B1 KR20080047207A KR20080047207A KR101457148B1 KR 101457148 B1 KR101457148 B1 KR 101457148B1 KR 20080047207 A KR20080047207 A KR 20080047207A KR 20080047207 A KR20080047207 A KR 20080047207A KR 101457148 B1 KR101457148 B1 KR 101457148B1
Authority
KR
South Korea
Prior art keywords
robot
straight line
wall surface
line information
information
Prior art date
Application number
KR20080047207A
Other languages
English (en)
Other versions
KR20090121092A (ko
Inventor
형승용
노경식
권웅
임산
윤석준
김현규
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR20080047207A priority Critical patent/KR101457148B1/ko
Priority to US12/379,433 priority patent/US8315737B2/en
Publication of KR20090121092A publication Critical patent/KR20090121092A/ko
Application granted granted Critical
Publication of KR101457148B1 publication Critical patent/KR101457148B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals

Abstract

본 발명은 로봇의 위치 추정 장치 및 그 방법에 관한 것으로, 특히 본 발명은 로봇의 운동에 따라 변화하는 상태량을 감지하는 상태량감지부와 실내지도상의 벽면을 이루는 직선정보를 저장하는 저장부와 벽면 추종 제어시 감지된 상태량에 기초하여 벽면을 이루는 직선정보를 획득하고, 획득된 벽면을 이루는 직선정보와 저장된 직선정보를 매칭하여 로봇의 실내위치를 추정하는 제어부를 포함함으로써 로봇의 위치 인식을 위해 복잡한 알고리즘이나 스캔센서, 카메라, GPS 등의 고가의 장치를 갖추지 않고서도 장애물 회피에 사용되는 저가의 거리센서와 실내의 도면정보를 사용하여 관성항법의 오차를 손쉽게 보정하고 로봇의 정확한 실내 위치를 파악할 수 있다.

Description

로봇의 위치 추정 장치 및 그 방법{APPARATUS FOR LOCALIZING MOVING ROBOT AND METHOD THE SAME}
본 발명은 로봇의 위치 추정장치 및 그 방법에 관한 것으로, 더욱 상세하게는 장애물감지를 위한 거리센서를 이용하여 로봇의 자기 위치를 추정할 수 있는 로봇의 위치 추정 장치 및 그 방법에 관한 것이다.
청소 로봇과 같은 로봇에서 자기의 정확한 위치를 파악하는 것은 가장 기본적이고 중요한 기능이다. 종래의 로봇들은 자기 위치를 인식하기 위하여 절대 항법과 추측 항법을 병합하여 사용하고 있다. 절대 항법의 경우 고정위치에 RFID 혹은 절대 위치 표식을 부착하는 방법, GPS(Global Positioning System)를 이용하는 방법이 있고, 추측 항법의 경우 바퀴 측에 부착된 엔코더센서(encoder)로부터 회전속도와 직진속도를 구해 이를 적분하여 위치를 추정하는 방법, 가속도 센서로부터 구한 가속도 값을 두 번 적분하여 위치를 추정하는 방법, 또는 자이로(gyro) 센서의 출력 값인 회전속도를 적분하여 위치를 추정하는 방법 등을 사용한다. 이 방법은 매우 정밀한 위치계산을 할 수 있지만 적분을 통해 얻어진 결과이므로 주행거리가 늘어나고 회전이 잦아질수록 오차가 커진다는 문제를 가지고 있다.
로봇의 위치 인식방안 중 바퀴로 구성되어 있는 많은 로봇은 정밀하면서도 저렴한 비용에 구축할 수 있는 엔코더센서와 자이로센서를 사용한 관성항법을 사용한다. 관성항법은 오차가 누적된다는 것이 단점이며 한 번 생긴 오차가 쉽게 보정하지 못한다. 관성오차는 외부에서 로봇을 관찰하는 GPS와 같은 센서를 통하여 보정이 가능하지만 실내나 다중경로가 발생할 수 있는 도심에서는 사용이 불가능하고 그 외의 삼각법을 이용한 센서는 별도의 부착이 필요한 번거로움을 가지고 있다. 한편, 별도의 설치 없이 로봇자체가 가지고 있는 센서를 이용하여 보정을 하기 위해서 로봇의 위치 추적과 지도 작성을 동시에 수행하는 방법(Simultaneous Localization And Map building ; SLAM)이 많이 도입되고 있으나 기본적으로 카메라나 스캔센서 등의 고가 센서를 사용하게 된다는 단점을 가지고 있다.
따라서, 본 발명의 목적은 장애물 회피에 사용되는 저가의 거리센서와 실내의 도면 정보를 사용하여 관성항법의 오차를 보정하여 실내에서 로봇의 정확한 자기 위치를 추정할 수 있는 로봇의 위치 추정장치 및 그 방법을 제공하는 것이다.
전술한 목적을 달성하기 위한 본 발명의 로봇의 위치 추정방법은 로봇이 이동할 공간의 절대좌표정보를 획득하는 단계와, 상기 로봇을 상기 공간으로 이동시키면서 상기 공간의 상대좌표정보를 획득하는 단계와, 상기 절대좌표정보와 상대좌표정보를 비교하여 좌표변환정보를 구하는 단계와, 상기 좌표변환정보를 이용하여 상기 로봇의 상대좌표상의 위치를 절대좌표상의 위치로 변환하여 인식하는 단계를 포함하는 것을 특징으로 한다.
또한, 본 발명의 다른 로봇의 위치 추정방법은 로봇이 벽면을 추종하도록 주행시키는 단계와, 상기 로봇의 벽면 추종 제어시 벽면을 이루는 직선정보를 획득하는 단계와, 상기 획득된 직선정보와 미리 저장된 지도상의 직선정보를 매칭하는 단계와, 상기 매칭결과를 근거로 하여 상기 로봇의 실내위치를 추정하는 단계를 포함하는 것을 특징으로 한다.
또한, 본 발명의 또 다른 로봇의 위치 추정방법은 로봇이 벽면을 추종하도록 주행시키는 단계와, 상기 로봇의 벽면 추종 제어시 상기 로봇의 상태량을 감지하는 단계와, 상기 감지된 상태량에 기초하여 벽면을 이루는 직선정보를 획득하는 단계와, 상기 획득된 직선정보로부터 특징점을 추출하는 단계와, 상기 추출된 특징점과 미리 저장된 지도상의 특징점을 매칭하는 단계와, 상기 매칭결과를 근거로 하여 상기 로봇의 실내위치를 추정하는 단계를 포함하는 것을 특징으로 한다.
또한, 본 발명의 로봇의 위치 추정장치는 지도상의 벽면을 이루는 직선정보를 저장하는 저장부와, 벽면을 따라 주행하는 로봇의 상태량을 감지하는 상태량감지부와, 상기 감지된 상태량에 기초하여 벽면을 이루는 직선정보를 획득하고, 획득된 직선정보와 상기 저장된 직선정보를 매칭하여 상기 로봇의 실내위치를 추정하는 제어부를 포함하는 것을 특징으로 한다.
또한, 본 발명의 다른 로봇의 위치 추정장치는 벽면을 따라 주행하는 로봇의 상태량을 감지하는 상태량감지부와, 상기 감지된 상태량을 입력으로 하는 칼만 필터를 이용하여 상기 로봇의 다음 위치를 예측하고, 예측 결과를 보정하고, 벽면을 이루는 직선 정보로부터 추출된 특징점과 미리 저장된 지도상의 특징점을 매칭하여 상기 로봇의 실내위치를 추정하는 제어부를 포함하는 것을 특징으로 한다.
본 발명에 따르면, 로봇의 위치 인식을 위해 복잡한 알고리즘이나 스캔센서, 카메라, GPS 등의 고가의 장치를 갖추지 않고서도 장애물 회피에 사용되는 저가의 거리센서와 실내의 도면정보를 사용하여 관성항법의 오차를 손쉽게 보정하고 로봇의 정확한 실내 위치를 파악할 수 있는 효과가 있다.
이하에서는 본 발명의 바람직한 실시예를 본 도면을 참조하여 상세하게 설명하도록 한다.
이하에서는 본 발명의 바람직한 실시예를 본 도면을 참조하여 상세하게 설명하도록 한다.
도 1은 본 발명의 실시예에 따른 로봇의 구성을 도시한 것이다. 도 2는 도 1에 도시된 로봇의 내부 구성을 도시한 것이다. 도 3은 본 발명의 실시예에 따른 로봇의 제어블록도를 도시한 것이다.
도 1 내지 도 3을 참조하면, 본 발명의 실시예에 따른 로봇은 상태량감지부(20), 제어부(30), 저장부(40) 및 구동부(50)를 포함하여 이루어진다.
상태량감지부(20)는 본체(10)의 둘레에 마련되는 전방센서(21) 및 측방센서(22)를 구비한다. 전방센서(21) 및 측방센서(22)는 외부로 신호를 송출하고 반 사된 신호를 수신하는 광센서이거나, 초음파를 출사하고 반사된 초음파를 수신하는 초음파센서가 적용될 수 있다. 이러한 전방센서(21) 및 측방센서(22)는 장애물이나 벽을 인지하기 위한 것으로, 벽과의 거리를 측정하는 데 이용된다. 특히, 측방센서(22)는 본체(10)의 일측면에 구동부(50)의 제1 및 제2바퀴(11,12)와 평행하도록 설치되며, 서로 간에 소정 거리 이격된 제1센서(22a)와 제2센서(22b)로 이루어져 있다. 즉, 측방센서(22)의 제1센서(22a) 및 제2센서(22b)는 로봇이 직진 주행하는 방향과 평행을 이루도록 본체(10)의 측면에 설치되어 있다. 측방센서(22)는 장애물까지의 거리를 측정할 수 있는 센서이면 어느 것이나 사용할 수 있다. 따라서, 측방센서(22)의 제1센서(22a)와 제2센서(22b)는 적외선을 출사하는 적외선 발광소자와 반사된 광을 수신하는 수광소자가 수직 상으로 쌍을 이루도록 배열되어 있다. 측방센서(22)는 또 다르게 초음파를 출사하고, 반사된 초음파을 수신할 수 있도록 된 초음파 센서가 적용될 수 있다. 따라서, 로봇이 평행하지 않은 상태로 벽을 따라 주행하는 경우에는 측방센서(22)의 센싱값이 달라지게 된다. 이러한 측방센서(22)는 본체(10)의 일측에만 설치할 수 있지만, 이동로봇이 양방향으로 벽을 추종할 수 있도록 본체(10)의 양측에 설치하는 것이 바람직하다.
또한, 상태량감지부(20)는 본체(10) 내부에 마련되는 엔코더센서(23)와 자이로센서(24)를 구비한다. 엔코더센서(23)는 본체(10)를 이동시키는 제1 및 제2바퀴(11,12)의 회전속도를 검출하고, 자이로센서(24)는 본체(10)의 회전각도를 검출한다.
또한, 저장부(40)는 후술하는 실내지도에 대한 정보를 저장하고 있다.
또한, 구동부(50)는 주행방향에 대하여 본체(10)의 오른쪽에 설치된 제1바퀴(11)와, 본체(10)의 왼쪽에 설치된 제2바퀴(12)와, 두 개의 바퀴(11,12)를 각각 회전 구동시키는 제1모터(13)와 제2모터(14)를 구비한다. 구동부(50)는 제어부(30)의 제어신호에 따라 제1모터(13)와 제2모터(14)를 독립적으로 정방향 또는 역방향으로 회전 구동시킨다. 주행방향은 제1모터(13)와 제2모터(14)의 회전수를 다르게 제어함으로써 정해진다.
제어부(30)는 상태량감지부(20)로부터 신호를 받아 로봇이 벽과 평행하게 주행할 수 있도록 구동부(50)를 제어한다.
이외에도, 본 발명의 실시예에 따른 로봇은 흡진부를 구비할 수 있다. 이러한 경우, 흡진부는 공기를 흡입하면서 대향되는 바닥의 먼지를 집진할 수 있도록 본체(10) 상에 설치되며, 이 흡입모터와, 흡입모터의 구동에 의해 바닥과 대향되게 형성된 흡입구 또는 흡입관을 통해 흡입된 먼지를 집진하는 집진실을 구비한다.
이하에서는 상기와 같은 구성을 갖는 로봇이 벽을 추종하며 주행하는 작용을 설명한다.
제어부(30)는 벽 추종명령이 입력되면, 전방센서(21)와 측방센서(22)를 이용하여 가장 가까운 벽을 찾아 이동한다. 여기서, 벽 추종 명령이란 로봇이 벽과 일정거리를 유지하면서 벽을 따라 주행하는 기능을 수행하도록 하는 것을 말한다.
벽으로 이동한 로봇은 벽과 일정거리 이격된 상태에서 벽과 평행을 유지하며 주행한다. 이때, 제어부(30)가 상태량감지부(20)를 이용하여 로봇이 벽과 평행을 유지하면서 주행하도록 구동부(50)를 제어한다. 즉, 벽과 로봇이 평행한 경우 제 어부(40)는 제1모터(13)와 제2모터(14)가 동일한 회전수로 회전하도록 구동부(50)를 제어한다. 하지만, 로봇이 벽으로부터 멀어지는 경우, 로봇이 벽 쪽으로 주행하도록 구동부(50)를 제어한다. 반대로, 로봇이 벽으로 접근하는 경우, 로봇이 벽에서 멀어지는 방향으로 주행하도록 구동부(50)를 제어한다.
제어부(30)는 이동로봇이 벽과 일정거리를 유지하면서 주행한 주행궤적을 저장부(40)에 저장한다. 제어부(30)는 로봇의 주행궤적이 주행궤적의 시작점과 겹치는가를 판단하여 주행궤적이 시작점과 겹치면 로봇의 벽 추종 주행을 종료한다. 즉, 제어부는 로봇이 벽 추종기능을 수행하는 주행궤적이 폐곡선을 이루는가를 판단하고 주행궤적이 폐곡선을 이루면 벽 추종 주행을 종료시킨다.
한편, 제어부(30)는 로봇을 실내벽면을 따라 주행시키는 벽면 추종 제어시 상태량감지부(20)에 의해 감지된 로봇의 운동에 따라 변화하는 상태량을 칼만 필터의 입력으로 하여 주행하는 벽면의 직선정보를 획득하고, 실내벽면을 이루는 직선정보와 미리 저장된 실내지도상의 직선정보를 매칭하여 로봇의 실내위치를 추정한다. 특히 제어부(30)는 벽면 추종 제어시 감지된 상태량을 칼만 필터의 입력으로 하여 주행하는 벽면의 직선정보를 획득하고, 실내벽면을 이루는 직선정보로부터 특징점을 추출하고, 추출된 특징점과 미리 저장된 실내지도상의 특징점을 ICP 방법으로 매칭하고, 매칭결과에 따라 로봇의 실내위치를 추정한다.
상기한 제어부(30)의 작동을 도 4를 참조하여 살펴보면, 제어부(30)는 로봇이 실내벽면을 추종하여 주행하도록 제어하는 벽 추종제어과정(100), 벽 추종 제어 중에 실내벽면별로 벽과의 거리와 각도를 수집하는 과정(110), 각각의 수집된 거리 와 각도를 통해 실내벽면을 이루는 직선정보를 획득하는 과정(120), 획득한 직선정보를 이용하여 특징점을 추출하는 과정(130), 추출된 특징점과 실내지도상의 특징점을 매칭하는 과정(140), 로봇의 실내위치를 인식하는 과정(150)을 수행한다.
먼저, 도 4에서 벽 추종 제어과정(100)을 살펴보면, 벽 추종 알고리즘은 거리센서를 이용하여 벽과의 일정한 거리를 유지하도록 하는 기능을 말한다. 로봇의 측면에 설치된 측방센서(22)를 사용하여 벽과의 거리를 측정하고 로봇 중심에 설치된 엔코더센서(23)와 자이로센서(24)를 통하여 관성정보를 획득하여 벽과의 거리를 일정하게 유지하는 피드백 제어를 수행한다.
벽의 모양에 따라 제어 이벤트가 발생하는데 도 5는 로봇과 벽과의 위치 관계에 따라 이벤트가 발생하여 모드변환이 발생하는 알고리듬을 보여주고 있다. TC는 모드 변환 시점이 되는 트리거 조건(Trigger Condition)을 의미하는데 도 6에 도시된 바와 같이, 각각 특별한 형태의 벽이 나타났을 때 해당하는 모드로 전환시키는 역할을 수행한다.
모드 0은 아무런 벽도 없는 상태를 의미하며 직선운동을 수행한다. 모드 0에서는 어느 방향에서나 벽이 나타날 수 있으므로 바깥쪽으로 꺾인 벽모서리를 중심으로 회전하는 6번과 7번 모드를 제외한 모든 모드로 전이할 수 있다. 모드 1은 정면에 벽이 나타난 상태를 의미한다. 일정거리 앞에 벽이 나타나면 왼쪽으로 벽을 따라 갈 것인지 오른쪽으로 벽을 따라갈 것인지에 대한 결정에 따라 회전한다. 회전 방향에 따라 모드가 분기되는데 오른쪽으로 회전할 경우 왼쪽에 벽이 남게 되므로 4번 혹은 2번 모드로 전이되고 왼쪽으로 회전할 경우는 오른쪽에 벽이 남게 되므로 5번 혹은 3번 모드로 전이된다.
2번과 3번 모드는 각각 좌측과 우측에 벽이 나타난 경우에 해당되며 측면에 설치되어 있는 거리센서를 이용하여 벽을 따라가는 알고리듬을 수행한다. 저가형 거리센서의 경우 잡음성분이 많고 외란이 자주 발생하기 때문에 정확한 벽과의 거리와 벽과 이루는 각도를 추정하기 위하여 엔코더와 자이로 정보를 추가하여 칼만 필터링을 수행한다. 이후에 추정된 벽과 일정한 거리를 유지하며 주행하기 위하여 구해진 제어이득을 이용하여 제어를 수행한다. 2번 혹은 3번 모드는 'ㄱ'자형 벽이 나타날 경우 각각 4번 혹은 5번 모드로 전이되거나 벽이 갑자기 사라질 경우 벽 모서리를 바깥쪽으로 따라 도는 6번 혹은 7번 모드로 전이될 수 있다.
6번과 7번 모드는 바깥쪽으로 벽이 꺾여있는 경우를 의미한다. 이 경우 잠시 모든 방향에 장애물이 없는 것처럼 나타나지만 벽을 따라가도록 회전을 시켜 일정한 각도 이상 회전되면 벽이 측면에 다시 감지된다. 장애물이 없는 구간이 모드 0과 중복되기 때문에 이전에 벽을 따라가던 때에서 일정 시간이 지나기 전까지는 모드 6 혹은 모드 7을 유지하고 시간이 초과하면 모드 0으로 전이된다.
도 7에 보였듯이, 벽 추종의 메인 알고리즘은 측면의 벽과 평행하면서도 일정거리를 유지하면서 전진하는 알고리듬이다. 일반적으로 거리센서는 잡음이 발생하므로 엔코더 및 자이로 정보와 통합하여 새로운 거리 정보를 추출 할 수 있도록 칼만 필터(Kalman filter)를 사용한다. 칼만 필터는 기본적으로 모델에 의해 위치를 추정하는 예측과정과 센서 값을 통하여 추정된 값을 보정하는 업 데이트 과정으로 구성된다. 예측과정에서는 시스템 식별을 통하여 구현한 모델을 사용하여 주어 진 입력에 대하여 예상되는 출력을 추정한다. 업 데이트 과정에서는 엔코더, 자이로 및 거리 센서값을 사용하여 추정된 위치값을 보정하게 된다.
좀더 자세히 살펴보면, 로봇의 동역학 모델의 이산 상태 공간 방정식(불연속 시간과 공간에서의 방정식)은 다음의 식 [1]로 표현할 수 있다.
Figure 112008036118719-pat00001
식 [1]
여기서
Figure 112008036118719-pat00002
는 상태변수이고 이 상태값의 추정치는
Figure 112008036118719-pat00003
이다.
Figure 112008036118719-pat00004
는 센서를 통해 획득한 측정치이다.
Figure 112008036118719-pat00005
는 모델의 가우시안 노이즈이고
Figure 112008036118719-pat00006
는 센서의 가우시안 노이즈를 의미한다.
칼만 필터는 모델 오차와 센서의 오차가 존재할 경우 이들 정보들을 결합하여 확률적으로 최소한의 오차를 가지는 추정치를 생성한다. 칼만 필터는 두 단계로 구성되는데 모델정보를 이용하여 다음 단계의 값을 예측하는 예측 과정과 센서를 이용하여 예측치를 보정하는 추정치 업 데이트 과정이 있다.
<예측과정>
Figure 112008036118719-pat00007
식 [2]
예측과정은 위의 식 [2]와 같이 이전 과정의 예측치에서 모델 행렬을 통하여 다음 과정의 상태를 예측한다. 여기서 P는 추정치와 실제값의 오차의 공분산으로 예측과정에서는 확산하는 경향을 가진다.
<칼만 게인 계산>
Figure 112008036118719-pat00008
식 [3]
<추정치 업 데이트>
Figure 112008036118719-pat00009
식 [4]
예측과정 추정치는 센서측정치를 통하여 업 데이트를 수행한다. 칼만 게인은 모델 예측값과 센서값을 최적 비율로 조합할 수 있도록 하며 이 경우 공분산 P는 수렴하게 된다.
벽 추종 모드에서는 다음과 같은 상태변수를 통하여 칼만 필터 알고리듬을 구현한다. 추정하려는 상태변수는
Figure 112008036118719-pat00010
로서 그림과 같이 벽을 x축으로 생각하고 벽과의 거리 y와 속도 v, 벽과 진행방향이 이루는 각 θ을 추정하고 추정된 각과 거리를 이용하여 제어하여 벽 추종 제어를 수행한다. 여기에서 사용되는 센서는 엔코더센서, 자이로센서, 거리센서 등 3개의 센서를 사용하게 된다. 따라서, 측정변수는
Figure 112008036118719-pat00011
와 같다. 각각 엔코더 좌측값, 엔코더 우측값, 각도 변화량, 벽과의 거리로 구성된다. 상태변수는 바퀴의 위치나 방향 조종 방식에 따라 다르게 설정될 수 있으나 시스템 식을 약간씩 변경하면 위의 상태변수 형태로 변형시킬 수 있다.
또한, 도 4에서 벽면별로 벽과의 거리와 각도를 수집하는 과정(110)을 살펴보면, 로봇의 자기 위치 인식은 미리 획득되어진 방의 직선정보를 이미 획득되었다는 가정 하에 수행된다. 방의 모양을 알고 있지만 방 내부에서 어느 위치에 있는지를 알지 못하는 것이다. 벽 추종 제어의 2번 혹은 3번 모드를 수행하게 되면 칼만 필터를 통하여 얻은 벽과의 거리와 벽과 평행을 이루는 각도는 일정한 값으로 수렴하게 된다. 거리와 각에 대한 공분산 값이 미리 설정된 한계값보다 적어지면 그 시간을 기점으로 벽에 대한 로봇과의 거리정보와 각도정보를 수집한다. 칼만 필터를 수행하기 위해서는 추정치 공분산 초기 값과 센서의 잡음 값을 설정한다. 공분산 초기값은 다른 모드에서 2번, 3번의 벽 추종 모드에 전이되는 순간 설정되며 이때 추정되는 벽과의 거리 정확도나 추정되는 벽과의 각도 정확도 값을 설정해 준다. 설정 값은 어떤 모드에서 전이되는가에 따라 다른데 예를 들면 4번 5번 모드에서 벽 추종 모드로 전이된다면 정면 벽과의 거리를 초기값으로 생각할 수 있다. 칼만 필터를 통하여 벽과의 상대거리와 각도가 새롭게 상태변수로 추출되면 벽과의 거리 및 각도추정치를 통하여 제어루틴을 수행한다. 본 발명에서는 선형이차안정기(Linear Quadratic Regulator ; LQR)를 적용하고 제어 이득을 얻는다.
또한, 도 4에서 실내벽면을 이루는 직선정보를 획득하는 과정(120)을 살펴보면, 벽에 대한 정보(거리와 각도)를 수집하는 순간에 도 8에 도시된 바와 같이, 당시 측정하고 있는 현재 위치, 거리(d) 및 각도(θ) 정보를 측정하여 같이 기록하면, 관성좌표계 내에서 직선의 방정식을 구할 수 있다. 벽 추종 제어를 계속 수행하여 방을 한 바퀴 돌게 되면 각각의 벽을 이루는 여러 개의 직선 방정식을 수집할 수 있게 된다.
이하에서는 도 4에서 실내벽면을 이루는 직선정보들을 이용하여 각각의 특징점을 추출하는 과정(130) 및 추출된 특징점과 실내지도상의 특징점을 매칭하는 과정(140)을 설명한다.
도 9는 로봇이 방을 한 바퀴 돌았을 경우에 획득된 직선을 도시하고 있다. 직선은 관성좌표계(상대좌표계)(Gyro x, Gyro y) 기준의 방정식을 가지고 있으므로 정확하게 방을 기준으로 하는 글로벌좌표계(절대좌표계)(Room x, Room y)에 대하여 어떠한 위치에 배치되어 있는지는 알지 못한다. 따라서, 실내도면으로 제공된 방 기준 좌표계의 벽의 직선성분과 관성좌표계에서 획득한 직선성분을 일치시키기 위한 변환 식을 얻어야 한다.
도 10에 도시된 바와 같이, 본 발명에서는 실내도면에서 실내벽면을 이루는 직선들의 교점을 특징점(1' 내지 9')으로 미리 저장해두고, 벽 추종 제어를 통해 획득한 실내벽면을 이루는 직선정보를 얻게 되면 직선 2개가 만나는 교점을 특징점(1 내지 9)으로 각각 추출하여 이 특징점들을 회전 병진시켜 상호간에 매칭시킴으로써 로봇의 실제 실내위치를 파악할 수 있다. 이때, 실내도면을 통하여 획득되는 글로벌 좌표상의 직선은 이상적인 직선식을 가지고 있어서 서로 평행한 직선끼리는 만나지 않게 되지만 관성좌표계에서 벽 추종 제어를 통하여 획득한 직선에서는 약간의 기울기 오차가 존재하여 평행한 직선끼리도 만나게 된다. 따라서 교각이 한계값(일예로, 10도)보다 작게 되면 평행하다고 가정하여 이들 직선의 교점은 특징점에서 제외한다.
각각의 대응점을 획득하는 방법으로 ICP(Iterated Closest Point)대응 방법을 통하여 대응점을 획득한다. ICP 방법은 가장 가까운 거리에 있는 점끼리 대응시키고 최소좌승법을 통하여 거리의 최소값을 가지도록 변환관계를 찾아내는 알고리듬이다. 이 알고리듬은 다음과 같이 구성된다.
첫째, 각각 가장 가까운 점끼리 1:1 대응을 시킨다.
둘째, 각각의 대응점들이 이루는 거리의 제곱의 합이 최소가 되도록 최소좌승법을 이용하여 회전 병진변환값을 찾는다. 회전 병진 변환을 T라고 하고, ai를 관성좌표계의 i번째 점성분이라고 하고, bi는 글로벌좌표계의 i번째 점성분이라고 한다면, 변환된 글로벌 좌표계 성분과 관성좌표계의 각각의 대응점의 거리의 합인 E는 다음의 식 [5]와 같이 나타낼 수 있다.
Figure 112008036118719-pat00012
식 [5]
E를 최소화 하는 변환
Figure 112008036118719-pat00013
,
Figure 112008036118719-pat00014
,
Figure 112008036118719-pat00015
는 다음의 식 [6] 내지 [11]과 같다.
Figure 112008036118719-pat00016
식 [6]
Figure 112008036118719-pat00017
식 [7]
Figure 112008036118719-pat00018
식 [8]
Figure 112008036118719-pat00019
식 [9]
Figure 112008036118719-pat00020
식 [10]
Figure 112008036118719-pat00021
식 [11]
셋째, 1,2의 방법을 반복적으로 수행하여 E값이 거의 변하지 않으면 종료한다.
이러한 ICP 알고리즘은 재귀적으로 대응과 평형이동을 반복하면 최종적으로 모든 점들 간의 거리의 합을 국소 최소값으로 수렴시킬 수 있다는 것이 증명되어 있다. 이를 통하여 대응점들이 가장 잘 포개지는 각도와 거리의 차이를 구하게 되면 관성좌표계를 기반으로 한 로컬 좌표계와 방의 이상적 좌표계를 정확하게 매칭시키는 변환을 구할 수 있다. 관성좌표계상의 로봇의 위치를 획득한 변환을 통하여 방 기준 좌표계로 전환하면 방에서의 위치를 구할 수 있게 된다.
ICP 알고리즘을 통하여 회전병진 변환
Figure 112008036118719-pat00022
,
Figure 112008036118719-pat00023
,
Figure 112008036118719-pat00024
의 값만 추출하면 글로벌좌표계에 대한 관성좌표계의 위치를 알 수 있다. 로봇의 현재 위치는 다음의 식 [12]과 [12]을 통하여 알 수 있게 된다.
Figure 112008036118719-pat00025
식 [12]
Figure 112008036118719-pat00026
식 [13]
여기서 gl은 글로벌 좌표 변수를 의미하고 inertia는 관성 좌표 변수를 의미한다.
로봇의 위치를 획득하면 계속적으로 벽과의 거리를 탐지하여 관성항법으로 누적되는 오차를 보상할 수 있다. 로봇이 벽 추종 제어하는 있는 벽이 설계 도면상에 어떤 위치에 해당하는지를 알 수 있기 때문에 벽과 로봇이 이루는 각을 통하여 자세를 보상할 수 있고 벽과의 거리를 통하여 위치를 보상할 수 있게 된다.
도 1은 본 발명의 실시예에 따른 로봇의 구성을 보인 사시도이다.
도 2는 도 1에 도시된 로봇의 내부 구성을 도시한 것이다.
도 3은 본 발명의 실시예에 따른 로봇의 제어블록도이다.
도 4는 본 발명의 실시예에 따른 로봇의 위치 추정방법에 대한 제어흐름도이다.
도 5는 본 발명의 실시예에 따른 로봇의 벽 추종제어시의 모드 변환과정을 보인 도면이다.
도 6은 본 발명의 실시예에 따른 로봇의 벽 추종제어시의 모드 변환조건을 보인 도면이다.
도 7은 본 발명의 실시예에 따른 로봇이 벽을 추종하며 주행하는 상태를 설명하기 위한 도면이다.
도 8은 본 발명의 실시예에 따른 로봇의 벽 추종 제어에 대한 개념을 설명하기 위한 도면이다.
도 9는 본 발명의 실시예에 따른 로봇이 방을 한 바퀴 돌았을 경우에 획득된 직선을 보인 도면이다.
도 10은 본 발명의 실시예에 따른 로봇에서 ICP 대응을 통한 좌표계 매칭을 설명하기 위한 도면이다.
*도면의 주요 기능에 대한 부호의 설명*
20 : 상태량감지부 21 : 전방센서
22 : 측방센서 23 : 엔코더센서
24 : 자이로센서 30 : 제어부
40 : 저장부 50 : 구동부

Claims (24)

  1. 로봇이 이동할 공간의 절대좌표정보를 획득하는 단계;
    상기 로봇을 상기 공간으로 이동시키면서 상기 공간의 상대좌표정보를 획득하는 단계;
    상기 절대좌표정보와 상대좌표정보를 비교하여 좌표 변환정보를 구하는 단계;
    상기 좌표 변환정보를 이용하여 상기 로봇의 상대좌표상의 위치를 절대좌표상의 위치로 변환하여 인식하는 로봇의 위치 추정방법.
  2. 제1항에 있어서,
    상기 상대좌표정보 획득단계는, 상기 공간에서 상기 로봇의 벽면 추종 제어시 상기 로봇의 운동에 따라 변화하는 상태량을 감지하는 단계와, 상기 감지된 상태량을 칼만 필터의 입력으로 하여 상기 공간의 상대좌표정보를 획득하는 단계를 포함하는 로봇의 위치 추정방법.
  3. 제1항에 있어서,
    상기 좌표 변환정보를 구하는 단계는, 상기 절대좌표정보와 상대좌표정보를 ICP 대응방법에 의해 회전 병진시켜 매칭하는 단계와, 상기 매칭결과에 기초하여 상기 좌표 변환정보를 연산하는 단계를 포함하는 로봇의 위치 추정방법.
  4. 로봇이 벽면을 추종하도록 주행시키는 단계;
    상기 로봇의 벽면 추종 제어시 벽면을 이루는 직선정보를 획득하는 단계;
    상기 획득된 직선정보와 미리 저장된 지도상의 직선정보를 매칭하는 단계;
    상기 매칭결과를 근거로 하여 상기 로봇의 실내위치를 추정하는 단계를 포함하는 로봇의 위치 추정방법.
  5. 제4항에 있어서,
    상기 획득단계는, 상기 로봇의 벽면 추종 제어시 상기 로봇의 운동에 따라 변화하는 상태량을 감지하는 단계와, 상기 감지된 상태량을 칼만 필터의 입력으로 하여 주행하는 벽면의 직선정보를 획득하는 단계를 포함하는 로봇의 위치 추정방법.
  6. 제5항에 있어서,
    상기 획득단계는, 상기 칼만 필터의 공분산 오차가 미리 설정된 값보다 적을 때 주행하는 벽면과의 거리 및 각도를 수집하는 단계와, 상기 수집된 거리와 각도에 기초하여 주행하는 벽면의 직선정보를 획득하는 단계를 포함하는 로봇의 위치 추정방법.
  7. 제4항에 있어서,
    상기 매칭단계는, 상기 획득된 직선정보를 이용하여 직선들의 상대좌표상의 교점을 구하는 단계와, 획득된 교점과, 상기 미리 저장된 지도상의 직선정보에 따른 직선들의 절대좌표상의 교점을 ICP 대응방법에 의해 회전 병진시켜 매칭시키는 단계를 포함하는 로봇의 위치 추정방법.
  8. 제7항에 있어서,
    상기 교점을 구하는 단계는, 상기 획득된 직선정보에 기초하여 직선 간에 각도가 미리 설정된 각도보다 직선간의 교점을 구하는 것을 포함하는 로봇의 위치 추정방법.
  9. 제4항에 있어서,
    상기 매칭단계는, 상기 로봇의 상대좌표를 절대좌표로 변환하기 위한 좌표 변환정보를 획득하는 단계를 포함하는 로봇의 위치 추정방법.
  10. 제9항에 있어서,
    상기 추정단계는, 상기 획득된 좌표 변환정보를 이용하여 상기 로봇의 상대좌표상의 위치를 상기 로봇의 절대좌표상의 위치로 변환하여 추정하는 것을 포함하는 로봇의 위치 추정방법.
  11. 로봇이 벽면을 추종하도록 주행시키는 단계;
    상기 로봇의 벽면 추종 제어시 상기 로봇의 상태량을 감지하는 단계;
    상기 감지된 상태량에 기초하여 벽면을 이루는 직선정보를 획득하는 단계;
    상기 획득된 직선정보로부터 특징점을 추출하는 단계;
    상기 추출된 특징점과 미리 저장된 지도상의 특징점을 매칭하는 단계;
    상기 매칭결과를 근거로 하여 상기 로봇의 실내위치를 추정하는 단계를 포함하는 로봇의 위치 추정방법.
  12. 제11항에 있어서,
    상기 획득단계는, 상기 감지된 상태량을 칼만 필터의 입력으로 하여 상기 칼만 필터의 공분산 오차가 미리 설정된 값보다 적을 때 주행하는 벽면과의 거리 및 각도를 수집하는 단계와, 상기 수집된 거리와 각도에 기초하여 주행하는 벽면의 직선정보를 획득하는 단계를 포함하는 로봇의 위치 추정방법.
  13. 제11항에 있어서,
    상기 추출단계는, 상기 획득된 직선정보를 이용하여 직선간에 각도가 미리 설정된 각도보다 큰 직선간의 교점을 특징점으로 추출하는 것을 포함하는 로봇의 위치 추정방법.
  14. 제11항에 있어서,
    상기 매칭단계는, 상기 추출된 특징점과 미리 저장된 지도상의 특징점을 ICP 대응방법에 의해 회전 병진시켜 매칭하는 것을 포함하는 로봇의 위치 추정방법.
  15. 제11항에 있어서,
    상기 추정단계는, 상기 매칭결과에 기초하여 로봇의 상대좌표를 절대좌표로 변환하기 위한 좌표 변환정보를 획득하는 단계와, 상기 획득된 좌표 변환정보를 이용하여 상기 로봇의 상대좌표상의 위치를 상기 로봇의 절대좌표상의 위치로 변환하여 추정하는 단계를 포함하는 로봇의 위치 추정방법.
  16. 삭제
  17. 삭제
  18. 지도상의 벽면을 이루는 직선정보를 저장하는 저장부;
    벽면을 따라 주행하는 로봇의 상태량을 감지하는 상태량감지부; 및
    상기 감지된 상태량에 기초하여 벽면을 이루는 직선정보를 획득하고, 획득된직선정보와 상기 저장된 직선정보를 매칭하여 상기 로봇의 실내위치를 추정하는 제어부를 포함하되,
    상기 제어부는 상기 감지된 상태량을 칼만 필터의 입력으로 하여 주행하는 벽면의 직선정보를 획득하는 것을 포함하는 로봇의 위치 추정장치.
  19. 제18항에 있어서,
    상기 제어부는 상기 칼만 필터의 공분산 오차가 미리 설정된 값보다 적을 때 주행하는 벽면과의 거리 및 각도를 수집하고, 수집된 거리와 각도에 기초하여 주행하는 벽면의 직선정보를 획득하는 것을 포함하는 로봇의 위치 추정장치.
  20. 지도상의 벽면을 이루는 직선정보를 저장하는 저장부;
    벽면을 따라 주행하는 로봇의 상태량을 감지하는 상태량감지부; 및
    상기 감지된 상태량에 기초하여 벽면을 이루는 직선정보를 획득하고, 획득된직선정보와 상기 저장된 직선정보를 매칭하여 상기 로봇의 실내위치를 추정하는 제어부를 포함하되,
    상기 저장부에는 지도상의 벽면을 이루는 직선정보들의 절대좌표상의 교점이 저장되어 있고, 상기 제어부는 획득된 벽면을 이루는 직선정보들의 상대좌표상의 교점을 획득하고, 상기 획득된 교점들과 상기 저장된 교점을 ICP 대응방법에 의해 회전 병진시켜 매칭시키는 것을 포함하는 로봇의 위치 추정장치.
  21. 제20항에 있어서,
    상기 제어부는 상기 획득된 벽면을 이루는 직선정보에 기초하여 직선 간에 각도가 미리 설정된 각도보다 큰 직선간의 교점을 획득하는 것을 포함하는 로봇의 위치 추정장치.
  22. 지도상의 벽면을 이루는 직선정보를 저장하는 저장부;
    벽면을 따라 주행하는 로봇의 상태량을 감지하는 상태량감지부; 및
    상기 감지된 상태량에 기초하여 벽면을 이루는 직선정보를 획득하고, 획득된직선정보와 상기 저장된 직선정보를 매칭하여 상기 로봇의 실내위치를 추정하는 제어부를 포함하되,
    상기 제어부는 상기 매칭에 의해 상기 로봇의 상대좌표를 절대좌표로 변환하기 위한 좌표 변환정보를 획득하는 것을 포함하는 로봇의 위치 추정장치.
  23. 지도상의 벽면을 이루는 직선정보를 저장하는 저장부;
    벽면을 따라 주행하는 로봇의 상태량을 감지하는 상태량감지부; 및
    상기 감지된 상태량에 기초하여 벽면을 이루는 직선정보를 획득하고, 획득된직선정보와 상기 저장된 직선정보를 매칭하여 상기 로봇의 실내위치를 추정하는 제어부를 포함하되,
    상기 제어부는 상기 좌표 변환정보를 이용하여 상기 로봇의 상대좌표상의 위치를 절대좌표상의 위치로 변환하여 추정하는 것을 포함하는 로봇의 위치 추정장치.
  24. 벽면을 따라 주행하는 로봇의 상태량을 감지하는 상태량감지부와,
    상기 감지된 상태량을 입력으로 하는 칼만 필터를 이용하여 상기 로봇의 다음 위치를 예측하고, 예측 결과를 보정하고, 벽면을 이루는 직선 정보로부터 추출된 특징점과 미리 저장된 지도상의 특징점을 매칭하여 상기 로봇의 실내위치를 추정하는 제어부를 포함하는 로봇의 위치 추정장치.
KR20080047207A 2008-05-21 2008-05-21 로봇의 위치 추정 장치 및 그 방법 KR101457148B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR20080047207A KR101457148B1 (ko) 2008-05-21 2008-05-21 로봇의 위치 추정 장치 및 그 방법
US12/379,433 US8315737B2 (en) 2008-05-21 2009-02-20 Apparatus for locating moving robot and method for the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20080047207A KR101457148B1 (ko) 2008-05-21 2008-05-21 로봇의 위치 추정 장치 및 그 방법

Publications (2)

Publication Number Publication Date
KR20090121092A KR20090121092A (ko) 2009-11-25
KR101457148B1 true KR101457148B1 (ko) 2014-10-31

Family

ID=41342677

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20080047207A KR101457148B1 (ko) 2008-05-21 2008-05-21 로봇의 위치 추정 장치 및 그 방법

Country Status (2)

Country Link
US (1) US8315737B2 (ko)
KR (1) KR101457148B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021112402A1 (ko) * 2019-12-06 2021-06-10 엘지전자 주식회사 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101457148B1 (ko) * 2008-05-21 2014-10-31 삼성전자 주식회사 로봇의 위치 추정 장치 및 그 방법
JP5321913B2 (ja) * 2009-12-07 2013-10-23 株式会社ダイフク 物品保管設備
US20120195491A1 (en) * 2010-07-21 2012-08-02 Palo Alto Research Center Incorporated System And Method For Real-Time Mapping Of An Indoor Environment Using Mobile Robots With Limited Sensing
KR20120072124A (ko) * 2010-12-23 2012-07-03 한국전자통신연구원 실내 전자지도 데이터 생성 방법
FR2977023B1 (fr) * 2011-06-24 2014-02-21 Univ Angers Generation de donnees de carte
KR101566207B1 (ko) 2011-06-28 2015-11-13 삼성전자 주식회사 로봇 청소기 및 그 제어방법
KR20130047278A (ko) * 2011-10-31 2013-05-08 주식회사 아이리버 로봇의 이동 방법 및 장치
US9395189B2 (en) 2012-06-21 2016-07-19 Qualcomm Incorporated Indoor structure inference using points of interest
KR102020215B1 (ko) * 2013-03-23 2019-09-10 삼성전자주식회사 로봇 청소기 및 로봇 청소기의 제어방법
KR101697857B1 (ko) 2015-04-08 2017-01-18 엘지전자 주식회사 이동 로봇 및 그의 위치인식방법
CN105157697B (zh) * 2015-07-31 2017-05-17 天津大学 基于光电扫描的室内移动机器人位姿测量系统及测量方法
EP3144765B1 (en) * 2015-09-18 2020-01-08 Samsung Electronics Co., Ltd. Apparatus for localizing cleaning robot, cleaning robot, and controlling method of cleaning robot
CN106527424B (zh) * 2016-09-20 2023-06-09 深圳银星智能集团股份有限公司 移动机器人及移动机器人的导航方法
KR20180070062A (ko) 2016-12-16 2018-06-26 삼성전자주식회사 이동체 및 이동체의 제어 방법
TW201833701A (zh) * 2017-03-14 2018-09-16 聯潤科技股份有限公司 自走式清潔裝置及其建立室內地圖之方法
TW201832710A (zh) * 2017-03-14 2018-09-16 聯潤科技股份有限公司 自走式清潔裝置分區清潔方法及使用該方法的自走式清潔裝置
KR102260529B1 (ko) 2017-04-11 2021-06-03 아미크로 세미컨덕터 씨오., 엘티디. 지도 예측에 기반한 로봇 운동 제어 방법
CN110286674B (zh) * 2017-04-24 2022-08-16 广州科语机器人有限公司 移动机器人在工作区域内的角度修正方法及移动机器人
CN107389125B (zh) * 2017-07-07 2020-04-21 中国有色金属长沙勘察设计研究院有限公司 一种地下空间自主定位多传感器智能探测机器人
CN109085834B (zh) * 2018-08-27 2019-09-03 珠海市一微半导体有限公司 机器人确定参考边的方法和机器人筛选参考墙边的方法
CN108937742A (zh) * 2018-09-06 2018-12-07 苏州领贝智能科技有限公司 一种扫地机的陀螺仪角度修正方法和扫地机
CN111080703B (zh) * 2019-12-31 2022-05-27 芜湖哈特机器人产业技术研究院有限公司 基于直线匹配的移动机器人重定位方法
KR102469072B1 (ko) * 2021-11-26 2022-11-22 (주)텔레컨스 이동체의 컨트롤 장치와 이를 이용한 자율이동체의 구역 설정 방법 및 그 방법이 적용된 자율이동체

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004318721A (ja) * 2003-04-18 2004-11-11 Toshiba Tec Corp 自律走行車
KR100500839B1 (ko) 2002-11-05 2005-07-12 삼성광주전자 주식회사 벽추종기능을 갖는 로봇청소기 및 벽추종방법
JP2008052669A (ja) * 2006-08-28 2008-03-06 Matsushita Electric Works Ltd 自律移動装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0168189B1 (ko) 1995-12-01 1999-02-01 김광호 로보트의 환경인식장치 및 그 제어방법
JP3945279B2 (ja) * 2002-03-15 2007-07-18 ソニー株式会社 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置
US20060064202A1 (en) * 2002-08-26 2006-03-23 Sony Corporation Environment identification device, environment identification method, and robot device
SE527498C2 (sv) * 2003-05-27 2006-03-21 Stockholmsmaessan Ab Robotsystem och förfarande för behandling av en yta
DE102004027292A1 (de) * 2004-06-04 2005-12-29 Siemens Ag Vefahren zur Bestimmung von Positionsdaten
WO2007012198A1 (en) * 2005-07-26 2007-02-01 Macdonald, Dettwiler & Associates Inc. Guidance, navigation, and control system for a vehicle
US7668621B2 (en) * 2006-07-05 2010-02-23 The United States Of America As Represented By The United States Department Of Energy Robotic guarded motion system and method
US8271132B2 (en) * 2008-03-13 2012-09-18 Battelle Energy Alliance, Llc System and method for seamless task-directed autonomy for robots
US8884763B2 (en) * 2006-10-02 2014-11-11 iRobert Corporation Threat detection sensor suite
JP4999734B2 (ja) * 2008-03-07 2012-08-15 株式会社日立製作所 環境地図生成装置、方法及びプログラム
US8452450B2 (en) * 2008-04-24 2013-05-28 Evolution Robotics, Inc. Application of localization, positioning and navigation systems for robotic enabled mobile products
KR101457148B1 (ko) * 2008-05-21 2014-10-31 삼성전자 주식회사 로봇의 위치 추정 장치 및 그 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100500839B1 (ko) 2002-11-05 2005-07-12 삼성광주전자 주식회사 벽추종기능을 갖는 로봇청소기 및 벽추종방법
JP2004318721A (ja) * 2003-04-18 2004-11-11 Toshiba Tec Corp 自律走行車
JP2008052669A (ja) * 2006-08-28 2008-03-06 Matsushita Electric Works Ltd 自律移動装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021112402A1 (ko) * 2019-12-06 2021-06-10 엘지전자 주식회사 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법
KR20210071568A (ko) * 2019-12-06 2021-06-16 엘지전자 주식회사 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법
KR102385611B1 (ko) * 2019-12-06 2022-04-12 엘지전자 주식회사 이동 로봇 시스템 및 이동 로봇 시스템의 경계 정보 생성 방법

Also Published As

Publication number Publication date
US8315737B2 (en) 2012-11-20
KR20090121092A (ko) 2009-11-25
US20090292394A1 (en) 2009-11-26

Similar Documents

Publication Publication Date Title
KR101457148B1 (ko) 로봇의 위치 추정 장치 및 그 방법
US11960304B2 (en) Localization and mapping using physical features
AU2016213846B2 (en) Carpet drift estimation using differential sensors or visual measurements
US10006772B2 (en) Map production method, mobile robot, and map production system
KR101372482B1 (ko) 이동 로봇의 경로 계획 방법 및 장치
KR101503903B1 (ko) 이동 로봇의 지도 구성 장치 및 방법
US7053580B2 (en) Autonomous machine
KR101782057B1 (ko) 지도 생성 장치 및 방법
WO2020082552A1 (zh) 一种机器人运动地毯偏移的控制方法、芯片及清洁机器人
CN107357297A (zh) 一种扫地机器人导航系统及其导航方法
KR20100092807A (ko) 이동 로봇 및 이동 로봇의 이동 방법
Maeyama et al. Positioning by tree detection sensor and dead reckoning for outdoor navigation of a mobile robot
US20230157506A1 (en) Trajectory-based localization and mapping
Hoang et al. Multi-sensor perceptual system for mobile robot and sensor fusion-based localization
Lee et al. A reliable position estimation method of the service robot by map matching
RU2740229C1 (ru) Способ локализации и построения навигационных карт мобильного сервисного робота
Sohn et al. An efficient localization algorithm based on vector matching for mobile robots using laser range finders
Hu et al. Landmark-based navigation of mobile robots in manufacturing
KR101956569B1 (ko) 이동 로봇 및 이의 제어 방법
Castro et al. Obstacle avoidance in local navigation
Chiang et al. Multisensor-based outdoor tour guide robot NTU-I
Röfer Building consistent laser scan maps
JP4204538B2 (ja) 移動制御装置および移動制御方法
Forsberg et al. An autonomous plastering robot for walls and ceilings
Chavez-Romero et al. Camera space particle filter for the robust and precise indoor localization of a wheelchair

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170919

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180917

Year of fee payment: 5