KR101619365B1 - 로봇의 slam 장치 및 방법 - Google Patents

로봇의 slam 장치 및 방법 Download PDF

Info

Publication number
KR101619365B1
KR101619365B1 KR1020090005058A KR20090005058A KR101619365B1 KR 101619365 B1 KR101619365 B1 KR 101619365B1 KR 1020090005058 A KR1020090005058 A KR 1020090005058A KR 20090005058 A KR20090005058 A KR 20090005058A KR 101619365 B1 KR101619365 B1 KR 101619365B1
Authority
KR
South Korea
Prior art keywords
feature information
coordinate system
dimensional position
robot
registered
Prior art date
Application number
KR1020090005058A
Other languages
English (en)
Other versions
KR20100040234A (ko
Inventor
최기완
이형기
박지영
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US12/458,786 priority Critical patent/US8855819B2/en
Publication of KR20100040234A publication Critical patent/KR20100040234A/ko
Application granted granted Critical
Publication of KR101619365B1 publication Critical patent/KR101619365B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J5/00Manipulators mounted on wheels or on carriages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

로봇의 위치 인식을 위한 SLAM 기술이 개시된다. 본 발명의 일 양상에 의하면, 주변으로부터 영상을 취득하고 영상에서 특징 정보를 추출하여 추출된 특징 정보와 등록된 특징 정보를 매칭하여 로봇의 위치 및 특징 정보의 위치를 추정하는 것이 가능하다. 또한, 관측 갱신(measurement update)을 카메라 좌표계에서 수행하고, 좌표 변환 시 적절한 가정을 부가함으로써 비선형 성분을 줄이고 SLAM의 성능을 향상시키는 것이 가능하다.
SLAM(simultaneous localization and mapping), 관측 갱신(measurement update), 좌표 변환, 비선형 성분, 확장 칼만 필터(extended Kalman filter)

Description

로봇의 SLAM 장치 및 방법{Apparatus and method for simultaneous localization and mapping of robot}
로봇의 위치 인식을 위한 SLAM 기술과 관련된다. 특히, SLAM의 관측 갱신(measurement update) 기술과 관련된다.
로봇이란 사람의 모습을 한 인형 내부에 기계장치를 조립해 넣고, 손발과 그 밖의 부분을 본래의 사람과 마찬가지로 동작하도록 만든 자동인형을 말한다. 그러나 최근에는 사람의 모습 여부를 떠나서 자율적으로 어떠한 임무를 수행하는 자동 장치를 통칭하게 되었다.
특히 이동 로봇의 경우 극한 환경 또는 위험 지역에서 사람을 대신하여 작업을 수행할 수 있기 때문에 많은 각광을 받고 있다. 또한 청소 로봇과 같이 자율적으로 집안을 돌아다니면서 가사 업무를 도와주는 가정용 이동 로봇도 다수 보급되었다.
이동 로봇이 자율적으로 이동하면서 임무를 수행하기 위해서는 자기 위치 인식 기술이 필수적이며, 대표적인 위치 인식 기술로는 SLAM(simultaneous localization and mapping) 기법이 있다. SLAM은 로봇이 주변 환경 정보를 검출하 고 얻어진 정보를 가공하여 임무 수행 공간에 대응되는 지도를 작성함과 동시에 자신의 절대 위치를 추정하는 방법을 말한다.
주변의 환경 정보는 각종 센서를 통해 취득되는데 센서 정보에는 오차가 있게 마련이므로 센서 정보에 기초하여 계산된 값이 보다 신뢰할 수 있는 값으로 수렴되도록 반복적 자료 처리(recursive data processing)가 SLAM에 수반된다. 예컨대, SLAM에 있어서는 관측 갱신(measurement update)을 통해 로봇의 위치 또는 취득된 정보의 오차를 줄여나가게 된다.
관측 갱신은 측정된 값과 이전 단계에서 계산된 값을 비교하고 이를 통해 계산 값을 갱신하는 과정을 통해 이루어진다. 이때, 측정된 값과 계산된 값의 비교는 2차원 공간 상에서 수행되는 것이 통상적이다. 따라서, 3차원 공간 상의 좌표 정보로 이루어지는 로봇의 위치 및 주변 환경 정보를 2차원 공간 상의 값으로 변환하는 과정이 수반된다. 그러나, 이러한 변환 과정에서 비선형 성분이 다수 포함되기 때문에 연산 속도가 가중되고 SLAM의 성능이 저하되는 문제점이 있다.
본 명세서에서는, 관측 갱신을 3차원 좌표계에서 수행함으로써 SLAM의 성능을 향상시키는 기술이 개시된다.
보다 구체적으로, 본 발명의 일 양상에 따른 로봇의 SLAM 장치는, 관측된 특징 정보의 2차원 위치를 3차원 위치로 변환하는 변환부; 및 관측된 특징 정보의 3차원 위치와 등록된 특징 정보의 3차원 위치를 비교하여 등록된 특징 정보를 갱신하는 갱신부; 를 포함할 수 있다.
그리고, 본 발명의 일 양상에 따른 로봇의 SLAM 방법은, 관측된 특징 정보의 2차원 위치를 3차원 위치로 변환하는 단계; 및 관측된 특징 정보의 3차원 위치와 등록된 특징 정보의 3차원 위치를 비교하여 등록된 특징 정보를 갱신하는 단계; 를 포함할 수 있다.
또한, 본 발명의 일 양상에 따라, 변환은 영상 좌표계를 카메라 좌표계로 변환하는 좌표 변환이 될 수 있다. 예를 들어, 영상 좌표계 상의 2차원 위치를 카메라 좌표계 상의 3차원 위치로 변환하는 것이 가능하다.
또한, 본 발명의 일 양상에 따라, 관측 갱신은 카메라 좌표계 상에서 수행되는 것이 가능하다.
또한, 본 발명의 일 양상에 따라, 특징 정보는 특징 점 또는 특징 선이 될 수 있다.
특징 정보로써 특징 점을 사용하는 경우, 좌표 변환 시 깊이(depth)를 임의의 값으로 설정하고 깊이(depth) 방향의 에러 공분산은 무한대로 설정하는 것이 가능하다.
특징 정보로써 특징 선을 사용하는 경우, 특징 선 상의 각 점의 깊이(depth)를 임의의 값으로 설정하고 깊이(depth) 방향의 에러 공분산 및 특징 선에 평행한 방향의 에러 공분산은 무한대로 설정하는 것이 가능하다.
개시된 내용에 의하면, 카메라 좌표계에서 관측 갱신이 이루어지기 때문에 좌표 변환 과정에서 포함되는 비선형 성분을 줄일 수가 있고, 줄어든 비선형 성분으로 인해 SLAM의 안정성 및 정확도를 증가시킬 수 있다. 또한, 특징 정보로써 특징 선을 사용하는 것도 가능하기 때문에 장애물 감지 성능을 향상 시키는 것이 가능하다.
이하, 첨부된 도면을 참조하여 본 발명의 실시를 위한 구체적인 예를 상세히 설명한다. 후술되는 실시예들은 본 발명을 예시적으로 설명하기 위한 것으로 본 발명의 권리범위가 특정 실시예에 한정되지 아니한다.
도 1은 본 발명의 일 실시예에 따른 로봇의 SLAM 장치(100)를 도시한다.
도 1을 참조하면, SLAM 장치(100)는 카메라부(101), 특징 정보 추출부(102), 주행부(103), 상대 위치 추정부(104), 절대 위치 추정부(105), 맵 저장부(106) 등으로 구성될 수 있다.
카메라부(101)는 피사체로부터 반사되는 빛을 검출하고 이를 디지털 신호로 변환 및 처리하여 주변의 영상을 획득한다. 이를 위해, 카메라부(101)에는 CCD(charge coupled device) 또는 CMOS(complementary metal oxide semiconductor) 이미지 센서와, 이미지 센서의 출력을 수신하여 2D 이미지를 생성하는 영상처리모듈 등이 구비될 수 있다. 따라서, 로봇은 작업 공간을 이동하면서 주변의 영상을 획득하는 것이 가능하다.
특징 정보 추출부(102)는 카메라부(101)로부터 획득된 영상에서 특징 정보를 추출한다. 이때, 추출되는 특징 정보로는 특징 점 또는 특징 선이 될 수 있다. 예컨대, 특징 정보 추출부(102)는 Harris corner detection 기법을 사용하여 특정한 "점"을 추출하거나, Canny edgy detection 기법을 사용하여 특정한 "선"을 추출하는 것이 가능하다. 특징 선을 추출하는 경우, 추출된 선 중에서 곡선은 제거하고 직선의 양 끝점만 추출하는 것도 가능하다.
주행부(103)는 로봇의 동력을 제공하는 부분으로 바퀴, 방향 제어 장치, 구동모터 등으로 구성될 수 있다.
상대 위치 추정부(104)는 주행부(103)의 출력 신호를 수신하여 로봇의 이전 위치와 현재 위치 사이의 위치 변화 및 방향 변화를 계산한다. 예컨대, 상대 위치 추정부(104)는 주행부(103)의 바퀴 회전을 감지하여 로봇이 움직인 거리를 측정하고 이것을 적분하여 현재 이동 로봇의 위치를 추정하는 것이 가능하다. 이를 위해, 상대 위치 추정부(104)에는 엔코더, 자이로 센서, 가속도 센서, 연산모듈 등이 구비될 수 있다.
절대 위치 추정부(105)는 로봇의 상대 위치 및 특징 정보를 이용하여 로봇의 절대 위치를 계산한다. 전역 좌표계(world coordinate) 상에서 로봇과 특징 정보 간의 관계를 알면 로봇의 절대 위치가 파악되므로, 절대 위치의 계산이란 전역 좌표계에서 로봇의 위치와 특징 정보의 위치를 구하는 과정이 될 수 있다.
예를 들어, 절대 위치 추정부(105)는 현재 위치에서 획득된 영상의 특징 정보와 이전 위치에서 획득된 영상의 특징 정보를 매칭하고, 관측 갱신(measurement update)을 통해 로봇 및 특징 정보의 절대 위치를 계산하는 것이 가능하다. 참고로, 이전 위치에서 획득된 영상의 특징 정보는 기준 특징 정보로써 등록되어 맵 저장부(106)에 저장된 상태일 수가 있다.
여기서 매칭이란 현재 위치에서 새로이 얻어진 영상에서 과거에 저장된 특징 정보가 있는지 찾는 과정이 될 수 있다. 매칭이 성공하지 아니하면, 획득된 영상의 특징 정보를 새로운 기준 특징 정보로 등록하는 것이 가능하다. 그리고, 매칭이 성공하면 관측 갱신을 통해 로봇의 위치 및 특징 정보의 위치를 갱신하는 것이 가능하다. 센싱 정보에는 에러 성분이 포함되어 있는 것이 통상적이므로, 이러한 관측 갱신을 통해 이전에 계산된 값이 보다 신뢰할 수 있는 값으로 수렴되도록 하는 것이다.
절대 위치 추정부(105)의 정보 처리 과정은 여러 가지 알고리즘이 사용될 수 있는데, 본 실시예에서는 확장 칼만 필터 기반의 동시적 위치 추적 및 지도 작성(simultaneous localization and mapping, SLAM) 기법이 이용될 수 있다.
도 2는 본 발명의 일 실시예에 따른 관측 갱신부(200)를 도시한다. 이것은 절대 위치 추정부(105)의 관측 갱신과 관련된 구성의 일 예가 될 수 있다. 본 실시예에서, 관측 갱신부(200)는 관측된 특징 정보와 저장된 특징 정보를 이용하여 특징 정보를 갱신하게 되는데, 이러한 갱신 과정은 3차원 좌표계(예컨대, 카메라 좌표계) 상에서 수행되는 것이 가능하다.
구체적으로, 도 2에서, 관측 갱신부(200)는 변환부(201) 및 갱신부(202)를 포함할 수 있다.
변환부(201)는 관측된 특징 정보의 2차원 위치를 3차원 위치로 변환한다.
관측된 특징 정보는 특징 정보 추출부(102)에서 추출된 영상의 특징 점 또는 특징 선이 될 수 있다. 2차원 위치는 특징 점 또는 특징 선에 대한 영상 좌표계(image coordinate) 상의 2차원 좌표값이 될 수 있다. 3차원 위치는 카메라부(101)의 좌표계 상의 3차원 좌표값이 될 수 있다. 즉, 변환부(201)는 좌표 변환을 통해 영상 좌표계 상의 2차원 위치를 카메라 좌표계 상의 3차원 위치로 변환하는 것이 가능하다.
그리고, 변환부(201)가 좌표 변환을 수행할 때, 깊이(depth)를 임의의 값으로 설정하고 깊이(depth) 방향의 에러 공분산은 무한대로 설정하는 것이 가능하다. 또한, 특징 정보가 특징 선인 경우, 특징 선에 평행한 방향의 에러 공분산도 무한대로 설정하는 것이 가능하다. 여기서 깊이(depth)라 함은 2차원 영상에 수직한 방향, 즉 카메라부(101)의 영상 촬영 방향을 의미할 수 있다.
갱신부(202)는 관측된 특징 정보의 변환된 3차원 위치와 등록된 특징 정보의 3차원 위치를 비교하여 등록된 특징 정보를 갱신한다. 여기서 등록된 특징 정보는 이전 단계에서 추출 및 갱신되어 맵 저장부(106)에 저장되어 있는 특징 정보가 될 수 있다. 갱신부(202)의 갱신 알고리즘은 EKF update equation과 같은 다양한 기법이 이용될 수 있다. 또한, 갱신 알고리즘은 카메라부(101)의 카메라 좌표계(camera coordinate) 상에서 수행되는 것이 가능하다.
도 3을 참조하여, 관측 갱신이 이루어지는 좌표계를 더욱 구체적으로 설명한다.
도 3에서, 301은 전역 좌표계, 302는 카메라 좌표계, 303은 영상 좌표계를 나타낸다. 전역 좌표계(301)와 카메라 좌표계(302)는 3차원 공간을 표현하고, 영상 좌표계(303)는 2차원 공간을 표현한다. 그리고, 304는 등록된 특징 정보, 즉 갱신 대상이 되는 특징 정보, 305는 관측된 특징 정보를 나타낸다. 등록된 특징 정보(304)는 전역 좌표계 상에서의 위치를, 관측된 특징 정보(305)는 영상 좌표계 상에서의 위치가 될 수 있다.
관측 갱신을 위해서는 등록된 특징 정보(304)와 관측된 특징 정보(305)를 같은 좌표계에 놓고 비교 및 연산을 수행하여야 하므로, 변환부(201)는 관측된 특징 정보(305)를 카메라 좌표계(302) 상에 대응되는 값으로 변환한다.
그리고, 갱신부(202)는 등록된 특징 정보(304)와 관측된 특징 정보(305)를 카메라 좌표계(302) 상에서 비교 및 연산하여 원래 저장되어 있는 특징 정보(즉, 305)를 갱신한다. 따라서, 갱신부(202)는 전역 좌표계(301) 상의 특징 정보를 카메라 좌표계(302) 상의 특징 정보로 변환하는 과정을 추가로 수행하는 것이 가능하다. 그러나, 이것은 3차원 정보를 3차원 정보로 변환하는 것이므로 변환부(201)의 변환에 비해 간단하게 이루어질 수가 있다.
이와 같이, 카메라 좌표계(302) 상에서 관측 갱신을 수행하면, 3차원 정보를 2차원 정보로 변환하지 않기 때문에 좌표 변환 시 포함되는 비선형 성분을 줄일 수가 있다.
도 4 및 도 5를 참조하여, 변환부(201)의 변환 과정을 더욱 구체적으로 설명한다. 도 4는 특징 정보로써 특징 점이 사용된 경우에 대한 일 예가 될 수 있고, 도 5는 특징 정보로써 특징 선이 사용된 경우에 대한 일 예가 될 수 있다.
도 4에서, 401은 카메라부(101)로부터 획득된 영상을, P는 획득된 영상에서 추출된 특징 점을 나타낸다. 그리고 점 P의 위치는 영상 좌표계 상의 좌표값인 (u,v)와 같이 나타낼 수 있다.
변환부(201)는 점 P의 2차원 위치, 즉 P:(u,v)를 3차원 위치인 Pc:(x,y,z)c로 변환한다. 여기서 첨자 c는 카메라 좌표계를 의미한다. 이때 영상에 수직한 방향의 위치 정보, 즉 깊이(depth, d)는 알 수가 없으므로, c t 방향 벡터의 크기는 임의의 값으로 설정한다.
특징 점의 위치는 확률적인 위치이므로 각 위치에서 에러 공분산(error-covariance)를 갖게 되는데, c t 방향 성분의 에러 공분산은 매우 큰 값을 가질 것이다. 도 4에서는, 이것을 영상에 수직한 방향의 장반경을 갖는 타원(402)으로 표시하였다. 그리고 이때의 에러 공분산, 즉 깊이 방향의 에러 공분산은 무한대로 설정되는 것이 가능하다.
그리고, 도 5와 같이, 어떠한 점 두 개를 서로 이으면 선이 되므로 특징 선의 위치를 추출된 선의 양 끝점에 대한 위치로 나타내는 것이 가능하다.
특징 선의 2차원 위치를 3차원 위치로 변환하는 것 역시 도 4에서 설명한 것과 유사하다. 즉, 각 점(예컨대, P 또는 P`)에 대한 영상 좌표계의 2차원 위치를 카메라 좌표계의 3차원 위치로 좌표 변환을 수행하고, 이때 깊이(d)의 크기를 임의로 설정하고 깊이 방향의 에러 공분산을 무한대로 설정한다.
이때, 직선에 평행한 방향, 즉 c lt 방향 성분에 대한 에러 공분산 역시 무한대로 설정하는 것이 가능하다. 특징 선은 직선 위에 존재하는 서로 다른 두점으로 표현되며, 이 두 점은 직선의 양 끝점인 것이 이상적이지만 양 끝점이 아니더라도 직선에 평행한 방향의 에러 공분산을 무한대로 설정하면 임의의 서로 다른 두점 만으로도 관측 갱신을 수행할 수 있다.
다음으로, 도 6을 참조하여, 본 발명의 일 실시예에 따른 로봇의 SLAM 방법을 설명한다.
먼저, 로봇이 작업 공간을 이동하는 동안 주변을 촬영하여 영상을 획득한다(S101). 예컨대, 카메라부(101)를 이용하여 주변의 영상을 획득하는 것이 가능하다.
이어서, 로봇의 상대 위치를 계산한다(S102). 예컨대, 상대 위치 추정부(104)를 통해 이전 위치와 현재 위치 간의 변화 및 로봇의 방향 변화를 산출하는 것이 가능하다.
이어서, 영상에서 특징 정보를 추출한다(S103). 예컨대, 특징 정보 추출부(102)가 영상에서 코너와 같은 특징 점 또는 에지와 같은 특징 선을 검출하는 것이 가능하다.
이어서, 추출된 특징 정보와 등록된 특징 정보를 매칭한다(S104). 예컨대, 절대 위치 추정부(105)가 추출된 특징 정보와 등록된 특징 정보를 비교하는 것이 가능하다. 이때, 매칭이 이루어지지 아니하면, 추출된 특징 정보를 새로운 특징 정보로 등록하거나 다시 새로운 영상을 얻어 특징 정보를 추출하는 것이 가능하다.
매칭이 이루어지면, 관측 갱신을 수행한다(S105). 관측 갱신은 절대 위치 추정부(105)가 등록된 특징 정보를 갱신하여 로봇 및 특징 정보의 절대 위치를 계산하는 과정이 될 수 있다.
이어서, 특징 정보 중에서 충돌 가능한 특징 정보를 장애물로 등록한다(S106).
도 7을 참조하여, 관측 갱신 과정(S105)을 보다 구체적으로 설명하면 다음과 같다.
먼저, 추출된 특징 정보의 2차원 위치를 3차원 위치로 변환한다(S201). 예컨대, 변환부(201)가 영상 좌표계 상의 2차원 좌표값을 카메라 좌표계 상의 3차원 좌표값으로 변환하는 것이 가능하다.
변환 시 부족한 정보는 적절한 가정을 통해 보충될 수 있음은 전술한 바와 같다. 예컨대, 깊이 정보는 임의의 값으로 설정되고 깊이 방향의 에러 공분산은 무한대로 설정되는 것이 가능하다. 또한, 특징 정보가 특징 선인 경우 특징 선에 평 행한 방향의 에러 공분산도 무한대로 설정될 수가 있다.
이어서, 변환된 3차원 좌표계 상에서 관측 갱신을 수행한다(S202). 예컨대, 갱신부(202)가 카메라 좌표계 상에서 추출된 특징 정보와 등록된 특징 정보를 비교하여 등록된 특징 정보를 갱신하는 것이 가능하다.
이상에서 상세히 설명한 것과 같이, 개시된 내용에 의하면 SLAM의 관측 갱신 과정이 3차원 좌표계에서 이루어지기 때문에 계산 과정에서 포함되는 비선형 성분을 줄일 수 있고 SLAM 성능을 향상시킬 수 있다.
도 1은 본 발명의 일 실시예에 따른 로봇의 SLAM 장치를 도시한다.
도 2는 본 발명의 일 실시예에 따른 로봇의 SLAM 장치 중에서 관측 갱신부를 도시한다.
도 3은 본 발명의 일 실시예에 따른 좌표계를 도시한다.
도 4는 본 발명의 일 실시예에 따른 좌표 변환 과정을 도시한다.
도 5는 본 발명의 다른 실시예에 따른 좌표 변환 과정을 도시한다.
도 6은 본 발명의 일 실시예에 따른 로봇의 SLAM 방법을 도시한다.
도 7은 본 발명의 일 실시예에 따른 관측 갱신 방법을 도시한다.

Claims (14)

  1. 제1좌표계 상의 관측된 특징 정보의 2차원 위치를 제2좌표계 상의 3차원 위치로 변환하는 변환부; 및
    제3좌표계 상의 등록된 특징 정보를 제2좌표계 상의 등록된 특징 정보로 변환하고, 관측된 특징 정보의 제2좌표계 상의 3차원 위치와 제2좌표계 상의 등록된 특징 정보의 3차원 위치를 비교하여 제3좌표계 상의 등록된 특징 정보를 갱신하는 갱신부; 를 포함하는 로봇의 SLAM 장치.
  2. 제 1 항에 있어서,
    상기 변환부는 상기 관측된 특징 정보의 2차원 위치를 상기 특징 정보를 획득하기 위한 카메라의 좌표계 상의 3차원 위치로 변환하는 로봇의 SLAM 장치.
  3. 제 1 항에 있어서,
    상기 갱신부는 상기 특징 정보를 획득하기 위한 카메라의 좌표계 상에서 상기 특징 정보의 갱신을 수행하는 로봇의 SLAM 장치.
  4. 제 1 항에 있어서,
    상기 특징 정보는 특징 점인 로봇의 SLAM 장치.
  5. 제 1 항 또는 제 4 항에 있어서,
    상기 변환부는 상기 2차원 위치를 상기 3차원 위치로 변환할 때, 깊이(depth)를 임의의 값으로 설정하고 상기 깊이(depth) 방향의 에러 공분산은 무한 대로 설정하여 상기 변환을 수행하는 로봇의 SLAM 장치.
  6. 제 1 항에 있어서,
    상기 특징 정보는 특징 선이며,
    상기 특징선의 위치는 상기 특징 선의 양 끝점의 2차원 위치인 것으로 정의되는 로봇의 SLAM 장치.
  7. 제 6 항에 있어서,
    상기 변환부는 상기 2차원 위치를 상기 3차원 위치로 변환할 때, 각 점의 깊이(depth)를 임의의 값으로 설정하고 상기 깊이(depth) 방향의 에러 공분산 및 상기 특징 선에 평행한 방향의 에러 공분산은 무한대로 설정하여 상기 변환을 수행하는 로봇의 SLAM 장치.
  8. 제1좌표계 상의 관측된 특징 정보의 2차원 위치를 제2좌표계 상의 3차원 위치로 변환하는 단계; 및
    제3좌표계 상의 등록된 특징 정보를 제2좌표계 상의 등록된 특징 정보로 변환하고, 관측된 특징 정보의 제2좌표계 상의 3차원 위치와 제2좌표계 상의 등록된 특징 정보의 3차원 위치를 비교하여 제3좌표계 상의 등록된 특징 정보를 갱신하는 단계; 를 포함하는 로봇의 SLAM 방법.
  9. 제 8 항에 있어서,
    상기 관측된 특징 정보의 2차원 위치는 상기 특징 정보를 획득하기 위한 카메라의 좌표계 상의 3차원 위치로 변환되는 것을 특징으로 하는 로봇의 SLAM 방법.
  10. 제 8 항에 있어서,
    상기 특징 정보의 갱신은 상기 특징 정보를 획득하기 위한 카메라의 좌표계 상에서 수행되는 것을 특징으로 하는 로봇의 SLAM 방법.
  11. 제 8 항에 있어서,
    상기 특징 정보는 특징 점인 로봇의 SLAM 방법.
  12. 제 8 항 또는 제 11 항에 있어서,
    상기 변환하는 단계는, 상기 2차원 위치를 상기 3차원 위치로 변환할 때, 깊이(depth)를 임의의 값으로 설정하고 상기 깊이(depth) 방향의 에러 공분산은 무한대로 설정하는 로봇의 SLAM 방법.
  13. 제 8 항에 있어서,
    상기 특징 정보는 특징 선이며,
    상기 특징선의 위치는 상기 특징 선의 양 끝점의 2차원 위치인 것으로 정의되는 로봇의 SLAM 방법.
  14. 제 13 항에 있어서,
    상기 변환하는 단계는, 상기 2차원 위치를 상기 3차원 위치로 변환할 때, 각 점의 깊이(depth)를 임의의 값으로 설정하고 상기 깊이(depth) 방향의 에러 공분산 및 상기 특징 선에 평행한 방향의 에러 공분산은 무한대로 설정하는 로봇의 SLAM 방법.
KR1020090005058A 2008-10-09 2009-01-21 로봇의 slam 장치 및 방법 KR101619365B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/458,786 US8855819B2 (en) 2008-10-09 2009-07-22 Method and apparatus for simultaneous localization and mapping of robot

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020080099128 2008-10-09
KR20080099128 2008-10-09

Publications (2)

Publication Number Publication Date
KR20100040234A KR20100040234A (ko) 2010-04-19
KR101619365B1 true KR101619365B1 (ko) 2016-05-11

Family

ID=42216409

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090005058A KR101619365B1 (ko) 2008-10-09 2009-01-21 로봇의 slam 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101619365B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220152451A (ko) * 2021-05-07 2022-11-16 휴림로봇 주식회사 Slam 기반 이동로봇의 자연사물을 이용한 로봇의 위치추종 방법 및 장치, 컴퓨터 판독가능 기록 매체 및 컴퓨터 프로그램

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101435106B1 (ko) * 2012-11-26 2014-08-27 서울과학기술대학교 산학협력단 수중 로봇의 위치 추정 시스템
CN111283730B (zh) * 2020-03-03 2021-04-20 广州赛特智能科技有限公司 基于点线特征机器人初始位姿获取方法及开机自定位方法
CN112223281A (zh) * 2020-09-27 2021-01-15 深圳市优必选科技股份有限公司 机器人及其定位方法和装置
KR20230079670A (ko) 2021-11-29 2023-06-07 전진택 농업용 자율주행 로봇을 위한 경로 추종 장치 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100855469B1 (ko) * 2006-09-13 2008-09-01 삼성전자주식회사 이동 로봇의 자세 추정 장치 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100855469B1 (ko) * 2006-09-13 2008-09-01 삼성전자주식회사 이동 로봇의 자세 추정 장치 및 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220152451A (ko) * 2021-05-07 2022-11-16 휴림로봇 주식회사 Slam 기반 이동로봇의 자연사물을 이용한 로봇의 위치추종 방법 및 장치, 컴퓨터 판독가능 기록 매체 및 컴퓨터 프로그램
KR102521280B1 (ko) * 2021-05-07 2023-04-17 휴림네트웍스 주식회사 Slam 기반 이동로봇의 자연사물을 이용한 로봇의 위치추종 방법 및 장치, 컴퓨터 판독가능 기록 매체 및 컴퓨터 프로그램

Also Published As

Publication number Publication date
KR20100040234A (ko) 2010-04-19

Similar Documents

Publication Publication Date Title
US8855819B2 (en) Method and apparatus for simultaneous localization and mapping of robot
KR101553653B1 (ko) 로봇의 슬립 감지 장치 및 방법
KR101493075B1 (ko) 이동 로봇의 위치 인식 장치 및 방법
US9386209B2 (en) Method and apparatus for estimating position
Panahandeh et al. Vision-aided inertial navigation based on ground plane feature detection
CA2870381C (en) Adaptive mapping with spatial summaries of sensor data
US20110205338A1 (en) Apparatus for estimating position of mobile robot and method thereof
KR101913332B1 (ko) 이동 장치 및 이동 장치의 위치 인식 방법
KR101705601B1 (ko) 3차원 깊이정보기반 자율주행 로봇의 위치추정 장치 및 그 방법
KR100912874B1 (ko) 이동 로봇의 리로케이션 방법 및 장치
KR101439921B1 (ko) 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템
KR101658578B1 (ko) 복합 센서의 캘리브레이션 장치 및 방법
CN112097768A (zh) 机器人位姿的确定方法、装置、机器人及存储介质
KR20110020961A (ko) 모바일 플랫폼의 동적 물체 검출 및 추적 방법
KR101619365B1 (ko) 로봇의 slam 장치 및 방법
KR101697857B1 (ko) 이동 로봇 및 그의 위치인식방법
US11874666B2 (en) Self-location estimation method
KR101553656B1 (ko) 로봇의 리로케이션 장치 및 방법
KR101141601B1 (ko) 영상기반 자연표식물 지도 작성 장치
US20200310435A1 (en) Self-position estimation method
Jia et al. Robot localization in indoor environments using radio frequency identification technology and stereo vision
Zaman High precision relative localization using a single camera
Wang et al. Mobile robot pose estimation using laser scan matching based on fourier transform
Nguyen et al. Optimization of Transformation Matrix for 3D Cloud Mapping Using Sensor Fusion
Kim et al. Localization of mobile robots from full detection of ceiling outlines

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190422

Year of fee payment: 4