KR100809352B1 - 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치 - Google Patents

파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치 Download PDF

Info

Publication number
KR100809352B1
KR100809352B1 KR1020060113440A KR20060113440A KR100809352B1 KR 100809352 B1 KR100809352 B1 KR 100809352B1 KR 1020060113440 A KR1020060113440 A KR 1020060113440A KR 20060113440 A KR20060113440 A KR 20060113440A KR 100809352 B1 KR100809352 B1 KR 100809352B1
Authority
KR
South Korea
Prior art keywords
particle
mobile robot
pose
sensor
particle filter
Prior art date
Application number
KR1020060113440A
Other languages
English (en)
Inventor
명현
방석원
공동건
이수진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020060113440A priority Critical patent/KR100809352B1/ko
Priority to US11/898,779 priority patent/US8055382B2/en
Priority to JP2007295098A priority patent/JP5219467B2/ja
Priority to CN2007101702302A priority patent/CN101183266B/zh
Priority to EP07120844.1A priority patent/EP1923763B1/en
Application granted granted Critical
Publication of KR100809352B1 publication Critical patent/KR100809352B1/ko
Priority to US13/269,027 priority patent/US8630735B2/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Acoustics & Sound (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

본 발명의 일 실시예에 따른 파티클 필터 기반의 이동 로봇의 자세 추정 방법은 이동 로봇의 자세 변화량을 감지하여 이전 파티클에 감지된 자세 변화량을 적용하여 현재 파티클의 자세를 구하는 단계, 센서로부터 획득한 레인지 데이터(range data)와 맵 정보로부터 현재 파티클의 자세 확률 예측 및 가중치를 구하는 단계, 가중치를 기초로 현재 파티클을 리샘플링(resampling)하는 단계 및 센서의 오차를 고려하여 가중치를 조정하는 단계를 포함한다.
슬램(SLAM), 파티클 필터(Particle filter), Map consistency, hill climbing

Description

파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치{Method and apparatus of pose estimation in a mobile robot based on particle filter}
도 1은 본 발명의 일 실시예에 따른 파티클 필터 기반의 이동 로봇의 자세 추정 방법을 보여주는 흐름도이다.
도 2는 절대 좌표계를 기준으로 스텝의 크기가 동일한 종래의 힐 클라이밍(hill climbing) 방법(a)과 로봇의 방향각에 따른 상대 좌표계를 기준으로 스텝의 크기가 다른 수정된 힐 클라이밍 방법(b)의 좌표축을 도시한 도면이다.
도 3은 도 2의 (a), (b) 방법에 따라 각 파티클에 대하여 힐 클라이밍을 하는 모습을 보여주는 도면이다.
도 4는 주행계와 센서의 정확도 표준편차가 30:1인 경우(a)와 10:1인 경우(b)에 주행계와 센서에 의한 로봇의 자세 확률값을 보여주는 도면이다.
도 5는 주행계와 센서의 정확도 표준편차가 30:1인 경우(a)와 10:1인 경우(b)에, [식 3]에 의한 정확한 식에 의한 자세 확률값과 [식 4]에 의한 근사화한 식에 의한 자세 확률값의 일 예를 보여주며 정확한 식과 근사한 식의 오차 비(r(x))를 보여주는 도면이다.
도 6은 본 발명의 일 실시예에 따른 센서의 오차 특성에 따라 가중치를 재조정하는 함수를 나타내는 P(x)를 도시한 그래프이다.
도 7은 본 발명의 일 실시예에 따른 파티클 필터 기반의 이동 로봇의 자세 추정 장치의 블럭도이다.
<도면의 주요 부분에 대한 설명>
600: 주행계(odomery)
610: 파티클 자세 계산부
620: 센서
630: 파티클 필터부
640: 샘플링부
650: 가중치 조정부
660: 맵 생성부
본 발명은 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치로, 더욱 상세하게는 파티클 필터를 이용한 격자 기반(Grid-based) 슬램(SLAM; Simultaneous Localization And Map Building) 알고리즘에 센서의 오차를 반영하여 가중치를 조정하여 이동 로봇의 자세를 상대적으로 정확하게 추정하는 방법 및 장치에 관한 것이다.
최근에는 산업체에서 이용되는 산업용 로봇뿐만 아니라 일반 가정이나 사무실 등에서 가사일이나 사무 보조로서 로봇이 실용화되고 있다. 이에 해당하는 대표 적인 예로서 청소용 로봇, 안내 로봇, 방범 로봇 등을 들 수 있다.
이러한 로봇은 기본적으로 주어진 공간내에서 이동을 하면서 로봇 자신의 고유한 기능을 수행한다. 로봇이 주어진 환경속에서 주행과 기능 수행을 위해서는 주변 공간에 대한 맵의 작성과 로봇의 위치 및 방향각(Heading angle)에 대한 정보를 필요로 한다. 이러한 맵 작성과 함께 자신의 위치를 인식하는 방법으로 슬램(SLAM; Simultaneous Localization And Mapping) 알고리즘이 사용될 수 있다.
슬램 알고리즘은 어떤 위치에서 주변 환경의 맵(map)을 작성하고, 작성된 맵을 바탕으로 다시 움직인 로봇의 위치를 알아내는 반복을 통해 로봇의 위치와 주변 환경의 맵을 동시에 추정할 수 있다.
슬램 알고리즘에서는 로봇 자신의 위치를 추정하기 위해서 파티클 필터(Particle filter) 기법이 사용될 수 있다. 파티클 필터 기법이란 로봇의 위치 및 방향각에 대한 예측치를 가진 복수개의 샘플을 추출하고, 각 샘플이 실제 로봇의 위치 및 방향각일 확률을 이용하여 로봇의 최적의 자세를 추정하는 방법이다. 본 발명에서 언급하는 '자세(pose)'는 이동 로봇의 평면 상의 2차원 좌표계 위치(position) 및 방향각을 의미한다.
레인지 데이터(range data)를 이용한 격자 기반(Grid-based) 슬램에서는 특징점(Feature points)을 추출할 필요가 없이 모든 레인지 데이터를 이용하여 맵을 작성할 수 있다. 하지만, 종래에서 레인지 데이터를 얻기 위해서는 정확도가 우수한 거리 측정기(Range finder)(이하, 센서하고 함)를 사용하여야 양질의 맵을 얻을 수 있어 센서의 정확도에 크게 의존하는 문제가 있었다.
일반적으로 상용화되는 청소용 로봇, 방범 로봇 등과 같은 사무용 또는 가정용 로봇에 있어서는 저가이면서 센서의 정확도가 상대적으로 떨어지는 경우에도 맵 작성과 로봇의 위치를 정확하게 예측하는 것이 필요하다.
본 발명은 상기와 같은 문제점을 고려하여 안출된 것으로서, 맵 일관성(Map consistency) 검사를 통하여 파티클 필터에서 구한 파티클의 가중치를 조정함으로써 이동 로봇의 자세 추정을 정확도를 높이는 것을 목적으로 한다.
이와 함께, 로봇의 방향각에 따른 힐 클라이밍(Hill-climbing)을 함으로써 효율적으로 이동 로봇의 자세를 추정할 수 있는 것을 목적으로 한다.
본 발명의 목적들은 이상에서 언급한 목적들로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상술한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 파티클 필터 기반의 이동 로봇의 자세 추정 방법은 (a) 이동 로봇의 자세 변화량을 감지하여 이전 파티클에 상기 감지된 자세 변화량을 적용하여 현재 파티클의 자세를 구하는 단계; (b) 센서로부터 획득한 레인지 데이터(range data)와 맵 정보로부터 상기 현재 파티클의 자세 확률 예측 및 가중치를 구하는 단계; (c) 상기 가중치를 기초로 상기 현재 파티클을 리샘플링(resampling)하는 단계; 및 (d) 상기 센서의 오차를 고려하여 상기 가중치를 조정하는 단계를 포함한다.
상술한 목적을 달성하기 위하여 본 발명의 일 실시예에 따른 파티클 필터 기반의 이동 로봇의 자세 추정 장치는 이동 로봇의 자세 변화량을 감지하는 주행계(odometry); 이전 파티클에 상기 감지된 자세 변화량을 적용하여 현재 파티클의 자세를 구하는 파티클 자세 계산부; 레인지 데이터를 획득하는 센서; 상기 레인지 데이터(range data)와 맵 정보로부터 상기 현재 파티클의 자세 확률 예측 및 가중치를 구하는 파티클 필터부; 및 상기 센서의 오차를 고려하여 상기 가중치를 조정하는 가중치 조정부를 포함한다.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
이하, 본 발명의 바람직한 실시예에 대해 첨부된 도면을 참조하여 보다 상세히 설명한다.
도 1은 본 발명의 일 실시예에 따른 파티클 필터 기반의 이동 로봇의 자세 추정 방법을 보여주는 흐름도이다.
본 발명의 일 실시예에 따른 파티클 필터 기반의 이동 로봇의 자세 추정 방 법은 이동 로봇의 자세 변화량을 감지하여 이전 파티클에 감지된 자세 변화량을 적용하여 현재 파티클의 자세를 구하는 단계(S100), 힐 클라이밍(hill-climbing) 기법에 의해 파티클의 자세를 갱신하는 단계(S110), 센서(620)로부터 획득한 레인지 데이터와 맵 정보로부터 현재 파티클의 자세 확률 예측 및 가중치를 구하는 단계(S120), 가중치를 기초로 현재 파티클을 리샘플링하는 단계(S130) 및 센서(620)의 오차를 고려하여 가중치를 조정하는 단계(S140)를 포함한다.
본 발명의 일 실시예에 따른 파티클 필터 기반의 이동 로봇의 자세 추정 방법을 실시하기 위해 이동 로봇이 주행하면서 맵을 작성하고 있는 상황을 살펴 보기로 하자.
먼저, 이동 로봇이 출발하는 지점의 위치 및 이동 로봇이 향하는 방향인 방향각이 주어진다. 또는 이동 로봇이 출발하는 위치 및 출발시 방향각을 기준값으로 설정할 수 있다. '자세'는 이동 로봇의 2차원 평면 상에서의 위치 및 방향각을 의미하므로 이동 로봇의 자세를 추정한다는 것은 이동 로봇의 위치 및 방향각을 추정함을 의미한다.
주어진 출발점에서 이동 로봇이 소정의 거리를 이동할 수 있다. 로봇에 장착되어 있는 로봇의 이동량 및 회전각을 감지할 수 있는 주행계(odometry)(600)에 의해 이동 로봇이 움직임에 의한 자세 변화량을 감지할 수 있다. 주행계(600)의 예로서 엔코더 및 자이로를 들 수 있다. 예를 들어 엔코드에 의하여 움직인 거리 및 방향을 적분함으로써 현재 이동 로봇의 자세를 알 수 있다. 만일 적분 오차가 없다면 엔코더 만으로도 로봇의 자세 추정이 가능하겠지만, 엔코더는 짧은 구간에는 비교 적 정확하나 숫자를 계속 적분함으로써 오차가 누적되는 문제가 있다. 또한, 이동 로봇은 이동 중에 미끄러지거나 장애물을 만날 수 있으므로 엔코더 값에 의한 로봇의 위치와 실제 위치 사이에는 오차가 발생할 수 있다.
따라서 로봇의 자세를 보다 정확하게 추정하기 위하여 파티클 필터를 이용한 슬램 알고리즘을 이용한다.
샘플링부(640)는 최초에 N개의 파티클을 무작위로 샘플링한다. 이동 로봇의 초기 위치 근처에 N개의 임의의 지점 즉 다음식과 같이 N개의 파티클을 선택한다.
[식 1]
Figure 112006084002903-pat00001
여기서,
Figure 112006084002903-pat00002
Figure 112006084002903-pat00003
는 특정 인덱스 j의 파티클에 대하여 이동 로봇의 초기 위치 및 초기 가중치를 각각 나타낸다. 상기
Figure 112006084002903-pat00004
는 인덱스 j와 상관없이 모두 1/N으로 동일하게 설정할 수 있다. 가중치는 현재 파티클의 위치가 이동 로봇의 위치가 될 확률을 의미한다.
로봇의 소정의 거리를 이동한 때에는 소정의 시간이 경과되므로, 시간의 경과에 따른 파티클의 자세를 갱신할 수 있다.
파티클 자세 계산부(610)는 전술한 이동 로봇에 구비된 주행계(Odometry) (600)에 의해 감지된 자세 변화량을 파티클에 적용하여 파티클의 자세를 구한다(S100).
이때, 파티클 자세 계산부(610)는 파티클 확률의 정확도를 높이기 위해 힐 클라이밍 방식을 도입하여 각 파티클의 자세를 갱신할 수 있다(S110).
도 2는 절대 좌표계를 기준으로 스텝의 크기가 동일한 종래의 힐 클라이밍 방법(a)과 로봇의 방향각에 따른 상대 좌표계를 기준으로 스텝의 크기가 다른 수정된 힐 클라이밍 방법(b)의 좌표축을 도시한 도면이고, 도 3은 도 2의 (a), (b) 방법에 따라 각 파티클에 대하여 힐 클라이밍을 하는 모습을 보여주는 도면이다.
도 2(a)와 같이 종래의 힐 클라이밍 방식은 절대 좌표축을 기초로 4방향의 직선 이동에 의한 변화(Δx, -Δx, Δy, -Δy)와 2방향의 회전 이동에 의한 변화(Δθ, -Δθ)를 상기 구한 파티클의 자세에 각각 더하였다. 다시 말해서, 파티클이 지닌 로봇의 자세에 상기 6개의 변화를 각각 더하여서 파티클의 자세를 약간 변화시켜 로봇의 위치 확률이 증가되는 방향으로 로봇의 위치를 변화시키는 방식이다. 종래의 힐 클라이밍 방식은 G. Grisetti, C. Stachniss, and W. Burgard, Improving grid-based slam with Rao-Blackwellized particle filters by adaptive proposals and selective resampling," In Proc. of the IEEE Int. Conf. on Robotics & Automation (ICRA), pp.2443-2448, Barcelona, Spain, 2005 와 D. Hahnel, D. Schulz, and W. Burgard, "Map building with mobile robots in populated environments", In Proc. of the IEEE/RSJ Int. Conf. on Intelligent Robots and Systems(IROS), 2002에 상술되어 있으므로 자세한 설명은 생략하기로 한다. 그리고, 로봇 위치의 확률을 계산하는 과정은 후술하기로 한다.
본 발명에서 새롭게 제안하는 수정된 힐 클라이밍 방식은 로봇의 방향각을 주축으로 하여 각 파티클의 자세를 갱신할 수 있다. 따라서 도 2(b)에서와 같이 절대좌표계에 따른 힐 클라이밍이 아닌 로봇의 방향각에 따른 상대 좌표계인 x' 축과 그에 수직인 y' 축을 두 축으로 하여 힐 클라이밍을 수행한다.
이와 함께 힐 클라이밍 스텝 크기(Step size) (종래의 Δx, Δy에 해당)를 상수로 두지 않고 주행계(600) 모델의 오차 공분산 타원(Error covariance ellipse)에 따라서 적응적으로 변환하도록 할 수 있다. 이는 로봇의 이동 방향으로 주행계(600)의 오차가 더 크게 발생할 가능성이 높은 것을 반영한 것으로, 힐 클라이밍 수행 시간과 파티클의 위치 오차를 감소시킬 수 있다. 이는 아래의 [식 2]와 같이 정의될 수 있다.
[식 2]
Figure 112006084002903-pat00005
여기서 (x, y)는 절대 좌표계를 기준으로 하는 힐 클라이밍 방식의 축이며, (x', y')는 로봇의 방향각에 따른 상대 좌표계를 기준으로 하는 힐 클라이밍 방식의 축을 나타낸다.
도 3의 (a)와 (b)는 전술한 두 가지의 힐 클라이밍 방법에 의해 각 파티클(210)의 자세를 갱신하는 것을 보여주는 도면인데, 도 3(a)에서는 절대 좌표축을 기준으로 로봇(200)의 방향각과 무관하게 ±Δx, ±Δy, ±Δθ만큼 파티클(210)의 위치를 옮기면서 위치 확률이 증가되는 방향으로 위치를 옮겨간다. 반면에 도 3(b)에서는 로봇(200)의 이동 방향에 해당하는 방향각에 따른 상대 좌표축을 기준으로 ±Δx', ±Δy', ±Δθ파티클(210)의 위치를 옮기면서 힐 클라이밍 기법을 수행한다. 이때, 스텝의 간격은 로봇(200)의 진행 방향인 ±Δx'방향으로는 ±Δy'에 비하여 큼을 알 수 있다.
따라서 x축 이동(±Δx)과 y(±Δy)축 이동 및 회전 이동(±Δθ)(바람직하게는, 상대 좌표계에 따른 x'축 이동(±Δx')과 y'(±Δy')축 이동 및 회전 이동(±Δθ)의 6가지 경우에 대하여 힐 클라이밍을 적용하여 각각에 대하여 후술할 식 5에 의해 스코어(score)를 계산할 수 있다. 스코어는 힐 클라이밍에 의해 산출되는 가중치로서 힐 클라이밍이 종료된 후에 가장 스코어가 높은 값이 해당 파티클의 가중치가 되고, 스코어가 가장 높은 값의 위치 및 방향각이 해당 파티클의 자세가 된다.
상기의 힐 클라이밍은 수회에 걸쳐 수행될 수 있다. 다시 말해서, 6가지의 경우에 대하여 힐 클라이밍을 수행하여 가장 높은 스코어에 해당하는 값을 해당 파티클의 자세로 하고 또 다시 동일한 과정을 반복하여 가장 높은 스코어의 값을 찾는 시도를 한다. 그리하여 시도한 경우 중에서 가장 높은 스코어를 가진 값을 해당 파티클의 가중치로 갱신하고, 그때의 로봇의 위치 및 방향각이 해당 파티클의 자세로 갱신한다.
이동 로봇이 소정의 거리를 이동한 후 센서(620)에 의해 새로운 관찰 정보인 레인지 데이터(range data)를 얻고, 이러한 레인지 데이터와 기존의 맵 정보에 의해 파티클 필터부(630)는 파티클의 자세 확률을 예측하고 가중치를 계산할 수 있다(S120).
가중치는 파티클의 자세가 추정되는 이동 로봇의 현재 자세와 유사할수록 커지게 되며, 따라서 가중치가 높을수록 이동 로봇이 그러한 가중치를 가지는 파티클의 자세를 가질 가능성이 높다고 할 수 있다. 이와 함께, 관찰 정보는 이동 로봇에 구비된 주위 정보 특히 주변 장애물과의 거리를 인식할 수 있는 센서(620)에 의해 얻어질 수 있다. 이러한 센서(620)는 초음파 또는 적외선 센서(620)를 이용하거나 스트럭쳐 라이트(Structured light) 모듈(Module)을 이용하여 로봇의 주위의 장애물과의 거리를 감지할 수 있다.
파티클 필터를 이용하여 파티클의 자세 확률을 예측하고 가중치를 계산하는 방법에 대해 살펴보기로 한다.
이동 로봇의 위치를 확률 분포로서 나타낼 수 있고, 이와 같은 확률 분포(p)는 이전 스텝(시간 t-1)과 현재 스텝(시간 t)의 데이터를 이용하는 다음의 [식 3]에 의해 나타낼 수 있다.
[식 3]
Figure 112006084002903-pat00006
여기서, xt -1은 시간 t-1에서의 자세이고, ut는 시간 t(현재)에서의 주행계(600)에 의해 감지된 데이터이고, xt 는 시간 t에서의 자세이다. mt -1은 시간 t-1에서의 맵 상의 데이터이며, zt 는 시간 t에서의 센서(620)에 얻어진 데이터이다. 상기 확률 분포는 로봇이 동적 잡음이나 시스템에 존재하는 다른 불확실한 인자를 가진 채 xt -1에서 xt까지 움직였을 때, 시간 t에서의 로봇 자세에 대한 확률 분포를 의미한다.
종래의 Grid-based SLAM 알고리즘은 식 3을 근사화시켜 계산하였다. 센서(620)의 정확도가 주행계(600)에 비하여 매우 높은 경우에, 예를 들어 도 4(a)와 같이 주행계(600)와 센서(620)의 정확도의 표준편차 비가 30:1인 경우에는 관찰 영역(
Figure 112006084002903-pat00007
)에서는 센서(620)에 의한 로봇의 자세 확률값(
Figure 112006084002903-pat00008
)은 급격히 변하지만, 주행계(600)에 의한 로봇의 자세 확률값(
Figure 112006084002903-pat00009
)은 상수(Constant; k)로 근사화 될 수 있다. 따라서 식 3은 다음과 같이 [식 4]로 근사화 될 수 있다.
[식 4]
Figure 112006084002903-pat00010
현재 파티클의 가중치는 다음 [식 5]에 의해 근사화 시켜 계산할 수 있다.
[식 5]
Figure 112006084002903-pat00011
전술한 [식 3], [식 4], [식 5]에 의한 파티클의 자세를 예측하고 가중치를 구하는 과정은 G. Grisetti, C. Stachniss, and W. Burgard, "Improving grid-based slam with Rao-Blackwellized particle filters by adaptive proposals and selective resampling," In Proc. of the IEEE Int. Conf. on Robotics & Automation (ICRA), pp.2443-2448, Barcelona, Spain, 2005에 상술되어 있다.
파티클 필터부(630)가 전술한 [식 3], [식 4], [식 5]에 따라 파티클의 자세 확률을 예측하고 가중치를 계산한 후에 샘플링부(640)는 가중치를 기초로 현재 파티클을 리샘플링(resampling)한다(S130). 초기에 N개의 파티클을 가지고 출발하여 시간 카운트 t가 1 증가하였을때, 상기 N개의 파티클 중 가중치가 낮은 파티클을 탈락시키고, 가중치가 높은 파티클을 중심으로 샘플링하여 다시 N개의 파티클을 유지하도록 한다. 이를 리샘플링이라고 한다.
다음, 맵 평가(map estimation)를 통한 그리드맵(gridmap)을 갱신할 때에 가중치 조정부(650)에서는 센서(620)의 오차를 고려하여 가중치를 조정한다(S140).
본 발명의 일 실시예에서는 센서(620)의 정확도가 우수하지 아니하여 주행 계(600)에 의한 로봇의 자세 확률값(
Figure 112006084002903-pat00012
)을 상수로 적용하지 아니하고 가중치를 계산하는 방법을 제시한다. 즉, 전술한 방법으로 구한 가중치를 리샘플링한 후에 후술할 방법으로 조정을 한다.
센서(620)의 정확도가 우수하지 않는 경우에는 주행계(600)에 의한 자세 확률값을 상수로 근사화 할 수 없다. 즉, 도 4(b)와 같이 주행계(600)와 센서(620)의 정확도의 표준편차 비가 10:1인 경우에는 관찰 영역(
Figure 112006084002903-pat00013
)에서 주행계(600)에 의한 로봇의 자세 확률값(
Figure 112006084002903-pat00014
)은 상수(Constant; k)로 근사화 될 수 없다.
도 5는 주행계(600)와 센서(620)의 정확도 표준편차가 30:1인 경우(a)와 10:1인 경우(b)에 [식 3]에 의한 정확한 식에 의한 자세 확률값과 [식 4]에 의한 근사화한 식에 의한 자세 확률값을 보여주며 정확한 식과 근사한 식의 오차비(r(x))를 보여주는 도면이다.
30:1인 경우에는 주행계(600)에 의한 로봇의 자세 확률값을 상수로 하더라도 실제로 적분을 하는 구간인 로봇의 추정 위치 부근(도 5(a)의 A부분)에서는 거의 오차가 없어 오차 비 r(x)가 1에 가까운 것을 알 수 있다. 이와 대조적으로 10:1인 경우에는 센서(620)의 정확도가 상대적으로 높지 않아서 오차가 커지게 된다. 이는 도 5(b)에서 분포되는 오차 비 r(x)는 로봇 위치로 추정되는 영역(도 5(b)의 A영역)에서 상대적으로 크게 변화하는 것으로부터 알 수 있다.
따라서 도 5(b)에서 도시되는 오차 비 r(x)를 확률을 계산하는 데에 고려함 으로써 주행계(600)에 의한 로봇의 자세 확률값을 상수로 하지 않고 변화하는 양으로 계산할 수 있다.
오차비율 r(x)를 고려하면 다음과 같은 가중치 조정식을 얻을 수 있다.
[식 6]
Figure 112006084002903-pat00015
가중치 조정을 효율적으로 하기 위해 로그(log) 식으로 변환하면 다음 식 7과 같다.
[식 7]
Figure 112006084002903-pat00016
식 5를 로그 식으로 변환 후 식 7과 비교해 보면 식 7에서 R(x) 크기를 빼주는 것이 다르다. 이는 센서(620)의 오차가 비교적 큰 경우에 오차에 의해 생겨나는 양으로써 각 센서(620)의 오차 특성에 따라 그 형태와 크기가 달라질 수 있다.
이때, 식 7의 R(x)는 P(x)와 격자 셀 점유 확률 (Grid cell occupancy) cj의 곱으로 나타낼 수 있다. 아래의 식 8에 의하여 나타나는 P(x)의 형태는 센서(620)와 센서(620)로부터 감지된 영역을 잇는 선인 그리드선(gridline)을 따라 포물선 형태로 도 6에 도시된다. 식 8의 P(x)를 도시한 도 6의 그래프는 센서(620)에 따라서 그 형태와 값이 다양하게 바뀜은 물론이다.
[식 8]
Figure 112006084002903-pat00017
식 8에서 m은 센서(620)의 정확도에 따라 좌우되는 값이고, cj는 그리드 셀 점유 확률 값으로 0과 1 사이의 값이다. 또한, x는 각 파티클의 자세 상에서 가지고 있는 맵 상의 격자점(Grid point)까지의 거리이고, D는 현재 이동 로봇의 센서(620)에 의해 측정된 격자점까지의 거리이다. 따라서 현재 이동 로봇의 센서(620)에 의해 측정된 격자점 데이터가 옳고 각 파티클의 자세가 현재 이동 로봇의 실제 자세와 근접하다면 x와 D의 값에 차이가 거의 없이 결과적으로 P(x)와 R(x)의 값이 작아진다. 하지만 반대로 파티클에서 가진 자세가 현재 이동 로봇의 실제 자세와 유사하지 아니하면 x와 D 값에 차이가 크게 발생하여 P(x)와 R(x)의 값이 커진다. 이를 맵 일관성 검사(Map consistency check)라고 한다.
따라서 위와 같이 모든 파티클에 대하여 맵 일관성 검사에 의하여 R(x)를 검사하여 각 파티클의 가중치를 조정할 수 있다. 이러한 각 파티클에 대한 가중치 조정은 그리드맵을 갱신할 때 이루어지므로 추가적인 계산시간의 증가가 거의 없다.
로봇은 전술한 단계를 반복하면서 이동 중인 로봇의 자세를 추정할 수 있다.
도 7은 본 발명의 일 실시예에 따른 파티클 필터 기반의 이동 로봇의 자세 추정 장치의 블럭도이다.
본 발명의 일 실시예에 파티클 필터 기반의 따른 이동 로봇의 자세 추정 장치는 주행계(600), 파티클 자세 계산부(610), 센서(620), 파티클 필터부(630), 가중치 조정부(650), 샘플링부(640), 맴 생성부(660)를 포함할 수 있다.
이 때, 본 실시예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다.
주행계(600)는 이동 로봇의 자세 변화량을 감지하는 것으로, 주행계(600)의 일 예로 인코더 또는 자이로를 들 수 있다.
파티클 자세 계산부(610)는 주행계(600)에 의해 감지된 자세 변화량을 기초로 각 파티클의 자세를 구한다. 이때, 종래의 힐 클라이밍 기법 또는 로봇의 방향 각에 따라 좌표축의 방향과 스텝의 크기를 달리하는 힐 클라이밍 기법에 의해 파티클의 위치 확률이 증가되는 방향으로 파티클의 자세를 갱신함이 바람직하다.
센서(620)는 이동 로봇의 외부에 구비되어 관찰 정보 특히 주변 장애물과의 거리를 인식하여 레인지 데이터를 획득한다. 본 발명에 있어서는 비교적 센서(620)의 정확도가 떨어지는 스트럭쳐드 라이트(Structured light) 센서를 사용할 수 있다.
파티클 필터부(630)는 센서(620)로부터 획득한 레인지 데이터와 맵 정보로부터 현재 파티클의 자세 확률을 예측하고 가중치를 구한다.
가중치 조정부(650)는 센서(620)의 오차를 고려하여 가중치 계산부에서 구한 가중치를 조정한다. 이때, 현재 파티클 위치에서 맵 상의 거리와 센서(620)로부터 측정한 거리에 따라 센서(620)에 따라 미리 정의되는 오차 특성 값으로 가중치를 조정할 수 있다.
샘플링부(640)는 이동 로봇의 최초 위치를 바탕으로 파티클을 샘플링하고, 로봇이 이동한 후에 파티클 필터부(630)에서 구한 가중치를 기초로 파티클을 리샘플링한다. 이때, 리샘플링은 가중치가 낮은 파티클은 탈락시키고 가중치가 높은 파티클을 중심으로 샘플링을 수행할 수 있다.
맵 생성부(660)는 로봇이 이동하면서 센서(620)로부터 획득한 레인지 데이터를 기초로 맵을 생성하며 갱신한다.
이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적 인 특징을 벗어나지 않는 범위 내에서 여러 가지로 치환, 변형 및 변경이 가능하므로 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
상기한 바와 같은 본 발명의 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.
첫째, 비교적 정확도가 떨어지는 저가형 센서를 사용하여도 파티클 필터를 이용한 격자 기반(Grid-based) 슬램 알고리즘에 의해 정확도가 높게 이동 로봇의 자세를 추정할 수 있다는 장점이 있다.
둘째, 로봇의 방향각을 고려하여 힐 클라이밍 기법을 수행함으로써 계산시간과 위치오차를 감소시킬 수 있다는 장점도 있다.

Claims (20)

  1. (a) 이동 로봇의 자세(pose) 변화량을 감지하여 이전 파티클에 상기 감지된 자세 변화량을 적용하여 현재 파티클의 자세를 구하는 단계;
    (b) 센서로부터 획득한 레인지 데이터(range data)와 맵 정보로부터 상기 현재 파티클의 자세 확률 예측 및 가중치를 구하는 단계;
    (c) 상기 가중치를 기초로 상기 현재 파티클을 리샘플링(resampling)하는 단계; 및
    (d) 상기 센서의 오차를 고려하여 상기 가중치를 조정하는 단계를 포함하는 파티클 필터 기반의 이동 로봇의 자세 추정 방법.
  2. 제 1 항에 있어서,
    상기 (a) 단계에서,
    힐 클라이밍(hill climbing) 방법을 이용하여 위치 확률이 증가되는 방향으로 상기 현재 파티클의 자세를 갱신하는 단계를 더 포함하는 파티클 필터 기반의 이동 로봇의 자세 추정 방법.
  3. 제 1 항에 있어서,
    상기 (a) 단계에서,
    상기 이동 로봇의 방향각을 주축으로 하는 상대 좌표계를 기준으로 힐 클라 이밍 방법을 이용하여 위치 확률이 증가되는 방향으로 상기 현재 파티클의 자세를 갱신하는 단계를 더 포함하는 파티클 필터 기반의 이동 로봇의 자세 추정 방법.
  4. 제 3 항에 있어서,
    상기 힐 클라이밍 방법은 스텝 크기를 상기 로봇의 진행 방향에 대하여 커지도록 상기 자세 변화량을 감지하는 주행계(odometry) 모델의 오차 공분산 타원(error covariance ellipse)에 따라서 적응적으로 변하도록 하는 파티클 필터 기반의 이동 로봇의 자세 추정 방법.
  5. 제 1 항에 있어서,
    상기 (d) 단계에서,
    상기 가중치는 상기 현재 파티클의 위치에서 맵 상의 거리와 상기 센서에 의해 측정된 거리를 기초로 상기 센서에 따라 정의되는 오차 특성 값으로 조정되는 파티클 필터 기반의 이동 로봇의 자세 추정 방법.
  6. 제 1 항에 있어서,
    상기 자세 변화량은 엔코더 또는 자이로에 의해 감지되는 것을 포함하는 파티클 필터 기반의 이동 로봇의 자세 추정 방법.
  7. 제 1 항에 있어서,
    상기 자세는 평면 상의 2차원 좌표계의 각 좌표값 및 방향각을 포함하는 파티클 필터 기반의 이동 로봇의 자세 추정 방법.
  8. 제 1 항에 있어서,
    상기 센서는 스트럭쳐드 라이트(structured light) 센서를 포함하는 파티클 필터 기반의 이동 로봇의 자세 추정 방법.
  9. 제 1 항에 있어서,
    상기 리샘플링은 설정된 값을 기준으로 상기 가중치가 낮은 파티클은 탈락시키고, 상기 가중치가 높은 파티클을 중심으로 샘플링을 하는 파티클 필터 기반의 이동 로봇의 자세 추정 방법.
  10. 이동 로봇의 자세(pose) 변화량을 감지하는 주행계(odometry);
    이전 파티클에 상기 감지된 자세 변화량을 적용하여 현재 파티클의 자세를 구하는 파티클 자세 계산부;
    레인지 데이터를 획득하는 센서;
    상기 레인지 데이터(range data)와 맵 정보로부터 상기 현재 파티클의 자세 확률 예측 및 가중치를 구하는 파티클 필터부; 및
    상기 센서의 오차를 고려하여 상기 가중치를 조정하는 가중치 조정부를 포함하는 파티클 필터 기반의 이동 로봇의 자세 추정 장치.
  11. 제 10 항에 있어서,
    상기 파티클 자세 계산부는 힐 클라이밍(hill climbing) 방법을 이용하여 위치 확률이 증가되는 방향으로 상기 현재 파티클의 자세를 갱신하는 것을 더 포함하는 파티클 필터 기반의 이동 로봇의 자세 추정 장치.
  12. 제 10 항에 있어서,
    상기 파티클 자세 계산부는 상기 이동 로봇의 방향각을 주축으로 하는 상대 좌표계를 기준으로 힐 클라이밍 방법을 이용하여 위치 확률이 증가되는 방향으로 상기 현재 파티클의 자세를 갱신하는 것을 더 포함하는 파티클 필터 기반의 이동 로봇의 자세 추정 장치.
  13. 제 12 항에 있어서,
    상기 힐 클라이밍 방법은 스텝 크기를 상기 로봇의 진행 방향에 대하여 커지도록 상기 주행계(odometry) 모델의 오차 공분산 타원(error covariance ellipse)에 따라서 적응적으로 변하도록 하는 파티클 필터 기반의 이동 로봇의 자세 추정 장치.
  14. 제 10 항에 있어서,
    상기 센서는 스트럭쳐드 라이트(structured light) 센서를 포함하는 파티클 필터 기반의 이동 로봇의 자세 추정 장치.
  15. 제 10 항에 있어서,
    상기 가중치 조정부는 상기 현재 파티클의 위치에서 맵 상의 거리와 상기 센서에 의해 측정된 거리를 기초로 상기 센서에 따라 정의되는 오차 특성 값으로 상기 가중치를 조정하는 파티클 필터 기반의 이동 로봇의 자세 추정 장치.
  16. 제 10 항에 있어서,
    상기 주행계는 엔코더 또는 자이로를 포함하는 파티클 필터 기반의 이동 로봇의 자세 추정 장치.
  17. 제 10 항에 있어서,
    상기 자세는 평면 상의 2차원 좌표계의 각 좌표값 및 방향각을 포함하는 파티클 필터 기반의 이동 로봇의 자세 추정 장치.
  18. 제 10 항에 있어서,
    상기 레인지 데이터로부터 상기 맵을 생성하는 맵 생성부를 더 포함하는 파티클 필터 기반의 이동 로봇의 자세 추정 장치.
  19. 제 10 항에 있어서,
    상기 이동 로봇의 최초 위치를 바탕으로 상기 파티클을 샘플링하고, 상기 파티클 필터부에서 구한 가중치를 기초로 파티클을 리샘플링하는 샘플링부를 더 포함하는 파티클 필터 기반의 이동 로봇의 자세 추정 장치.
  20. 제 19 항에 있어서,
    상기 리샘플링은 설정된 값을 기준으로 상기 가중치가 낮은 파티클은 탈락시키고, 상기 가중치가 높은 파티클을 중심으로 샘플링을 하는 파티클 필터 기반의 이동 로봇의 자세 추정 장치.
KR1020060113440A 2006-11-16 2006-11-16 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치 KR100809352B1 (ko)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020060113440A KR100809352B1 (ko) 2006-11-16 2006-11-16 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치
US11/898,779 US8055382B2 (en) 2006-11-16 2007-09-14 Methods, apparatus, and medium for estimating pose of mobile robot using particle filter
JP2007295098A JP5219467B2 (ja) 2006-11-16 2007-11-14 パーティクルフィルター基盤の移動ロボットの姿勢推定方法、装置及び媒体
CN2007101702302A CN101183266B (zh) 2006-11-16 2007-11-15 使用粒子滤波器估算移动机器人姿态的方法和设备
EP07120844.1A EP1923763B1 (en) 2006-11-16 2007-11-16 Method, apparatus, and medium for estimating pose of mobile robot using particle filter
US13/269,027 US8630735B2 (en) 2006-11-16 2011-10-07 Method, apparatus, and medium for estimating pose of mobile robot using particle filter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060113440A KR100809352B1 (ko) 2006-11-16 2006-11-16 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치

Publications (1)

Publication Number Publication Date
KR100809352B1 true KR100809352B1 (ko) 2008-03-05

Family

ID=39092591

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060113440A KR100809352B1 (ko) 2006-11-16 2006-11-16 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치

Country Status (5)

Country Link
US (2) US8055382B2 (ko)
EP (1) EP1923763B1 (ko)
JP (1) JP5219467B2 (ko)
KR (1) KR100809352B1 (ko)
CN (1) CN101183266B (ko)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101231378B1 (ko) * 2011-08-12 2013-02-15 숭실대학교산학협력단 파티클 필터 기반의 사용자 위치 추적 장치 및 기록매체
KR101264306B1 (ko) 2012-01-10 2013-05-22 숭실대학교산학협력단 이동 모델 학습을 통한 실내 위치 추적 장치 및 이를 위한 기록매체
KR101268564B1 (ko) 2012-01-26 2013-05-28 숭실대학교산학협력단 파티클 필터 기반의 단말의 위치 측정 장치 및 방법과 이를 기록한 기록 매체
KR101406176B1 (ko) * 2011-10-31 2014-06-13 조선대학교산학협력단 수중로봇의 위치 추정 장치 및 그 방법
US8938319B2 (en) 2009-01-07 2015-01-20 Samsung Electronics Co., Ltd. Robot slip detection apparatus and method
KR101560629B1 (ko) 2014-05-15 2015-10-15 국방과학연구소 파티클 필터를 이용하여 위성신호 추적 및 빔포밍을 동시에 수행하는 위성 신호 처리 방법 및 장치
WO2016200035A1 (en) 2015-06-09 2016-12-15 Samsung Electronics Co., Ltd. Moving robot and method for controlling the same
CN108646710A (zh) * 2018-05-10 2018-10-12 中国民航大学 一种基于改进容积粒子滤波的电液联合舵机状态估计方法
CN108972553A (zh) * 2018-08-06 2018-12-11 北京邮电大学 一种基于粒子滤波算法的空间机械臂故障检测方法
CN110082776A (zh) * 2019-03-08 2019-08-02 贵州电网有限责任公司 一种基于2d激光数据的机器人实时定位方法
CN110333513A (zh) * 2019-07-10 2019-10-15 国网四川省电力公司电力科学研究院 一种融合最小二乘法的粒子滤波slam方法
KR20190133375A (ko) * 2018-05-23 2019-12-03 한국과학기술원 파티클 필터를 위한 파티클 재추출 방법
KR102103651B1 (ko) 2018-11-28 2020-04-22 한국교통대학교산학협력단 지도의 차로 개수를 활용한 파티클 필터링 퇴화 경감 방법 및 시스템
CN111061287A (zh) * 2019-12-31 2020-04-24 芜湖哈特机器人产业技术研究院有限公司 基于粒子自收敛的移动机器人重定位方法
CN111474928A (zh) * 2020-04-02 2020-07-31 上海高仙自动化科技发展有限公司 机器人控制方法、机器人、电子设备和可读存储介质
WO2021194023A1 (ko) * 2020-03-26 2021-09-30 주식회사 제타뱅크 이동 로봇 및 그 제어방법

Families Citing this family (70)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006186150A (ja) * 2004-12-28 2006-07-13 Hitachi Ltd 半導体記憶装置の製造方法及び半導体設計装置
KR100809352B1 (ko) 2006-11-16 2008-03-05 삼성전자주식회사 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치
JP2009093308A (ja) * 2007-10-05 2009-04-30 Hitachi Industrial Equipment Systems Co Ltd ロボットシステム
KR101461185B1 (ko) * 2007-11-09 2014-11-14 삼성전자 주식회사 스트럭쳐드 라이트를 이용한 3차원 맵 생성 장치 및 방법
KR101409987B1 (ko) * 2007-12-11 2014-06-23 삼성전자주식회사 이동 로봇의 자세 보정 방법 및 장치
KR101415879B1 (ko) * 2008-01-04 2014-07-07 삼성전자 주식회사 이동 로봇을 도킹시키는 방법 및 장치
JP5141507B2 (ja) * 2008-08-25 2013-02-13 村田機械株式会社 自律移動装置
CN101509781B (zh) * 2009-03-20 2011-09-14 同济大学 基于单目摄像头的步行机器人定位系统
JP5444952B2 (ja) * 2009-08-28 2014-03-19 富士通株式会社 センサフュージョンによる地図の自動生成、およびそのように自動生成された地図を用いて移動体の移動をするための、装置、方法、ならびにプログラム
KR101362961B1 (ko) * 2009-08-31 2014-02-12 니토 로보틱스 인코퍼레이티드 이동 로봇 환경의 실시간 위치 측정 및 매핑을 위한 방법 및 장치
CN101907460B (zh) * 2010-02-10 2012-06-06 南京航空航天大学 一种用于光纤陀螺寻北的粒子滤波方法
US8510078B2 (en) * 2010-03-31 2013-08-13 Mitsubishi Electric Research Laboratories, Inc. Method and system for registering an object with a probe using entropy-based motion selection and Rao-Blackwellized particle filtering
US8219352B2 (en) * 2010-03-31 2012-07-10 Mitsubishi Electric Research Laboratories, Inc. Localization in industrial robotics using rao-blackwellized particle filtering
KR101081927B1 (ko) * 2010-05-15 2011-11-09 주식회사 일심글로발 유리창 청소 장치 및 그의 이동 제어 방법
KR101289240B1 (ko) * 2010-05-15 2013-07-26 한국로봇융합연구원 유리창 청소 장치 및 그의 이동 제어 방법
CN101982732B (zh) * 2010-09-14 2012-02-01 北京航空航天大学 一种基于esoqpf和ukf主从滤波的微小卫星姿态确定方法
CN102059703A (zh) * 2010-11-22 2011-05-18 北京理工大学 基于自适应粒子滤波的机器人视觉伺服控制方法
DE102011000250A1 (de) * 2011-01-21 2012-07-26 Vorwerk & Co. Interholding Gmbh Verfahren zur Bestimmung der Position eines selbsttätig verfahrbaren Geräts
KR101165335B1 (ko) * 2011-04-19 2012-07-18 전남대학교산학협력단 지수함수 기반의 입자 리샘플링 방법 및 그 방법을 이용한 영상객체 추적방법
JP5748174B2 (ja) * 2011-09-15 2015-07-15 株式会社Ihi 移動体の相対姿勢計測方法と装置
US8798840B2 (en) * 2011-09-30 2014-08-05 Irobot Corporation Adaptive mapping with spatial summaries of sensor data
CN102402225B (zh) * 2011-11-23 2013-09-04 中国科学院自动化研究所 一种实现移动机器人同时定位与地图构建的方法
CN103177269B (zh) * 2011-12-23 2017-12-15 北京三星通信技术研究有限公司 用于估计对象姿态的设备和方法
JP5867176B2 (ja) * 2012-03-06 2016-02-24 日産自動車株式会社 移動物体位置姿勢推定装置及び方法
CN103901774B (zh) * 2012-12-28 2017-02-08 联想(北京)有限公司 高效鲁棒的基于多传感器的slam协调方法及系统
CN103903253B (zh) * 2012-12-28 2017-06-27 联想(北京)有限公司 一种可移动终端定位方法及系统
JP6233706B2 (ja) 2013-04-02 2017-11-22 パナソニックIpマネジメント株式会社 自律移動装置及び自律移動装置の自己位置推定方法
CN103412565B (zh) * 2013-05-17 2016-01-27 浙江中控研究院有限公司 一种具有全局位置快速估计能力的机器人定位方法
CN103644903B (zh) * 2013-09-17 2016-06-08 北京工业大学 基于分布式边缘无味粒子滤波的同步定位与地图构建方法
GB2520751A (en) * 2013-11-29 2015-06-03 Cambridge Consultants Location finding apparatus and associated methods
KR102016551B1 (ko) * 2014-01-24 2019-09-02 한화디펜스 주식회사 위치 추정 장치 및 방법
DE102014002821A1 (de) 2014-02-26 2015-08-27 Audi Ag Verfahren und ein System zum Lokalisieren einer mobilen Einrichtung
US9427867B2 (en) * 2014-04-02 2016-08-30 The Boeing Company Localization within an environment using sensor fusion
CN104597900A (zh) * 2014-12-02 2015-05-06 华东交通大学 一种基于类电磁机制优化的FastSLAM方法
JP6594008B2 (ja) 2015-03-23 2019-10-23 株式会社メガチップス 移動体制御装置、ランドマーク、および、プログラム
JP6651295B2 (ja) 2015-03-23 2020-02-19 株式会社メガチップス 移動体制御装置、プログラムおよび集積回路
KR101697857B1 (ko) * 2015-04-08 2017-01-18 엘지전자 주식회사 이동 로봇 및 그의 위치인식방법
CN104807465B (zh) * 2015-04-27 2018-03-13 安徽工程大学 机器人同步定位与地图创建方法及装置
WO2017076929A1 (en) 2015-11-02 2017-05-11 Starship Technologies Oü Device and method for autonomous localisation
CN105426820B (zh) * 2015-11-03 2018-09-21 中原智慧城市设计研究院有限公司 基于安防监控视频数据的多人异常行为检测方法
CN105333879B (zh) * 2015-12-14 2017-11-07 重庆邮电大学 同步定位与地图构建方法
CN105865449B (zh) * 2016-04-01 2020-05-05 深圳市杉川机器人有限公司 基于激光和视觉的移动机器人的混合定位方法
WO2017173553A1 (en) 2016-04-08 2017-10-12 A&K Robotics Inc. Autoscrubber convertible between manual and autonomous operation
JP6642319B2 (ja) * 2016-07-19 2020-02-05 株式会社豊田自動織機 自律移動体制御装置
CN106568432B (zh) * 2016-10-20 2019-07-09 上海物景智能科技有限公司 一种移动机器人初始位姿获取方法和系统
KR101864948B1 (ko) * 2016-10-31 2018-07-04 고려대학교 산학협력단 이동 로봇의 엘리베이터 승하차 제어 방법
CN106597435A (zh) * 2016-12-08 2017-04-26 北京康力优蓝机器人科技有限公司 实现基于粒子滤波slam算法的方法及系统
JP6924066B2 (ja) 2017-04-27 2021-08-25 株式会社デンソーテン レーダ装置および物標検出方法
US10386851B2 (en) * 2017-09-22 2019-08-20 Locus Robotics Corp. Multi-resolution scan matching with exclusion zones
WO2020048623A1 (en) * 2018-09-07 2020-03-12 Huawei Technologies Co., Ltd. Estimation of a pose of a robot
CN109325474A (zh) * 2018-11-14 2019-02-12 郭道宁 一种对需特别看护人员的异常状态检测方法
US11331801B2 (en) * 2018-11-28 2022-05-17 Mitsubishi Electric Research Laboratories, Inc. System and method for probabilistic multi-robot positioning
CN109696908B (zh) * 2019-01-18 2022-06-21 南方科技大学 机器人及其航迹设置方法和系统
CN111486842B (zh) * 2019-01-29 2022-04-15 深圳市优必选科技有限公司 重定位方法及装置、机器人
CN109917332B (zh) * 2019-02-01 2022-12-16 广东工业大学 一种基于改进粒子滤波的室内机器人定位方法
KR102212825B1 (ko) * 2019-04-08 2021-02-08 네이버랩스 주식회사 이미지를 기반으로 포즈 계산을 위한 지도의 최신성을 유지하는 방법 및 시스템
EP3734388B1 (en) * 2019-04-29 2023-03-15 Commissariat à l'Energie Atomique et aux Energies Alternatives Method and apparatus for performing simultaneous localization and mapping
US11347238B2 (en) * 2019-10-02 2022-05-31 Mitsubishi Electric Research Laboratories, Inc. System and method for probabilistic multi-robot SLAM
CN111090281B (zh) * 2019-11-27 2023-07-28 温州大学 基于改进粒子滤波算法估算机器人方位的方法和装置
CN111427370B (zh) * 2020-06-09 2020-09-04 北京建筑大学 一种基于稀疏位姿调整的移动机器人的Gmapping建图方法
CN112068174B (zh) * 2020-08-18 2021-11-23 三一专用汽车有限责任公司 定位方法、定位装置和计算机可读存储介质
JP2022042630A (ja) 2020-09-03 2022-03-15 本田技研工業株式会社 自己位置推定方法
CN112306058A (zh) * 2020-10-15 2021-02-02 华南农业大学 清粪机器人智能导航方法、装置、系统、介质和设备
CN112612862B (zh) * 2020-12-24 2022-06-24 哈尔滨工业大学芜湖机器人产业技术研究院 一种基于点云配准的栅格地图定位方法
KR102463725B1 (ko) * 2021-02-23 2022-11-07 현대자동차주식회사 위치 추정 장치, 그를 포함한 로봇 시스템 및 그에 관한 방법
CN113375658B (zh) * 2021-06-15 2023-05-09 电子科技大学中山学院 移动机器人故障下同时fdd和slam的方法及系统
CN114021376B (zh) * 2021-11-17 2024-04-09 中国北方车辆研究所 一种四足机器人地形坡度估计方法
CN114355415A (zh) * 2022-01-06 2022-04-15 上海安亭地平线智能交通技术有限公司 位姿信息的确定方法和装置、电子设备和存储介质
CN115388906A (zh) * 2022-08-24 2022-11-25 上海安亭地平线智能交通技术有限公司 位姿的确定方法、装置、电子设备和存储介质
CN116972831B (zh) * 2023-09-25 2024-02-02 山东亚历山大智能科技有限公司 一种基于显著特征的动态场景移动机器人定位方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0527832A (ja) * 1991-07-19 1993-02-05 Sanyo Electric Co Ltd 移動ロボツトの現在位置認識方法
JPH0866879A (ja) * 1994-08-24 1996-03-12 Meidensha Corp ロボットの制御方法
KR100478452B1 (ko) 2002-06-12 2005-03-23 삼성전자주식회사 이동 로봇의 위치 및 방향 인식 장치 및 방법
KR100601946B1 (ko) 2004-03-26 2006-07-14 삼성전자주식회사 로봇의 전역 위치 추정 방법
KR100601960B1 (ko) 2004-08-05 2006-07-14 삼성전자주식회사 로봇의 위치 추적 및 지도 작성 방법

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4645348A (en) * 1983-09-01 1987-02-24 Perceptron, Inc. Sensor-illumination system for use in three-dimensional measurement of objects and assemblies of objects
DE19704853C1 (de) 1997-02-10 1998-06-18 Leica Ag Verfahren zum Bestimmen von Korrekturparametern
US6667592B2 (en) * 2001-08-13 2003-12-23 Intellibot, L.L.C. Mapped robot system
JP3646169B2 (ja) 2002-05-07 2005-05-11 独立行政法人産業技術総合研究所 脚式ロボットの歩行制御装置
US7145478B2 (en) * 2002-12-17 2006-12-05 Evolution Robotics, Inc. Systems and methods for controlling a density of visual landmarks in a visual simultaneous localization and mapping system
JP4352148B2 (ja) * 2003-03-14 2009-10-28 独立行政法人科学技術振興機構 移動ロボット用地図作成システム
JP4251545B2 (ja) * 2003-07-11 2009-04-08 独立行政法人科学技術振興機構 移動ロボット用経路計画システム
CN1244435C (zh) * 2003-09-26 2006-03-08 西安交通大学 一种与位置机构运动解耦的机器人姿态调节手腕机构
KR100506097B1 (ko) * 2004-02-04 2005-08-03 삼성전자주식회사 자기장 지도 생성 방법 및 장치와 이를 활용한 이동체의포즈 확인 방법 및 장치
US7908040B2 (en) * 2004-07-15 2011-03-15 Raytheon Company System and method for automated search by distributed elements
KR100754385B1 (ko) * 2004-09-30 2007-08-31 삼성전자주식회사 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법
KR100809352B1 (ko) * 2006-11-16 2008-03-05 삼성전자주식회사 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0527832A (ja) * 1991-07-19 1993-02-05 Sanyo Electric Co Ltd 移動ロボツトの現在位置認識方法
JPH0866879A (ja) * 1994-08-24 1996-03-12 Meidensha Corp ロボットの制御方法
KR100478452B1 (ko) 2002-06-12 2005-03-23 삼성전자주식회사 이동 로봇의 위치 및 방향 인식 장치 및 방법
KR100601946B1 (ko) 2004-03-26 2006-07-14 삼성전자주식회사 로봇의 전역 위치 추정 방법
KR100601960B1 (ko) 2004-08-05 2006-07-14 삼성전자주식회사 로봇의 위치 추적 및 지도 작성 방법

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8938319B2 (en) 2009-01-07 2015-01-20 Samsung Electronics Co., Ltd. Robot slip detection apparatus and method
KR101553653B1 (ko) * 2009-01-07 2015-09-16 삼성전자 주식회사 로봇의 슬립 감지 장치 및 방법
KR101231378B1 (ko) * 2011-08-12 2013-02-15 숭실대학교산학협력단 파티클 필터 기반의 사용자 위치 추적 장치 및 기록매체
KR101406176B1 (ko) * 2011-10-31 2014-06-13 조선대학교산학협력단 수중로봇의 위치 추정 장치 및 그 방법
KR101264306B1 (ko) 2012-01-10 2013-05-22 숭실대학교산학협력단 이동 모델 학습을 통한 실내 위치 추적 장치 및 이를 위한 기록매체
KR101268564B1 (ko) 2012-01-26 2013-05-28 숭실대학교산학협력단 파티클 필터 기반의 단말의 위치 측정 장치 및 방법과 이를 기록한 기록 매체
KR101560629B1 (ko) 2014-05-15 2015-10-15 국방과학연구소 파티클 필터를 이용하여 위성신호 추적 및 빔포밍을 동시에 수행하는 위성 신호 처리 방법 및 장치
WO2016200035A1 (en) 2015-06-09 2016-12-15 Samsung Electronics Co., Ltd. Moving robot and method for controlling the same
KR20160144682A (ko) * 2015-06-09 2016-12-19 삼성전자주식회사 이동 로봇 및 그 제어 방법
CN107710092A (zh) * 2015-06-09 2018-02-16 三星电子株式会社 移动机器人及控制其的方法
US9904284B2 (en) 2015-06-09 2018-02-27 Samsung Electronics Co., Ltd. Moving robot and method for controlling the same
KR102388448B1 (ko) * 2015-06-09 2022-04-21 삼성전자주식회사 이동 로봇 및 그 제어 방법
CN107710092B (zh) * 2015-06-09 2020-12-22 三星电子株式会社 移动机器人及控制其的方法
CN108646710A (zh) * 2018-05-10 2018-10-12 中国民航大学 一种基于改进容积粒子滤波的电液联合舵机状态估计方法
KR102136111B1 (ko) 2018-05-23 2020-07-22 한국과학기술원 파티클 필터를 위한 파티클 재추출 방법
KR20190133375A (ko) * 2018-05-23 2019-12-03 한국과학기술원 파티클 필터를 위한 파티클 재추출 방법
CN108972553B (zh) * 2018-08-06 2021-08-13 北京邮电大学 一种基于粒子滤波算法的空间机械臂故障检测方法
CN108972553A (zh) * 2018-08-06 2018-12-11 北京邮电大学 一种基于粒子滤波算法的空间机械臂故障检测方法
KR102103651B1 (ko) 2018-11-28 2020-04-22 한국교통대학교산학협력단 지도의 차로 개수를 활용한 파티클 필터링 퇴화 경감 방법 및 시스템
CN110082776A (zh) * 2019-03-08 2019-08-02 贵州电网有限责任公司 一种基于2d激光数据的机器人实时定位方法
CN110082776B (zh) * 2019-03-08 2023-04-07 贵州电网有限责任公司 一种基于2d激光数据的机器人实时定位方法
CN110333513A (zh) * 2019-07-10 2019-10-15 国网四川省电力公司电力科学研究院 一种融合最小二乘法的粒子滤波slam方法
CN110333513B (zh) * 2019-07-10 2023-01-10 国网四川省电力公司电力科学研究院 一种融合最小二乘法的粒子滤波slam方法
CN111061287A (zh) * 2019-12-31 2020-04-24 芜湖哈特机器人产业技术研究院有限公司 基于粒子自收敛的移动机器人重定位方法
CN111061287B (zh) * 2019-12-31 2022-05-27 芜湖哈特机器人产业技术研究院有限公司 基于粒子自收敛的移动机器人重定位方法
WO2021194023A1 (ko) * 2020-03-26 2021-09-30 주식회사 제타뱅크 이동 로봇 및 그 제어방법
CN111474928A (zh) * 2020-04-02 2020-07-31 上海高仙自动化科技发展有限公司 机器人控制方法、机器人、电子设备和可读存储介质

Also Published As

Publication number Publication date
JP2008126401A (ja) 2008-06-05
EP1923763B1 (en) 2014-05-07
JP5219467B2 (ja) 2013-06-26
US20120029698A1 (en) 2012-02-02
US20080119961A1 (en) 2008-05-22
US8630735B2 (en) 2014-01-14
CN101183266A (zh) 2008-05-21
CN101183266B (zh) 2010-12-15
US8055382B2 (en) 2011-11-08
EP1923763A1 (en) 2008-05-21

Similar Documents

Publication Publication Date Title
KR100809352B1 (ko) 파티클 필터 기반의 이동 로봇의 자세 추정 방법 및 장치
US8467902B2 (en) Method and apparatus for estimating pose of mobile robot using particle filter
Duckett et al. Learning globally consistent maps by relaxation
CN109597864B (zh) 椭球边界卡尔曼滤波的即时定位与地图构建方法及系统
Teslić et al. EKF-based localization of a wheeled mobile robot in structured environments
KR100855469B1 (ko) 이동 로봇의 자세 추정 장치 및 방법
JP6773471B2 (ja) 自律移動体と環境地図更新装置
KR101167627B1 (ko) 이동 로봇의 위치 및 지도의 이중 보정 장치 및 방법
JP6438354B2 (ja) 自己位置推定装置及び自己位置推定装置を備えた移動体
Rojas et al. Algorithms for maps construction and localization in a mobile robot
Zeghmi et al. A Kalman-particle hybrid filter for improved localization of AGV in indoor environment
Choi et al. Localization of a mobile robot based on an ultrasonic sensor using dynamic obstacles
Emaduddin et al. Accurate floor detection and segmentation for indoor navigation using RGB+ D and stereo cameras
Hani et al. Realtime autonomous navigation in V-Rep based static and dynamic environment using EKF-SLAM
Naveed et al. Analysis of indoor robot localization using ultrasonic sensors
Tsai et al. Cooperative localization using fuzzy decentralized extended information filtering for homogenous omnidirectional mobile multi-robot system
Cen et al. Effective application of Monte Carlo localization for service robot
Prestes et al. Exploration technique using potential fields calculated from relaxation methods
Abrate et al. Monte Carlo Localization of mini-rovers with low-cost IR sensors
Ji et al. Outdoor mobile robot localization using Hausdorff distance-based matching between COAG features of elevation maps and laser range data
Zikos et al. Generative Simultaneous Localization and Mapping (G-SLAM)
ISHII et al. Mapping and correction method in static environments for autonomous mobile robot
US20220129004A1 (en) Method for autonomous navigation of a movable robotic unit, and robotic system including the robotic unit
Ohshima et al. Tracking and following people and robots in crowded environment by a mobile robot with sokuiki sensor
Al-Mutib et al. Mobile robot floor navigation using RGB+ D and stereo cameras

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130115

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140124

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150116

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160118

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20170117

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20180117

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20200120

Year of fee payment: 13