KR102193914B1 - 위치 추정 상태 진단 방법 및 이를 수행하는 자율주행로봇 - Google Patents

위치 추정 상태 진단 방법 및 이를 수행하는 자율주행로봇 Download PDF

Info

Publication number
KR102193914B1
KR102193914B1 KR1020180149336A KR20180149336A KR102193914B1 KR 102193914 B1 KR102193914 B1 KR 102193914B1 KR 1020180149336 A KR1020180149336 A KR 1020180149336A KR 20180149336 A KR20180149336 A KR 20180149336A KR 102193914 B1 KR102193914 B1 KR 102193914B1
Authority
KR
South Korea
Prior art keywords
direction angle
distance
error index
time
calculated
Prior art date
Application number
KR1020180149336A
Other languages
English (en)
Other versions
KR20200063538A (ko
Inventor
정우진
김지웅
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to KR1020180149336A priority Critical patent/KR102193914B1/ko
Publication of KR20200063538A publication Critical patent/KR20200063538A/ko
Application granted granted Critical
Publication of KR102193914B1 publication Critical patent/KR102193914B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W20/00Control systems specially adapted for hybrid vehicles
    • B60W20/10Controlling the power contribution of each of the prime movers to meet required power demand
    • B60W20/12Controlling the power contribution of each of the prime movers to meet required power demand using control strategies taking into account route information
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles

Abstract

본 발명은 위치 추정 상태 자가 진단 방법에 관한 것으로, (a) 거리 오차 지표와, 방향각 오차 지표, 및 상기 거리 오차 지표 및 상기 방향각 오차 지표에 대한 위치 추정 성공 여부가 기 등록된 기계 학습 알고리즘의 학습 데이터로 등록되어 학습되는 단계와, (b) 자율주행로봇의 현 위치에서 복수의 거리 측정값이 측정되는 단계와, (c) 상기 자율주행로봇의 현 위치에서의 추정 방향각이 추정되는 단계와, (d) 복수의 상기 거리 측정값에 기초하여 현 위치에서의 거리 오차 지표가 산출되는 단계와, (e) 상기 추정 방향각에 기초하여 현 위치에서의 방향각 오차 지표가 산출되는 단계와, (f) 상기 (d) 단계 및 상기 (e) 단계에서 각각 산출된 상기 거리 오차 지표 및 상기 방향각 오차 지표가 상기 기계 학습 알고리즘에 입력되어 현 위치에서의 위치 추정 성공 여부가 출력되는 단계를 포함하며; 상기 (a) 단계 및 상기 (d) 단계에서 상기 거리 오차 지표는 현 위치에서 측정된 복수의 거리 측정값 중 신뢰성이 높은 상위 n %의 거리 측정값들의 오차 평균값에 기초하여 산출되고, 상기 (a) 단계 및 상기 (e) 단계에서 상기 방향각 오차 지표는 현 위치에서 추정된 추정 방향각과 현 위치에서의 허용 방향각 범위에 기초하여 산출되는 것을 특징으로 한다.

Description

위치 추정 상태 진단 방법 및 이를 수행하는 자율주행로봇{METHOD FOR SELF-DIAGNOSING LOCALIZATION STATUS AND AUTONOMOUS MOBILE ROBOT CARRYING OUT THE SAME}
본 발명은 위치 추정 상태 진단 방법 및 이를 수행하는 자율주행로봇에 관한 것으로서, 보다 상세하게는 자율주행로봇의 주행시 자신의 위치 추정 상태가 성공인지 실패인지를 자가 진단할 수 있는 위치 추정 상태 진단 방법 및 이를 수행하는 자율주행로봇에 관한 것이다.
신뢰성 있는 위치 추정기술은 자율주행로봇의 자율주행을 위해 필수적이다. 자율주행로봇은 출발 위치로부터 목표 위치까지 위치 추정 결과를 바탕으로 주행한다. 따라서, 성공적인 경로생성과 운동제어를 위해 신뢰성 있는 위치 추정 결과가 제공되어야 한다.
지금까지 많은 연구는 위치 추정 성능을 주로 위치 추정 오차에 근거하여 평가해왔다. 하지만 위치 추정 오차가 어느 정도 수준 이하로 유지만 된다면, 많은 경우에 위치 추정 오차는 자율주행의 성능에 큰 영향을 미치지 않는다. 예를 들어, 자율주행로봇의 상대 좌표계에서 근접 장애물 또는 위험 지형을 정확히 감지할 수 있다면, 위치 추정 오차가 다소 부정확할지라도 적절한 운동제어가 가능하다.
실제 활용에 있어서는, 현재 추정된 자율주행로봇의 포즈, 즉 위치와 방향각이 믿을 만한지 아닌지를 판단하는 것이 더욱 중요하다. 다시 말해서, 위치 추정 상태를 판단하는 것이 중요하다. 만약, 추정된 포즈가 믿을 만하지 않다면, 추정된 포즈는 자율주행로봇의 주행 행동 결정에 활용되지 않아야 한다. 그렇지 않으면, 자율주행로봇은 임무에 실패하거나, 비정상적인 행동을 할지도 모른다.
한편, 라이다 센서와 같은 거리 센서를 이용한 위치 추정 기술은 많은 환경에서 강인하고 신뢰성 있는 위치 추정 결과를 보여왔다. 그럼에도 불구하고, 위치 센서 기반의 위치 추정기술을 이용할 때 위치 추정 실패가 때때로 발생한다. 위치 추정 실패는 다양한 원인에 의해 발생하는데, 극심한 환경 변화, 불충분한 자연표식, 바퀴의 미끄러짐은 위치 추정 실패의 주요 원인들이다.
모든 상황과 환경에서 강인하게 동작하는 위치 추정 기술을 개발하기는 어렵다. 따라서 자율주행로봇 스스로 현재 위치 추정 상태를 진단할 수 있는 기술의 개발이 요구되고 있는 실정이다.
위치 추정 상태의 진단과 관련된 다양한 연구들이 있었다. Moon 등의 논문 "Observation likelihood model design and failure recovery scheme toward reliable localization of mobile robots (Int. J. Adv. Robot. Syst., vol. 7, no. 4, pp. 113??122, 2010.)"에서는 바퀴의 미끄러짐에 의한 위치 추정 실패를 감지하기 위해 매칭 오차를 이용하였다. 슬라이딩 윈도우 기법을 이용하여 현재 매칭 오차가 과거 매칭 오차의 분포로부터 일정 범위를 초과하면, 위치 추정 상태는 실패로 분류된다. 이와 같은 방법은 바퀴가 미끄러졌을 때 매칭 오차가 순간적으로 크게 증가하는 특성을 고려한 것이다.
Lee 등의 논문 "Discrete-status-based localization for indoor service robots (IEEE Trans. Ind. Electron., vol. 53, no. 5, pp. 1737??1746, 2006.)"에서는 10% 이상의 오차를 가지는 거리 측정값을 잘못된 측정값으로 정의하고, 잘못된 거리 측정값의 비율을 바탕으로 위치 추정의 신뢰성을 정의하였다. 이러한 신뢰성이 한계치 이하인 경우 추정된 포즈를 믿을 만한 것이 아닌 것으로 간주하고, 이를 업데이트 과정에 반영하지 않는다.
Zhang 등의 논문 "Self-adaptive Monte Carlo Localization for Mobile Robots Using Range Finders (Robotica, vol. 30, no. 2, pp. 229-244, 2012.)"에서는 샘플들의 최대 확률에 근거하여 위치 추정 실패를 감지한다. 샘플들의 최대 확률이 한계치 이하일 경우 로컬 샘플의 일부가 글로벌 샘플로 변환된다.
Fujii 등의 논문 "Detection of localization failure using logistic regression (Proc. IEEE Int. Conf. Intell. Robots Syst., 2015.)"에서는 샘플들의 최대 확률과 표준편차를 이용한 로지스틱 회귀에 의해 위치 추정 실패를 분류하였다. 또한, 로지스틱 함수에 의해 계산된 위치 추정 실패 확률을 이용한 하이브리드 위치 추정기술을 제시하였다.
위치 추정 상태는 지도를 업데이트하기 위한 목적으로도 진단되었는데, 일 예로 Sun 등의 논문 "Towards Effective Localization in Dynamic Environments (Proc. IEEE Int. Conf. Intell. Robots Syst.,2016.)"에서는 매칭 점수(Matching score)를 이용하여 위치 추정 상태를 진단하였다. 매칭 점수가 한계치를 초과할 때 지도가 업데이트된다.
상기와 같이, 기존의 연구들은 각자의 지표를 이용해서 목표 위치 추정 상태를 성공적으로 진단했다. 하지만, 기존의 지표들은 위치 추정 알고리즘에 크게 의존적일 수 있다. 예를 들어, Moon 등의 논문에서 정의된 매칭 오차와, Sun 등의 논문에서 정의된 매칭 점수는 각 위치 추정 알고리즘의 결과로서 얻을 수 있는 지표이다. 뿐만 아니라, 샘플의 최대 확률 또는 공분산의 크기는 센서 모델의 설계 전략 또는 환경조건에 따라 위치 추정 결과와 적은 관련성이 있을 수 있다.
따라서, 센서 모델의 설계 전략이나 환경 조건, 그리고 위치 추정 알고리즘의 종류와 무관하게 자율주행로봇이 자신의 위치 추정 상태가 성공인지 실패인지 여부를 자가 진단할 수 있다면, 보다 정확한 주행을 보장할 수 있어 바람직할 것이다.
이에 본 발명은 상기와 같은 문제점을 해소하기 위해 안출된 것으로써, 자율주행로봇의 주행시 자신의 위치 추정 상태가 성공인지 실패인지를 자가 진단할 수 있는 위치 추정 상태 진단 방법 및 이를 수행하는 자율주행로봇을 제공하는데 그 목적이 있다.
상기 목적은 본 발명에 따라, 위치 추정 상태 자가 진단 방법에 있어서, (a) 거리 오차 지표와, 방향각 오차 지표, 및 상기 거리 오차 지표 및 상기 방향각 오차 지표에 대한 위치 추정 성공 여부가 기 등록된 기계 학습 알고리즘의 학습 데이터로 등록되어 학습되는 단계와, (b) 자율주행로봇의 현 위치에서 복수의 거리 측정값이 측정되는 단계와, (c) 상기 자율주행로봇의 현 위치에서의 추정 방향각이 추정되는 단계와, (d) 복수의 상기 거리 측정값에 기초하여 현 위치에서의 거리 오차 지표가 산출되는 단계와, (e) 상기 추정 방향각에 기초하여 현 위치에서의 방향각 오차 지표가 산출되는 단계와, (f) 상기 (d) 단계 및 상기 (e) 단계에서 각각 산출된 상기 거리 오차 지표 및 상기 방향각 오차 지표가 상기 기계 학습 알고리즘에 입력되어 현 위치에서의 위치 추정 성공 여부가 출력되는 단계를 포함하며; 상기 (a) 단계 및 상기 (d) 단계에서 상기 거리 오차 지표는 현 위치에서 측정된 복수의 거리 측정값 중 신뢰성이 높은 상위 n %의 거리 측정값들의 오차 평균값에 기초하여 산출되고, 상기 (a) 단계 및 상기 (e) 단계에서 상기 방향각 오차 지표는 현 위치에서 추정된 추정 방향각과 현 위치에서의 허용 방향각 범위에 기초하여 산출되는 것을 특징으로 하는 자율주행로봇의 위치 추정 상태 자가 진단 방법에 의해서 달성된다.
또한, 상기 목적은 본 발명의 다른 실시 형태에 따라, 위치 추정 상태 자가 진단을 수행하는 자율주행로봇에 있어서, 거리 센서와, 상기 거리 센서에 의해 측정된 거리 측정값에 기초하여 주행을 제어하고, 기계 학습 알고리즘이 기 등록된 메인 프로세서를 포함하며; (a) 상기 메인 프로세서에 거리 오차 지표와, 방향각 오차 지표, 및 상기 거리 오차 지표 및 상기 방향각 오차 지표에 대한 위치 추정 성공 여부가 상기 기계 학습 알고리즘의 학습 데이터로 등록되어 학습되는 단계와, (b) 상기 거리 센서에 의해 현 위치에서 복수의 거리 측정값이 측정되는 단계와, (c) 상기 메인 프로세서에 의해 현 위치에서의 추정 방향각이 추정되는 단계와, (d) 상기 메인 프로세서에 의해 복수의 상기 거리 측정값에 기초하여 현 위치에서의 거리 오차 지표가 산출되는 단계와, (e) 상기 메인 프로세서에 의해 상기 추정 방향각에 기초하여 현 위치에서의 방향각 오차 지표가 산출되는 단계와, (f) 상기 메인 프로세서에 의해 상기 (d) 단계 및 상기 (e) 단계에서 각각 산출된 상기 거리 오차 지표 및 상기 방향각 오차 지표가 상기 기계 학습 알고리즘에 입력되어 현 위치에서의 위치 추정 성공 여부가 출력되는 단계가 수행되어, 위치 추정 상태가 자가 진단되며; 상기 메인 프로세서는 상기 (a) 단계 및 상기 (d) 단계에서 상기 거리 오차 지표를 현 위치에서 측정된 복수의 거리 측정값 중 신뢰성이 높은 상위 n %의 거리 측정값들의 오차 평균값에 기초하여 산출하고, 상기 (a) 단계 및 상기 (e) 단계에서 상기 방향각 오차 지표를 현 위치에서 추정된 추정 방향각과 현 위치에서의 허용 방향각 범위에 기초하여 산출하는 것을 특징으로 하는 위치 추정 상태 자가 진단을 수행하는 자율주행로봇에 의해서도 달성될 수 있다.
여기서, 상기 거리 오차 지표는 수학식
Figure 112018118760400-pat00001
(여기서,
Figure 112018118760400-pat00002
는 상기 거리 오차 지표이고,
Figure 112018118760400-pat00003
는 상기 오차 평균값으로 수학식
Figure 112018118760400-pat00004
(여기서,
Figure 112018118760400-pat00005
는 시간 t에서 측정된 거리 센서의 i번째 거리 측정값이고,
Figure 112018118760400-pat00006
는 상기 자율주행로봇에 등록된 지도로부터 계산된
Figure 112018118760400-pat00007
의 레퍼런스 거리이고,
Figure 112018118760400-pat00008
는 시간 t에서 측정된 복수의 거리 측정값 중 n%에 대응하는 개수이고,
Figure 112018118760400-pat00009
는 시간 t에서 측정된 복수의 거리 측정값 중 n%에 속하는 거리 측정값의 식별번호 i의 집합이다)에 의해 산출되고,
Figure 112018118760400-pat00010
는 시간 t에서의 상기 오차 평균값에 대한 가중치이다)에 의해 산출될 수 있다.
또한, 상기 방향각 오차 지표는 수학식
Figure 112018118760400-pat00011
(여기서,
Figure 112018118760400-pat00012
는 상기 방향각 오차 지표이고,
Figure 112018118760400-pat00013
는 수학식
Figure 112018118760400-pat00014
(여기서,
Figure 112018118760400-pat00015
는 시간 t에서의 상기 추정 방향각이고,
Figure 112018118760400-pat00016
는 시간 t에서의 상기 허용 방향각 범위의 최대 방향각이고,
Figure 112018118760400-pat00017
는 시간 t에서의 상기 허용 방향각 범위의 최소 방향각이다)에 산출되고,
Figure 112018118760400-pat00018
는 시간 t에서의
Figure 112018118760400-pat00019
에 대한 가중치이다)에 의해 산출될 수 있다.
여기서, 상기 최대 방향각은 수학식
Figure 112018118760400-pat00020
에 의해 산출되고; 상기 최소 방향각은 수학식
Figure 112018118760400-pat00021
에 의해 산출되며;
Figure 112018118760400-pat00022
는 시간 t-s에서 추정된 추정 방향각이고,
Figure 112018118760400-pat00023
에 의해 산출되고,
Figure 112018118760400-pat00024
Figure 112018118760400-pat00025
는 각각 시간 t 및 시간 t-s에서 상기 자율주행로봇에 등록된 오도메트리 상의 오도메트리 방향각이고,
Figure 112018118760400-pat00026
는 상기 자율주행로봇의 불확실성을 반영한 매개변수이다.
그리고, 상기 기계 학습 알고리즘은 지도학습이 적용된 이진 분류 알고리즘을 포함할 수 있다.
상기 구성에 따라 본 발명에 따르면, 자율주행로봇의 주행시 자신의 위치 추정 상태가 성공인지 실패인지를 자가 진단할 수 있는 위치 추정 상태 진단 방법 및 이를 수행하는 자율주행로봇이 제공된다.
도 1은 본 발명에 따른 자율주행로봇의 구성을 설명하기 위한 도면이고,
도 2은 본 발명에 따른 자율주행로봇의 위치 추정 상태 자가 진단 방법의 흐름도이고,
도 3는 도 2의 기계 학습 과정을 설명하기 위한 흐름도이고,
도 4 내지 도 7은 본 발명에 따른 자율주행로봇의 위치 추정 상태 자가 진단 방법을 설명하기 위한 도면이다.
이하에서는 첨부된 도면들을 참조하여 본 발명에 따른 실시예에 대해 상세히 설명한다.
도 1은 본 발명에 따른 자율주행로봇(100)의 구성을 설명하기 위한 도면이다. 도 1을 참조하여 설명하면, 본 발명에 따른 자율주행로봇(100)은 휠 구동부(130), 휠 감지부(140), 거리 센서(120), 및 메인 프로세서(110)를 포함한다. 여기서, 전원 공급부(150)는 자율주행로봇(100)의 구동을 위한 전원을 휠 구동부(130), 휠 감지부(140), 거리 센서(120), 및 메인 프로세서(110)를 포함한 구성요소들에 공급한다.
휠 구동부(130)는 자율주행로봇(100))의 주행을 위해 설치된 휠을 회전시킨다. 본 발명에 따른 자율주행로봇(100))이 2륜 차동 방식이 적용되는 경우, 각각의 휠의 회전수나 회전 여부에 의해 속도 및 회전각의 제어가 가능하게 된다.
휠 감지부(140)는 각각의 휠의 회전수를 감지하게 도는데, 메인 프로세서(110)는 휠 감지부(140)에 의해 감지된 각 휠의 회전수를 이용하여 이동 거리 및 회전각을 산출하고, 이를 통해 자율주행로봇(100)의 오도메트리 상의 위치를 추정하게 된다.
거리 센서(120)는 주변 환경이나 장애물 등과의 거리를 측정한다. 본 발명에서는 거리 센서(120)로 레이저 거리 센서(120)가 적용되는 것을 예로 하며, 현재 위치에서 일정 각도 범위, 예컨대, 1ㅀ단위로 회전하면서 각각의 각도에서의 거리 측정값을 측정할 수 있다.
메인 프로세서(110)는 휠 감지부(140) 및 거리 센서(120)의 측정값들에 기초하여 자율주행로봇(100))이 경로를 따라 이동하도록 휠 구동부(130)를 제어한다. 본 발명에서는 메인 프로세서(110)에 위치 추정 상태 자가 진단에 적용되는 기계 학습 알고리즘이 등록되는데 이에 대한 상세한 설명은 후술한다.
이하에서는 도 2를 참조하여 본 발명에 따른 자율주행로봇(100)의 메인 프로세서(110)에 의해 수행되는 위치 추정 상태 자가 진단 방법에 대해 상세히 설명한다.
도 2를 참조하여 설명하면, 본 발명의 실시예에 따른 자율주행로봇(100)의 위치 추정 상태 자가 진단 방법에서는, 거리 오차 지표, 방향각 오차 지표 그리고 위치 추정 성공 여부가 메인 프로세서(110)의 기계 학습 알고리즘의 학습 데이터로 등록되어 기계 학습된다(S10).
여기서, 거리 오차 지표는 현 위치에서 거리 센서(120)에 의해 측정된 복수의 거리 측정값 중 신뢰성이 높은 상위 n%의 거리 측정값의 오차 평균값에 기초하여 산출되고, 방향각 오차 지표는 현 위치에서 추정된 추정 방향각과 현 위치에서의 허용 방향각 범위에 기초하여 산출된다.
이하에서는, 본 발명에 따른 자율주행로봇(100)의 위치 추정 상태 자가 진단 방법에서 기계 학습 알고리즘를 통한 기계 학습 과정에 대해 상세히 설명한다.
먼저, 자율주행로봇(100)의 주행 환경, 예를 들어 도 4에 도시된 주차장에서 자율주행로봇(100)이 주행하는 과정에서 각 시간에서의 거리 측정값, 추정 방향각 및 위치 추정 성공 여부가 획득된다(S20). 도 4은 자율주행로봇(100)의 주행 환경으로 주차장의 실제 예를 나타낸 도면으로, 위치 추정 성공 여부는 주차장의 각 위치에 설치된 인공 표식(Reflector)을 기준으로 판단할 수 있다. 즉, 자율주행로봇(100)이 주행하는 과정에서 획득된 거리 측정값에 따른 위치와 추정된 방향각은 주차장에 설치된 인공 표식을 기준으로 위치 추정의 성공과 실패 여부를 확인할 수 있다.
다시 도 3를 참조하여 설명하면, 자율주행로봇(100)의 주행 과정에서 현 위치에서의 거리 측정값들이 획득되면, 거리 측정값의 신뢰성이 산출된다(S21). 도 5를 참조하여 설명하면, 도 5의 (a)의 원으로 표시된 부분(RD)은 상대적으로 신뢰성이 높은 거리 측정값들을 나타내고 있다. 사람과 같은 동적 장애물(210)이나 상자와 같은 알려지지 않은 정적 장애물(220)에 의해 점선으로 나타낸 길이는 해당 거리 측정값에 대한 거리 오차가 된다. 도 5의 (a)에서는 전체 거리 측정값들에 대해서는 큰 거리 오차가 발생할지라도 상대적으로 신뢰성이 높은 거리 측정값들에 대한 거리 오차는 작다. 즉, 상대적으로 신뢰성이 높은 거리 측정값들은 정확하기 때문에 위치 추정이 성공적으로 수행될 수 있다.
반면, 도 5의 (b)에 도시된 바와 같이, 상대적으로 신뢰성이 높은 거리 측정값들에 대해서도 거리 오차가 크게 나타날 수 있는데, 이러한 결과로, 위치 추정 결과를 신뢰할 수 없게 된다.
이에, 본 발명에서는 전체 거리 측정값들 중 신뢰성이 상대적으로 높은 거리 측정값들에 대한 오차 평균값을 이용하여 거리 오차 지표를 산출하게 되며, 거리 측정값들 중 신뢰성이 높은 상위 n%의 거리 측정값들을 추출하고(S22), 이를 이용하여 오차 평균값을 산출하는 것을 예로 한다. 여기서, 오차 평균값이 작으면 위치 추정이 성공적으로 수행되었다고 가정할 수 있으며, 반대의 경우에는 위치 추정이 실패한 것으로 가정할 수 있다. 본 발명에서 오차 평균값은 [수학식 1]과 같이 나타낼 수 있다.
[수학식 1]
Figure 112018118760400-pat00027
[수학식 1]에서
Figure 112018118760400-pat00028
는 오차 평균값이고,
Figure 112018118760400-pat00029
는 시간 t에서 측정된 거리 센서(120)의 i번째 거리 측정값이고,
Figure 112018118760400-pat00030
는 자율주행로봇(100)에 등록된 지도로부터 계산된
Figure 112018118760400-pat00031
의 레퍼런스 거리이고,
Figure 112018118760400-pat00032
는 시간 t에서 측정된 복수의 거리 측정값 중 n%에 대응하는 개수이고,
Figure 112018118760400-pat00033
는 시간 t에서 측정된 복수의 거리 측정값 중 n%에 속하는 거리 측정값의 식별번호 i의 집합이다.
여기서, n 값이 크면 다수의 거리 측정값에 대한 오차가 계산된다. 그 결과, 실제로 위치 추정 오차가 증가하지 않는 상황에서 위치 추정 오차가 증가한다고 판단될 가능성이 증가한다. 반대로, n 값이 작아지면 실제로 위치 추정 오차가 증가하는 상황에 둔감해진다. 본 발명에서는 n 값으로 경험적으로 20%로 설정하는 것을 예로 한다.
본 발명에 따른 신뢰성 산출 방법은 본원 출원인에 의해 출원되어 등록된 한국등록특허공보 제10-1888295호에 개시된 "레이저 거리 센서(120)의 측정 거리에 대해 추정된 거리 유형의 신뢰성을 평가하는 방법 및 이를 이용한 이동 로봇의 위치 추정 방법"을 이용하여 산출하는 것을 예로 하는 바, 그 상세한 설명은 생략한다.
여기서, 위치 추정 오차는 누적되어 증가하기 때문에, 오차 평균값
Figure 112018118760400-pat00034
가 큰 값을 유지하는 동안, 위치 추정 유차는 계속 증가한다. 게다가, 오차 평균값
Figure 112018118760400-pat00035
이 갑자기 감소하더라도, 위치 추정 오차는 바로 감소하지 않는다. 즉, 위치 추정 오차는 오차 평균값
Figure 112018118760400-pat00036
의 과거 값에도 영향을 받게 되는 바, 본 발명에서는 거리 오차 지표를 [수학식 2]와 같이 산출하는 것을 예로 한다(S23).
[수학식 2]
Figure 112018118760400-pat00037
[수학식 2]에서 시간 t에서의
Figure 112018118760400-pat00038
는 거리 오차 지표이고,
Figure 112018118760400-pat00039
는 시간 t에서의 오차 평균값에 대한 가중치가 된다. 즉, 본 발명에서는 거리 오차 지표로 거리 추정 오차의 지수 가중 평균(Exponentially weighted moving average)을 사용하는 것을 예로 한다.
이하에서는 본 발명에 따른 자율주행로봇(100)의 위치 추정 상태 자가 진단 방법에서 방향각 오차 지표를 산출(S23)하는 방법에 대해 설명한다. 본 발명에서는 방향각 오차 지표가 현 위치에서 추정된 추정 방향각과, 현 위치에서의 허용 방향각 범위에 기초하여 산출된다.
보다 구체적으로 설명하면, 자율주행로봇(100)의 운동 불확실성과 오도메트리 각변위의 고려 하에 허용 가능한 자율주행로봇(100)의 방향각인 허용 방향각 범위가 산출될 수 있다. 만약, 추정된 방향각이 허용 가능한 범위를 벗어난다면, 비정상적인 위치 추정이 발생했을 가능성이 높다. 본 발명에서는 [수학식 3]을 통해 방향각 오차 지표를 산출하는 것을 예로 한다.
[수학식 3]
Figure 112018118760400-pat00040
[수학식 3]에서
Figure 112018118760400-pat00041
는 방향각 오차 지표이고,
Figure 112018118760400-pat00042
는 [수학식 4]를 통해 산출되고,
Figure 112018118760400-pat00043
는 시간 t에서의
Figure 112018118760400-pat00044
에 대한 가중치이다.
[수학식 4]
Figure 112018118760400-pat00045
여기서,
Figure 112018118760400-pat00046
는 시간 t에서의 추정 방향각이고,
Figure 112018118760400-pat00047
는 시간 t에서의 허용 방향각 범위의 최대 방향각이고,
Figure 112018118760400-pat00048
는 시간 t에서의 허용 방향각 범위의 최소 방향각이다.
그리고, 최대 방향각과, 최소 방향각은 각각 [수학식 5] 및 [수학식 6]에 의해 산출된다.
[수학식 5]
Figure 112018118760400-pat00049
[수학식 6]
Figure 112018118760400-pat00050
[수학식 5] 및 [수학식 6]에서
Figure 112018118760400-pat00051
는 시간 t-s에서 추정된 추정 방향각이고, 수학식
Figure 112018118760400-pat00052
에 의해 산출되고,
Figure 112018118760400-pat00053
Figure 112018118760400-pat00054
는 각각 시간 t 및 시간 t-s에서 자율주행로봇(100)에 등록된 오도메트리 상의 오도메트리 방향각이고,
Figure 112018118760400-pat00055
는 자율주행로봇(100)의 불확실성을 반영한 매개변수이다. [수학식 4] 내지 [수학식 6]은 도 6와 같이 도식화할 수 있다.
다시, 도 3를 참조하여 설명하면, 상기와 같이 현 위치에서의 거리 오차 지표와 방향각 오차 지표가 산출되면(S23), 산출된 거리 오차 지표, 방향각 오차 지표, 그리고 현 위치에서의 위치 추정 성공 여부를 기계 학습 알고리즘의 학습 데이터 세트로 생성하여(S24) 기계 학습 알고리즘에 등록한다(S26). 여기서, 학습 데이터 세트를 구성하는 거리 오차 지표와 방향각 오차 지표가 기계 학습 알고리즘의 입력 데이터로, 위치 추정 성공 여부가 출력 데이터로 등록된다.
상기와 같은 학습 데이터 세트 생성 과정은 자율주행로봇(100)의 주행 과정에서 지속적으로 생성되어 등록되며, 시간의 경과에 따른 주행 환경의 변화가 반영될 수 있도록 시간대별로 주행 과정을 반복하며 생성하는 것을 예로 한다. 도 7은 도 4에 도시된 주차장 환경에서 시간에 따른 환경 변화의 예를 나타내고 있다. 주차장 환경의 경우, 주차 구역에 주차된 차량이 시간이나 요일별로 다르기 때문에 환경 변화를 잘 반영할 수 있게 된다.
상기와 같은 과정을 통해 학습 데이터 세트가 생성되고 기계 학습 알고리즘에 등록되면, 기계 학습 과정이 진행된다(S10). 본 발명에서는 기계 학습 알고리즘으로 지도학습(Supervised learning)이 적용된 이진 분류 알고리즘에 적용되는 것을 예로 한다.
지도학습은 레이블이 주어진 데이터를 이용하는 기계 학습 알고리즘이다. 즉, 지도학습에서 각각의 학습 데이터는 입력 값과 원하는 출력의 쌍이다. 지도학습의 목적은 입력 값으로부터 출력 값을 맵핑하는 함수를 찾는 것이다.
본 발명은 위치 오차 지표와 방향각 오차 지표를 이용하여 위치 추정 상태, 즉 위치 추정 성공 여부를 성공과 실패로 분류하는 것이므로, 지도학습의 회기(Regression) 문제와 분류(Classificaton) 문제 중 분류 문제로 접근한다.
실제 위치 추정 상태에 따라 위치 오차 지표와 방향각 오차 지표를 범주화시키기 위해서 실제 위치 추정 상태를 분류하기 위한 규칙이 요구되며, 본 발명에서는 위치 추정 상태를 분류하기 위한 규칙을 다음과 같이 정의한다.
- 위치 오차 지표와 방향각 오차 지표가 정해진 한계치를 초과하면, 위치 추정은 '실패'로 분류한다.
- 실패가 아닌 모든 과정은 성공으로 분류한다.
즉, 위치 추정 오차가 일정 수준 이하일 때, 많은 경우에 위치 추정 오차는 자율주행 성능에 큰 영향을 미치지 않는다. 따라서, 위치 추정 오차가 정해진 한계치를 초과할 때만, 위치 추정 상태가 '실패'로 분류된다. 위치추정 오차의 한계치는 주행 목적 또는 임무에 따라 결정될 수 있다.
본 발명에서 위치추정 상태는 성공과 실패로 분류된다. 따라서, 도 3에 도시된 바와 같은 방법으로 생성 및 등록되는 위치추정 성공상태와 위치추정 실패상태에서 수집된 위치 오차 지표와 방향각 오차 지표가 기계 학습 알고리즘의 학습 데이터로 사용된다.
상술한 바와 같이, 본 발명에 따른 기계 학습 알고리즘은 지도학습을 이용한 이진 분류 알고리즘이 적용되며, Altman의 저서 "An Introduction to Kernel and Nearest-Neighbor Nonparametric Regression (The American Statistician, vol. 46, no. 3, pp. 175-185, 1992.)"에 개시된 KNN 알고리즘, Pampel의 저서 "Logistic regression (a primer, Sage Publication, 2000.)"에 개시된 logistic regression 알고리즘, Cristianini 등의 논문 "An introduction to support vector machines and other kernel-based learning methods (Cambridge University Press, 2000.)"에 개시된 SVM 알고리즘이 적용될 수 있다.
다시, 도 2을 참조하여 설명하면, 상기와 같은 과정을 통해 기계 학습이 완료된 상태에서(S10), 자율주행로봇(100)이 주행 환경을 주행하는 과정에서 거리 센서(120)에 의해 현 위치에서의 거리 측정값들이 측정된다(S11). 그리고, 현 위치에서의 추정 방향각이 추정된다(S12).
그런 다음, 거리 측정값들에 대한 신뢰성이 산출되고(S13), 산출된 신뢰성을 기준으로 상위 n%의 거리 측정값이 추출된다(S14). 여기서, 신뢰성 산출과 상위 n%의 거리 측정값 추출은 상술한 기계 학습 과정에 대응하는 바, 그 상세한 설명은 생략한다.
그런 다음, 추출된 거리 측정값과 추정 방향각을 이용하여, 상술한 바와 같이, 거리 오차 지표와 방향각 오차 지표를 산출하고(S15), 산출된 거리 오차 지표와 방향각 오차 지표를 기계 학습 알고리즘에 입력하여 성공과 실패 중 어느 하나가 출력됨으로써(S16), 현재 추정된 자율주행로봇(100)의 포즈, 즉 위치와 방향각의 추정이 성공인지 실패인지 판단된다.
이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
100 : 자율주행 로봇 110 : 메인 프로세서
120 : 거리 센서 130 : 휠 구동부
140 : 휠 감지부 150 : 전원 공급부
210 : 동적 장애물 220 : 정적 장애물

Claims (10)

  1. 위치 추정 상태 자가 진단 방법에 있어서,
    (a) 거리 오차 지표와, 방향각 오차 지표, 및 상기 거리 오차 지표 및 상기 방향각 오차 지표에 대한 위치 추정 성공 여부가 기 등록된 기계 학습 알고리즘의 학습 데이터로 등록되어 학습되는 단계와,
    (b) 자율주행로봇의 현 위치에서 복수의 거리 측정값이 측정되는 단계와,
    (c) 상기 자율주행로봇의 현 위치에서의 추정 방향각이 추정되는 단계와,
    (d) 복수의 상기 거리 측정값에 기초하여 현 위치에서의 거리 오차 지표가 산출되는 단계와,
    (e) 상기 추정 방향각에 기초하여 현 위치에서의 방향각 오차 지표가 산출되는 단계와,
    (f) 상기 (d) 단계 및 상기 (e) 단계에서 각각 산출된 상기 거리 오차 지표 및 상기 방향각 오차 지표가 상기 기계 학습 알고리즘에 입력되어 현 위치에서의 위치 추정 성공 여부가 출력되는 단계를 포함하며;
    상기 (a) 단계 및 상기 (d) 단계에서 상기 거리 오차 지표는 현 위치에서 측정된 복수의 거리 측정값 중 신뢰성이 높은 상위 n %의 거리 측정값들의 오차 평균값에 기초하여 산출되고,
    상기 (a) 단계 및 상기 (e) 단계에서 상기 방향각 오차 지표는 현 위치에서 추정된 추정 방향각과 현 위치에서의 허용 방향각 범위에 기초하여 산출되며,
    상기 기계 학습 알고리즘은 지도학습이 적용된 이진 분류 알고리즘을 포함하는 것을 특징으로 하는 위치 추정 상태 자가 진단 방법.
  2. 제1항에 있어서,
    상기 거리 오차 지표는 수학식
    Figure 112018118760400-pat00056

    (여기서,
    Figure 112018118760400-pat00057
    는 상기 거리 오차 지표이고,
    Figure 112018118760400-pat00058
    는 상기 오차 평균값으로 수학식
    Figure 112018118760400-pat00059
    (여기서,
    Figure 112018118760400-pat00060
    는 시간 t에서 측정된 거리 센서의 i번째 거리 측정값이고,
    Figure 112018118760400-pat00061
    는 상기 자율주행로봇에 등록된 지도로부터 계산된
    Figure 112018118760400-pat00062
    의 레퍼런스 거리이고,
    Figure 112018118760400-pat00063
    는 시간 t에서 측정된 복수의 거리 측정값 중 n%에 대응하는 개수이고,
    Figure 112018118760400-pat00064
    는 시간 t에서 측정된 복수의 거리 측정값 중 n%에 속하는 거리 측정값의 식별번호 i의 집합이다)에 의해 산출되고,
    Figure 112018118760400-pat00065
    는 시간 t에서의 상기 오차 평균값에 대한 가중치이다)에 의해 산출되는 것을 특징으로 하는 위치 추정 상태 자가 진단 방법.
  3. 제1항에 있어서,
    상기 방향각 오차 지표는 수학식
    Figure 112018118760400-pat00066

    (여기서,
    Figure 112018118760400-pat00067
    는 상기 방향각 오차 지표이고,
    Figure 112018118760400-pat00068
    는 수학식
    Figure 112018118760400-pat00069

    (여기서,
    Figure 112018118760400-pat00070
    는 시간 t에서의 상기 추정 방향각이고,
    Figure 112018118760400-pat00071
    는 시간 t에서의 상기 허용 방향각 범위의 최대 방향각이고,
    Figure 112018118760400-pat00072
    는 시간 t에서의 상기 허용 방향각 범위의 최소 방향각이다)에 산출되고,
    Figure 112018118760400-pat00073
    는 시간 t에서의
    Figure 112018118760400-pat00074
    에 대한 가중치이다)에 의해 산출되는 것을 특징으로 하는 위치 추정 상태 자가 진단 방법.
  4. 제3항에 있어서,
    상기 최대 방향각은 수학식
    Figure 112018118760400-pat00075
    에 의해 산출되고;
    상기 최소 방향각은 수학식
    Figure 112018118760400-pat00076
    에 의해 산출되며;
    Figure 112018118760400-pat00077
    는 시간 t-s에서 추정된 추정 방향각이고,
    Figure 112018118760400-pat00078
    에 의해 산출되고,
    Figure 112018118760400-pat00079
    Figure 112018118760400-pat00080
    는 각각 시간 t 및 시간 t-s에서 상기 자율주행로봇에 등록된 오도메트리 상의 오도메트리 방향각이고,
    Figure 112018118760400-pat00081
    는 상기 자율주행로봇의 불확실성을 반영한 매개변수인 것을 특징으로 하는 위치 추정 상태 자가 진단 방법.
  5. 삭제
  6. 위치 추정 상태 자가 진단을 수행하는 자율주행로봇에 있어서,
    거리 센서와,
    상기 거리 센서에 의해 측정된 거리 측정값에 기초하여 주행을 제어하고, 기계 학습 알고리즘이 기 등록된 메인 프로세서를 포함하며;
    (a) 상기 메인 프로세서에 거리 오차 지표와, 방향각 오차 지표, 및 상기 거리 오차 지표 및 상기 방향각 오차 지표에 대한 위치 추정 성공 여부가 상기 기계 학습 알고리즘의 학습 데이터로 등록되어 학습되는 단계와,
    (b) 상기 거리 센서에 의해 현 위치에서 복수의 거리 측정값이 측정되는 단계와,
    (c) 상기 메인 프로세서에 의해 현 위치에서의 추정 방향각이 추정되는 단계와,
    (d) 상기 메인 프로세서에 의해 복수의 상기 거리 측정값에 기초하여 현 위치에서의 거리 오차 지표가 산출되는 단계와,
    (e) 상기 메인 프로세서에 의해 상기 추정 방향각에 기초하여 현 위치에서의 방향각 오차 지표가 산출되는 단계와,
    (f) 상기 메인 프로세서에 의해 상기 (d) 단계 및 상기 (e) 단계에서 각각 산출된 상기 거리 오차 지표 및 상기 방향각 오차 지표가 상기 기계 학습 알고리즘에 입력되어 현 위치에서의 위치 추정 성공 여부가 출력되는 단계가 수행되어, 위치 추정 상태가 자가 진단되며;
    상기 메인 프로세서는
    상기 (a) 단계 및 상기 (d) 단계에서 상기 거리 오차 지표를 현 위치에서 측정된 복수의 거리 측정값 중 신뢰성이 높은 상위 n %의 거리 측정값들의 오차 평균값에 기초하여 산출하고,
    상기 (a) 단계 및 상기 (e) 단계에서 상기 방향각 오차 지표를 현 위치에서 추정된 추정 방향각과 현 위치에서의 허용 방향각 범위에 기초하여 산출하며,
    상기 기계 학습 알고리즘은 지도학습이 적용된 이진 분류 알고리즘을 포함하는 것을 특징으로 하는 위치 추정 상태 자가 진단을 수행하는 자율주행로봇.
  7. 제6항에 있어서,
    상기 거리 오차 지표는 수학식
    Figure 112018118760400-pat00082

    (여기서,
    Figure 112018118760400-pat00083
    는 상기 거리 오차 지표이고,
    Figure 112018118760400-pat00084
    는 상기 오차 평균값으로 수학식
    Figure 112018118760400-pat00085
    (여기서,
    Figure 112018118760400-pat00086
    는 시간 t에서 측정된 거리 센서의 i번째 거리 측정값이고,
    Figure 112018118760400-pat00087
    는 상기 자율주행로봇에 등록된 지도로부터 계산된
    Figure 112018118760400-pat00088
    의 레퍼런스 거리이고,
    Figure 112018118760400-pat00089
    는 시간 t에서 측정된 복수의 거리 측정값 중 n%에 대응하는 개수이고,
    Figure 112018118760400-pat00090
    는 시간 t에서 측정된 복수의 거리 측정값 중 n%에 속하는 거리 측정값의 식별번호 i의 집합이다)에 의해 산출되고,
    Figure 112018118760400-pat00091
    는 시간 t에서의 상기 오차 평균값에 대한 가중치이다)에 의해 산출되는 것을 특징으로 하는 위치 추정 상태 자가 진단을 수행하는 자율주행로봇.
  8. 제6항에 있어서,
    상기 방향각 오차 지표는 수학식
    Figure 112018118760400-pat00092

    (여기서,
    Figure 112018118760400-pat00093
    는 상기 방향각 오차 지표이고,
    Figure 112018118760400-pat00094
    는 수학식
    Figure 112018118760400-pat00095

    (여기서,
    Figure 112018118760400-pat00096
    는 시간 t에서의 상기 추정 방향각이고,
    Figure 112018118760400-pat00097
    는 시간 t에서의 상기 허용 방향각 범위의 최대 방향각이고,
    Figure 112018118760400-pat00098
    는 시간 t에서의 상기 허용 방향각 범위의 최소 방향각이다)에 산출되고,
    Figure 112018118760400-pat00099
    는 시간 t에서의
    Figure 112018118760400-pat00100
    에 대한 가중치이다)에 의해 산출되는 것을 특징으로 하는 위치 추정 상태 자가 진단을 수행하는 자율주행로봇.
  9. 제8항에 있어서,
    상기 최대 방향각은 수학식
    Figure 112018118760400-pat00101
    에 의해 산출되고;
    상기 최소 방향각은 수학식
    Figure 112018118760400-pat00102
    에 의해 산출되며;
    Figure 112018118760400-pat00103
    는 시간 t-s에서 추정된 추정 방향각이고,
    Figure 112018118760400-pat00104
    에 의해 산출되고,
    Figure 112018118760400-pat00105
    Figure 112018118760400-pat00106
    는 각각 시간 t 및 시간 t-s에서 상기 자율주행로봇에 등록된 오도메트리 상의 오도메트리 방향각이고,
    Figure 112018118760400-pat00107
    는 상기 자율주행로봇의 불확실성을 반영한 매개변수인 것을 특징으로 하는 위치 추정 상태 자가 진단을 수행하는 자율주행로봇.
  10. 삭제
KR1020180149336A 2018-11-28 2018-11-28 위치 추정 상태 진단 방법 및 이를 수행하는 자율주행로봇 KR102193914B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180149336A KR102193914B1 (ko) 2018-11-28 2018-11-28 위치 추정 상태 진단 방법 및 이를 수행하는 자율주행로봇

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180149336A KR102193914B1 (ko) 2018-11-28 2018-11-28 위치 추정 상태 진단 방법 및 이를 수행하는 자율주행로봇

Publications (2)

Publication Number Publication Date
KR20200063538A KR20200063538A (ko) 2020-06-05
KR102193914B1 true KR102193914B1 (ko) 2020-12-22

Family

ID=71089356

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180149336A KR102193914B1 (ko) 2018-11-28 2018-11-28 위치 추정 상태 진단 방법 및 이를 수행하는 자율주행로봇

Country Status (1)

Country Link
KR (1) KR102193914B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114248759B (zh) * 2020-09-24 2023-12-08 丰田自动车株式会社 混合动力车辆的控制装置及控制方法
CN114639163A (zh) * 2022-02-25 2022-06-17 纯米科技(上海)股份有限公司 行走程序的打分方法、系统、电子装置及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0161042B1 (ko) * 1994-06-07 1999-01-15 김광호 로보트의 주행제어장치 및 그 방법
KR101222298B1 (ko) * 2010-09-08 2013-01-15 고려대학교 산학협력단 2-륜 이동 로봇의 오도메트리 오차 보정 방법

Also Published As

Publication number Publication date
KR20200063538A (ko) 2020-06-05

Similar Documents

Publication Publication Date Title
US10996061B2 (en) Apparatus and associated method for use in updating map data
US9205742B2 (en) Apparatus and method for correcting offset of yaw rate sensor and system for controlling speed of vehicle with the said apparatus
EP3722894B1 (en) Control and monitoring of physical system based on trained bayesian neural network
CN111527382A (zh) 用于控制车辆的系统及方法
US11493930B2 (en) Determining changes in marker setups for robot localization
CN110834642B (zh) 车辆跑偏识别方法、装置、车辆及存储介质
CN113330279A (zh) 用于确定车辆的位置的方法和系统
JP5776324B2 (ja) 地図処理方法及びプログラム、並びにロボットシステム
KR102193914B1 (ko) 위치 추정 상태 진단 방법 및 이를 수행하는 자율주행로봇
Hashimoto et al. A multi-model based fault detection and diagnosis of internal sensors for mobile robot
JP6191484B2 (ja) 移動ロボットの自己位置推定方法
Jacobson et al. Autonomous Multisensor Calibration and Closed‐loop Fusion for SLAM
Nobre et al. Drift-correcting self-calibration for visual-inertial SLAM
CN113175935A (zh) 用于识别车辆环境中的对象的方法
CN112572460A (zh) 用于求横摆速率的高精度估计值的方法和设备及存储介质
JP2019191498A (ja) 地図作成装置
US11899750B2 (en) Quantile neural network
JP2019207177A (ja) 自己位置推定装置
US10572802B1 (en) Learning state-dependent sensor measurement models for localization
Rudin et al. A sensor fault detection for aircraft using a single Kalman filter and hidden Markov models
CN111497939B (zh) 用于自主行驶车辆的方法和装置
JP2016224680A (ja) 自己位置推定装置及び自己位置推定装置を備えた移動体
Williams et al. Integration of Learning Classifier Systems with simultaneous localisation and mapping for autonomous robotics
CN112849125A (zh) 打滑检测控制方法、装置、移动机器人及存储介质
Shen et al. An integrated localization system with fault detection, isolation and recovery for autonomous vehicles

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant