KR102259247B1 - 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 방법과 시스템 - Google Patents

공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 방법과 시스템 Download PDF

Info

Publication number
KR102259247B1
KR102259247B1 KR1020190161526A KR20190161526A KR102259247B1 KR 102259247 B1 KR102259247 B1 KR 102259247B1 KR 1020190161526 A KR1020190161526 A KR 1020190161526A KR 20190161526 A KR20190161526 A KR 20190161526A KR 102259247 B1 KR102259247 B1 KR 102259247B1
Authority
KR
South Korea
Prior art keywords
observation
gaussian distribution
unit
values
localization
Prior art date
Application number
KR1020190161526A
Other languages
English (en)
Inventor
배기덕
이정우
박지현
엄태영
최영호
Original Assignee
한국로봇융합연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국로봇융합연구원 filed Critical 한국로봇융합연구원
Priority to KR1020190161526A priority Critical patent/KR102259247B1/ko
Priority to PCT/KR2020/009056 priority patent/WO2021112362A1/ko
Application granted granted Critical
Publication of KR102259247B1 publication Critical patent/KR102259247B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Abstract

본 발명의 실시예에 따른 다중 위치인식 결과 융합을 통한 강화 위치 인식 시스템은 로봇을 센싱하여 서로 다른 형식의 센싱값을 도출하는 복수의 센서를 포함하는 센서부와, 상기 복수의 센서가 도출한 센싱값으로부터 복수의 서로 다른 위치 인식 알고리즘을 통해 상기 로봇의 위치를 계산하여 서로 다른 형식의 복수의 관측값을 출력하는 복수의 관측모듈을 포함하는 관측부와, 상기 서로 다른 형식의 복수의 관측값을 가우시안 분포인 공분산 행렬로 변환하는 복수의 변환모듈을 포함하는 변환부와, 상기 복수의 관측값의 가우시안 분포를 하나의 가우시안 분포로 병합하는 병합부와, 상기 병합된 하나의 가우시안 분포로부터 상기 로봇의 위치를 예측하여 예측값을 도출하는 예측부를 포함한다.

Description

공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 방법과 시스템{Strong Localization Method and System through Convergence of Multiple Localization Based on Covariance Matrix}
본 발명은 위치 인식 기술에 관한 것으로, 보다 상세하게는, 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 방법과 시스템에 관한 것이다.
대부분의 로봇 시스템, 특히 이동형 로봇 시스템에 있어서 로봇이 스스로 어디에 있는지 파악하는 위치인식은 필수적인 기술이다. 위치인식을 위해 다양한 센서와 방법들이 연구되고 있다. 위치인식에 사용되는 대표적인 센서로는 사람의 눈 역할을 하는 비전센서, 위성으로부터 절대적인 좌표를 받을 수 있는 GPS, 여러 방향으로 레이저를 발사하고 반사되어 들어오는 정도를 통해 거리를 측정하는 LIDAR 등이 있다. 위의 센서들은 각각 고유한 특성을 지니고 있는데 이러한 특성을 이용하여 위치인식 알고리즘 방식이 개발되어 왔다. 하지만 센서마다 약점이 존재하고 이로 인해 사용하는 환경에 따라서는 성능이 저하되는 경우가 발생한다.
비전센서를 이용한 대표적인 위치인식 기술로는 ORB가 있다. 비전센서의 출력 데이터인 2D 이미지에서 특징점(모서리, 경계점 등)을 추출하여 그것을 3차원의 점 형태로 저장한다. 이 알고리즘의 문제점으로는 현재 프레임에서의 이미지와 이전 프레임에서의 이미지를 비교하여 점까지의 거리를 연산하기 때문에 거리 값이 부정확하고 그로 인해 스케일이 달라지는 점이 있다.
GPS를 이용한 위치인식 기술은 범용으로 자동차 내비게이션에서 사용하고 있다. 익히 알려진 것처럼 오차 값이 미터 단위로 발생하므로 정밀한 위치인식이 필요한 곳에서는 사용하기 힘들다.
LIDAR(light detection and ranging)를 이용한 위치인식 기술로는 EKF(extended Kalman filter) Localization이나 AMCL이 있다. 두 알고리즘 모두 바퀴의 회전 값을 예측값으로 사용 후 LIDAR의 값으로 예측값을 보정하는 형태로 사용하는 알고리즘이다. LIDAR가 100m 내에서는 다른 센서에 비해 측정값이 정확하다는 특성으로 인해 위치인식 정확도 또한 비교적 높다. 하지만 가로방향에 비해 세로방향으로의 해상도가 떨어지는 점, Laser의 거리값 만으로는 차이를 분간하기 힘든 환경에서의 한계, LIDAR 주변에 장애물이 있을 경우 온전한 측정 불가하다는 점 등의 문제로 인해 모든 환경이나 상황에 적용하기 힘들다는 한계가 명확하다.
한국공개특허 제2018-0053482호 2018년 05월 23일 공개 (명칭: 로봇 머니퓰레이터 제어 방법)
상술한 바와 같은 점을 감안한 본 발명의 목적은 다양한 형식 및 종류의 센서를 조합하는 경우에도 유연하게 범용적으로 사용할 수 있어 센서 구성에 제약을 해소할 수 있는 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 방법과 시스템을 제공함에 있다.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 다중 위치인식 결과 융합을 통한 강화 위치 인식 시스템은 로봇을 센싱하여 서로 다른 형식의 센싱값을 도출하는 복수의 센서를 포함하는 센서부와, 상기 복수의 센서가 도출한 센싱값으로부터 복수의 서로 다른 위치 인식 알고리즘을 통해 상기 로봇의 위치를 계산하여 서로 다른 형식의 복수의 관측값을 출력하는 복수의 관측모듈을 포함하는 관측부와, 상기 서로 다른 형식의 복수의 관측값을 가우시안 분포인 공분산 행렬로 변환하는 복수의 변환모듈을 포함하는 변환부와, 상기 복수의 관측값의 가우시안 분포를 하나의 가우시안 분포로 병합하는 병합부와, 상기 병합된 하나의 가우시안 분포로부터 상기 로봇의 위치를 예측하여 예측값을 도출하는 예측부를 포함한다.
상기 예측값을 상기 변환부의 복수의 변환모듈 각각에 피드백하는 피드백부;를 더 포함하며, 상기 피드백부로부터 예측부의 예측값이 피드백되면, 상기 복수의 변환모듈 각각은 상기 공분산 행렬로 변환된 관측값의 가우시안 분포에 상기 피드백된 예측값의 가우시안 분포를 병합하여 관측값의 공분산 행렬을 갱신하는 것을 특징으로 한다.
상기 복수의 센서는 LIDAR(light detection and ranging) 센서 및 비전 센서를 포함한다.
상기 위치인식알고리즘은 EKF(extended Kalman filter) Localization, EIF(Eukaryotic Initiation Factors) Localization, PF(Particle filter) Localization 및 AMCL(adaptive Monte Carlo Localization), Visual SLAM(simultaneous localization and mapping), ORB(Oriented FAST and Rotated BRIEF)-SLAM, Direct SLAM, LSD-SLAM 및 Graph-based SLAM 중 적어도 하나를 포함하는 것을 특징으로 한다.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 다중 위치인식 결과 융합을 통한 강화 위치 인식 방법은 센서부의 복수의 센서 각각이 로봇을 센싱하여 서로 다른 형식의 센싱값을 도출하는 단계와, 관측부의 복수의 관측모듈 각각이 상기 복수의 센서가 도출한 센싱값으로부터 복수의 서로 다른 위치 인식 알고리즘을 통해 상기 로봇의 위치를 계산하여 서로 다른 형식의 복수의 관측값을 출력하는 단계와, 변환부의 복수의 변환모듈이 상기 서로 다른 형식의 복수의 관측값을 가우시안 분포인 공분산 행렬로 변환하는 단계와, 병합부가 상기 복수의 관측값의 가우시안 분포를 하나의 가우시안 분포로 병합하는 단계와, 예측부가 상기 병합된 하나의 가우시안 분포로부터 상기 로봇의 위치를 예측하여 예측값을 도출하는 단계를 포함한다.
상기 방법은 상기 공분산 행렬로 변환하는 단계 후, 상기 하나의 가우시안 분포로 병합하는 단계 전, 피드백부로부터 예측부의 예측값이 피드백되면, 상기 복수의 변환모듈 각각이 공분산 행렬로 변환된 관측값의 가우시안 분포에 피드백된 예측값의 가우시안 분포를 병합하여 관측값의 가수시안 분포 형태의 공분산 행렬을 갱신하는 단계를 더 포함한다.
상기 복수의 센서는 LIDAR(light detection and ranging) 센서 및 Vision 센서를 포함한다.
상기 위치인식알고리즘은 EKF(extended Kalman filter) Localization, EIF(Eukaryotic Initiation Factors) Localization, PF(Particle filter) Localization 및 AMCL(adaptive Monte Carlo Localization), Visual SLAM(simultaneous localization and mapping), ORB(Oriented FAST and Rotated BRIEF)-SLAM, Direct SLAM, LSD-SLAM 및 Graph-based SLAM 중 적어도 하나를 포함한다.
본 발명에 따르면, 로봇에 있어 필수적인 위치인식 기술에서 기존 센서 융합을 통한 위치인식 방법을 공분산 행렬 기반의 병합(Integration) 알고리즘을 통해 유연성과 범용성을 보완하고 이를 통해 다양한 환경에 적용이 쉽고 센서 구성에 제약을 해소할 수 있게 한다.
도 1은 본 발명의 실시예에 따른 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 시스템의 구성을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 방법을 설명하기 위한 흐름도이다.
본 발명의 상세한 설명에 앞서, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시예에 불과할 뿐, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음을 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다.
먼저, 본 발명의 실시예에 따른 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 시스템에 대해서 설명하기로 한다. 도 1은 본 발명의 실시예에 따른 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 시스템의 구성을 설명하기 위한 도면이다.
도 1을 참조하면, 본 발명의 실시예에 따른 다중 위치인식 결과 융합을 통한 강화 위치인식 시스템(10, 이하, '강화 위치인식 시스템'으로 축약함)은 센서부(100), 관측부(200), 변환부(300), 병합부(400), 예측부(500) 및 갱신부(600)를 포함한다.
센서부(100)는 복수의 센서(110, 120)를 포함한다. 복수의 센서(110, 120)는 서로 다른 종류의 센서이며, 서로 다른 형식의 출력값을 가진다. 이에 따라, 복수의 센서(110, 120)는 관측 대상인 로봇을 센싱하여 서로 다른 형식, 즉, 센서 각각의 출력 형식에 따라 의 센싱값을 출력한다. 예컨대, 제1 센서(110)는 LIDAR(light detection and ranging) 센서이고, 제2 센서(120)는 비전(Vision) 센서가 될 수 있다. 이와 같이, 본 실시예에서는 센서부(100)가 LIDAR 센서 및 비전 센서로 이루어지는 것으로 설명되지만, 본 발명이 이에 한정되는 것은 아니다. 본 발명의 센서부(100)는 2 이상의 센서를 이용할 수 있으며, 그 종류의 제한은 없다.
관측부(200)는 복수의 관측모듈(210, 220, 230, 240)을 포함한다. 복수의 관측모듈(210, 220, 230, 240)은 위치 인식 알고리즘으로 동작하며, 이 알고리즘을 통해 위치를 계산하여 관측값을 출력한다. 복수의 관측모듈(210, 220, 230, 240) 각각은 센서부(100)의 복수의 센서 중 어느 하나에 대응한다. 이에 따라, 복수의 관측모듈(210, 220, 230, 240) 각각은 센서부(100)의 대응하는 센서가 출력한 센싱값으로부터 관측모듈(210, 220, 230, 240) 각각의 위치 인식 알고리즘을 통해 로봇의 위치를 계산하여 서로 다른 형식의 복수의 관측값을 출력한다.
본 발명의 실시예에서 제1 관측모듈(210)은 EKF(extended Kalman filter) Localization 알고리즘, 제2 관측모듈(220)은 PF(Particle filter) Localization 알고리즘, 제3 관측모듈(230)은 EKF(extended Kalman filter) Localization 알고리즘, 제4 관측모듈(240)은 ORB(Oriented FAST and Rotated BRIEF)-SLAM(simultaneous localization and mapping) 알고리즘이 적용된다.
제1 관측모듈(210) 및 제2 관측모듈(220)은 제1 센서(110)에 대응한다. 이에 따라, 제1 관측모듈(210)은 제1 센서(110)의 센서값인 LIDAR 데이터가 입력되면, LIDAR 데이터로부터 EKF 알고리즘으로 로봇의 위치를 연산하여 관측값을 출력한다. 또한, 제2 관측모듈(220)은 제1 센서(110)의 센서값인 LIDAR 데이터가 입력되면, LIDAR 데이터로부터 PF 알고리즘을 통해 로봇의 위치를 연산하여 관측값을 출력한다. 제3 관측모듈(230) 및 제4 관측모듈(240)은 제2 센서(120)에 대응한다. 이에 따라, 제3 관측모듈(230)은 제2 센서(120)의 센서값인 비전센서 데이터가 입력되면, 비전센서 데이터로부터 EKF 알고리즘을 통해 로봇의 위치를 연산하여 관측값을 출력한다. 또한, 제4 관측모듈(240)은 제2 센서(120)의 센서값인 비전센서 데이터가 입력되면, 비전센서 데이터로부터 ORB-SLAM 알고리즘을 통해 로봇의 위치를 연산하여 관측값을 출력한다.
한편, 위치 인식 알고리즘으로 4개의 알고리즘을 이용하는 것으로 설명하였지만, 본 발명이 이에 한정되는 것은 아니며, 센서값으로부터 로봇의 위치를 계산할 수 있는 위치 인식 알고리즘이라면 그 종류의 제한은 없다. 이러한 위치 인식 알고리즘은 예컨대, EKF(extended Kalman filter) Localization, EIF(Eukaryotic Initiation Factors) Localization, PF(Particle filter) Localization 및 AMCL(adaptive Monte Carlo Localization), Visual SLAM(simultaneous localization and mapping), ORB(Oriented FAST and Rotated BRIEF)-SLAM, Direct SLAM, LSD-SLAM 및 Graph-based SLAM 등을 예시할 수 있다.
변환부(300)는 복수의 변환모듈(310)을 포함한다. 변환모듈(310) 각각은 관측모듈(210, 220, 230, 240)에 일대일 대응한다.
변환모듈(310)은 대응하는 관측모듈(210, 220, 230, 240)의 출력인 관측값이 입력되면, 입력된 관측값을 가우시안 분포 형태인 공분산 행렬로 변환한다. 이때, 변환모듈(310)은 대응하는 관측모듈(210, 220, 230, 240)의 출력인 관측값이 가우시안 분포 형태인 공분산 행렬인지 여부를 판별한다. 이러한 판별 결과, 해당 관측값이 공분산 행렬이 아닌 경우, 변환모듈(310)은 그 관측값을 공분산 행렬로 변환한다. 반면, 해당 관측값이 공분산 행렬인 경우, 변환모듈(310)은 그 관측값을 바이패스(bypass)한다. 전술한 바와 같이, 제1 관측모듈(210) 및 제3 관측모듈(230)은 EKF 알고리즘을 사용하고, 제2 관측모듈(220)은 PF 알고리즘을 사용한다. 이에 따라, 제1 내지 제3 관측모듈(210, 220, 230)로부터 출력되는 관측값은 모두 가우시안 분포 형태인 공분산 행렬로 출력된다. 따라서 제1 내지 제3 관측모듈(210, 220, 230)에 대응하는 변환모듈(310)은 제1 내지 제3 관측모듈(210, 220, 230)에서 출력되는 관측값을 바이패스한다. 반면, 제4 관측모듈(240)은 ORB-SLAM 알고리즘을 이용한다. 따라서 제4 관측모듈(240)의 출력인 관측값은 2차원 좌표값으로 출력된다. 따라서 제4 관측모듈(240)에 대응하는 변환모듈(310)은 제4 관측모듈(240)에서 출력되는 관측값을 별도로 가우시안 분포 형태인 공분산 행렬로 변환한다. 이때, 변환모듈(310)은 제2 센서(120)의 규격과 알고리즘 자체의 오차를 변수로 하는 변환식을 통해 제4 관측모듈(240)의 출력인 관측값인 2차원 좌표값을 가우시안 분포 형태인 공분산 행렬로 변환할 수 있다.
변환모듈(310)은 앞서 설명된 바와 같이, 대응하는 관측모듈(210, 220, 230, 240)의 관측값을 가우시안 분포 형태인 공분산 행렬로 변환한 후, 갱신부(600)로부터 로봇의 위치의 예측값이 피드백되면, 관측값의 가우시안 분포에 예측값의 가우시안 분포를 병합하여 관측값의 가수시안 분포 형태의 공분산 행렬을 갱신할 수 있다. 반면, 변환모듈(310)은 갱신부(600)로부터 피드백되는 로봇의 위치의 대한 예측값이 없으면, 변환모듈(310)은 관측값의 공분산 행렬을 그대로 출력한다.
병합부(400)는 복수의 변환모듈(310)로부터 가수시안 분포를 가지는 공분산 행렬로 변환된 관측값이 입력되면, 복수의 관측값의 가수시안 분포를 하나의 가우시안 분포로 병합한다.
예측부(500)는 병합부(400)에 의해 병합된 하나의 가우시안 분포로부터 상기 로봇의 위치를 예측한 예측값을 도출한다.
갱신부(600)는 예측부(500)의 출력을 변환부(300)의 복수의 변환모듈(310) 각각에 피드백한다. 그러면, 복수의 변환모듈(310) 각각은 대응하는 관측모듈(210, 220, 230, 240)의 관측값을 가우시안 분포 형태인 공분산 행렬로 변환한 후, 관측값의 가우시안 분포에 예측값의 가우시안 분포를 병합하여 관측값의 가수시안 분포 형태의 공분산 행렬을 갱신할 수 있다. 여기서, 피드백된 예측값의 가우시안 분포는 시간 t의 로봇의 위치의 확률이고, 관측값은 시간 t+1의 로봇의 위치의 확률이 될 수 있다. 따라서 전술한 피드백의 반복에 따라 가우시안 분포를 누적하여 병합함으로써 보다 정밀한 로봇의 위치를 예측할 수 있다. 만약, 센서부(100)의 센서의 노이즈가 발생할 경우 변환부(300)의 공분산 행렬의 가우시안 분포들은 다시 그 범위가 커지게 되지만 피드백 과정을 반복하면 모든 공분산 행렬들이 하나의 분포로 점점 수렴해가게 된다. 즉, 자연스럽게 노이즈 필터 역할도 수행한다.
다음으로, 본 발명의 실시예에 따른 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 방법에 대해서 설명하기로 한다. 도 2는 본 발명의 실시예에 따른 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 방법을 설명하기 위한 흐름도이다.
도 2를 참조하면, 센서부(100)의 복수의 센서(110, 120)는 S110 단계에서 로봇을 센싱하여 서로 다른 형식의 센싱값을 도출한다. 여기서, 복수의 센서(110, 120)는 서로 다른 종류의 센서이며, 서로 다른 형식의 출력값을 가진다. 즉, 복수의 센서(110, 120)는 관측 대상인 로봇을 센싱하여 센서(110, 120) 각각의 출력 형식에 따라 센싱값을 출력한다. 예컨대, 제1 센서(110)는 LIDAR(light detection and ranging) 센서이고, 제2 센서(120)는 비전(Vision) 센서가 될 수 있다.
복수의 관측모듈(210, 220, 230, 240) 각각은 센서부(100)의 복수의 센서 중 어느 하나에 대응한다. 이에 따라, 복수의 관측모듈(210, 220, 230, 240) 각각은 S120 단계에서 센서부(100)의 대응하는 센서(110, 120)가 출력한 센싱값으로부터 관측모듈(210, 220, 230, 240) 각각의 위치 인식 알고리즘을 통해 로봇의 위치를 계산하여 서로 다른 형식의 복수의 관측값을 출력한다. 본 발명의 실시예에서 제1 관측모듈(210)은 EKF 알고리즘, 제2 관측모듈(220)은 PF 알고리즘, 제3 관측모듈(230)은 EKF 알고리즘, 제4 관측모듈(240)은 ORB-SLAM 알고리즘이 적용될 수 있다. 또한, 제1 관측모듈(210) 및 제2 관측모듈(220)은 제1 센서(110)에 대응하고, 제3 관측모듈(230) 및 제4 관측모듈(240)은 제2 센서(120)에 대응한다. 이에 따라, 제1 관측모듈(210)은 제1 센서(110)의 센서값인 LIDAR 데이터로부터 EKF 알고리즘으로 로봇의 위치를 연산하여 관측값을 출력하고, 제2 관측모듈(220)은 제1 센서(110)의 센서값인 LIDAR 데이터로부터 PF 알고리즘을 통해 로봇의 위치를 연산하여 관측값을 출력한다. 또한, 제3 관측모듈(230)은 제2 센서(120)의 센서값인 비전센서 데이터로부터 EKF 알고리즘을 통해 로봇의 위치를 연산하여 관측값을 출력하고, 제4 관측모듈(240)은 제2 센서(120)의 센서값인 비전센서 데이터로부터 ORB-SLAM 알고리즘을 통해 로봇의 위치를 연산하여 관측값을 출력한다.
변환부(300)의 복수의 변환모듈(310) 각각은 관측모듈(210, 220, 230, 240)에 일대일 대응한다. 이에 따라, 변환부(300)의 복수의 변환모듈(310) 각각은 S130 단계에서 대응하는 관측모듈(210, 220, 230, 240)의 출력인 관측값이 입력되면, 입력된 관측값을 가우시안 분포 형태인 공분산 행렬로 변환한다. 이때, 변환모듈(310)은 대응하는 관측모듈(210, 220, 230, 240)의 출력인 관측값이 가우시안 분포 형태인 공분산 행렬이 아닌 경우, 변환모듈(310)은 그 관측값을 공분산 행렬로 변환한다. 반면, 해당 관측값이 공분산 행렬인 경우, 변환모듈(310)은 그 관측값을 바이패스(bypass)할 수 있다. 전술한 바와 같이, 제1 관측모듈(210) 및 제3 관측모듈(230)은 EKF 알고리즘을 사용하고, 제2 관측모듈(220)은 PF 알고리즘을 사용한다. 이에 따라, 제1 내지 제3 관측모듈(210, 220, 230)로부터 출력되는 관측값은 모두 가우시안 분포 형태인 공분산 행렬로 출력된다. 따라서 제1 내지 제3 관측모듈(210, 220, 230)에 대응하는 변환모듈(310)은 제1 내지 제3 관측모듈(210, 220, 230)에서 출력되는 관측값을 바이패스한다. 반면, 제4 관측모듈(240)은 ORB-SLAM 알고리즘을 이용한다. 따라서 제4 관측모듈(240)의 출력인 관측값은 2차원 좌표값으로 출력된다. 따라서 제4 관측모듈(240)에 대응하는 변환모듈(310)은 제4 관측모듈(240)에서 출력되는 관측값을 별도로 가우시안 분포 형태인 공분산 행렬로 변환한다.
다음으로, S140 단계에서 피드백이 존재하는지 여부를 판별하고, 피드백이 존재하는 경우, 변환부(300)의 복수의 변환모듈(310) 각각은 S150 단계에서 공분산 행렬로 변환된 관측값의 가우시안 분포에 피드백된 예측값의 가우시안 분포를 병합하여 관측값의 가수시안 분포 형태의 공분산 행렬을 갱신한다. 관측값이 시간 t의 로봇의 위치의 확률이라면, 피드백된 예측값의 가우시안 분포는 시간 t-1의 로봇의 위치의 확률이 될 수 있다.
다음으로, 병합부(400)는 복수의 변환모듈(310)로부터 가수시안 분포를 가지는 공분산 행렬인 관측값이 입력되면, S160 단계에서 복수의 관측값의 가수시안 분포를 하나의 가우시안 분포로 병합한다.
그런 다음, 예측부(500)는 S170 단계에서 병합부(400)에 의해 병합된 하나의 가우시안 분포로부터 로봇의 위치를 예측한 예측값을 도출한다.
갱신부(600)는 S180 단계에서 예측부(500)의 출력을 변환부(300)의 복수의 변환모듈(310) 각각에 피드백한다.
전술한 S110 단계 내지 S180 단계는 로봇의 위치를 지속적으로 추적하기 위한 것이기 때문에 로봇이 위치를 추적하는 프로세스가 종료되기 전까지 지속적으로 반복된다.
한편, 전술한 본 발명의 실시예에 따른 방법은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media) 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
다른 한편, 종래의 센서의 융합을 통한 위치인식 방법은 여러 센서 데이터를 쉽게 사용할 수 있다는 장점이 있지만 센서의 구성이 달라질 경우 위치인식 방법 또한 달라질 수 있다. 즉, 센서 구성이 유연하지 않다는 단점이 있다. 하지만, 본 발명은 각 센서들을 이용한 위치인식 결과를 공분산 행렬 형태로 변형하고 이를 기반으로 다양한 환경에 강인하고 어느 센서 구성에서나 사용이 가능한 융합 위치인식 방법과 시스템을 제공할 수 있다.
이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이, 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다.
100: 센서부
200: 관측부
300: 변환부
400: 병합부
500: 예측부
600: 갱신부

Claims (8)

  1. 다중 위치인식 결과 융합을 통한 강화 위치 인식 시스템에 있어서,
    로봇을 센싱하여 서로 다른 형식의 센싱값을 도출하는 복수의 센서를 포함하는 센서부;
    상기 복수의 센서가 도출한 센싱값으로부터 복수의 서로 다른 위치 인식 알고리즘을 통해 상기 로봇의 위치를 계산하여 서로 다른 형식의 복수의 관측값을 출력하는 복수의 관측모듈을 포함하는 관측부;
    상기 서로 다른 형식의 복수의 관측값을 가우시안 분포인 공분산 행렬로 변환하는 복수의 변환모듈을 포함하는 변환부;
    상기 복수의 관측값의 가우시안 분포를 하나의 가우시안 분포로 병합하는 병합부;
    상기 병합된 하나의 가우시안 분포로부터 상기 로봇의 위치를 예측하여 예측값을 도출하는 예측부; 및
    상기 예측값을 상기 변환부의 복수의 변환모듈 각각에 피드백하는 피드백부;
    를 포함하며,
    상기 피드백부로부터 예측부의 예측값이 피드백되면,
    상기 복수의 변환모듈 각각은 상기 공분산 행렬로 변환된 관측값의 가우시안 분포에 상기 피드백된 예측값의 가우시안 분포를 병합하여 관측값의 공분산 행렬을 갱신하는 것을 특징으로 하는
    강화 위치 인식 시스템.
  2. 삭제
  3. 제1항에 있어서,
    상기 복수의 센서는
    LIDAR(light detection and ranging) 센서 및 비전 센서를 포함하는 것을 특징으로 하는
    강화 위치 인식 시스템.
  4. 제1항에 있어서,
    상기 위치인식알고리즘은
    EKF(extended Kalman filter) Localization, EIF(Eukaryotic Initiation Factors) Localization, PF(Particle filter) Localization 및 AMCL(adaptive Monte Carlo Localization), Visual SLAM(simultaneous localization and mapping), ORB(Oriented FAST and Rotated BRIEF)-SLAM, Direct SLAM, LSD-SLAM 및 Graph-based SLAM 중 적어도 하나를 포함하는 것을 특징으로 하는
    강화 위치 인식 시스템.
  5. 다중 위치인식 결과 융합을 통한 강화 위치 인식 방법에 있어서,
    센서부의 복수의 센서 각각이 로봇을 센싱하여 서로 다른 형식의 센싱값을 도출하는 단계;
    관측부의 복수의 관측모듈 각각이 상기 복수의 센서가 도출한 센싱값으로부터 복수의 서로 다른 위치 인식 알고리즘을 통해 상기 로봇의 위치를 계산하여 서로 다른 형식의 복수의 관측값을 출력하는 단계;
    변환부의 복수의 변환모듈이 상기 서로 다른 형식의 복수의 관측값을 가우시안 분포인 공분산 행렬로 변환하는 단계;
    병합부가 상기 복수의 관측값의 가우시안 분포를 하나의 가우시안 분포로 병합하는 단계; 및
    예측부가 상기 병합된 하나의 가우시안 분포로부터 상기 로봇의 위치를 예측하여 예측값을 도출하는 단계;를 포함하며,
    상기 공분산 행렬로 변환하는 단계 후, 상기 하나의 가우시안 분포로 병합하는 단계 전,
    피드백부로부터 예측부의 예측값이 피드백되면,
    상기 복수의 변환모듈 각각이 공분산 행렬로 변환된 관측값의 가우시안 분포에 피드백된 예측값의 가우시안 분포를 병합하여 관측값의 가수시안 분포 형태의 공분산 행렬을 갱신하는 단계;를 더 포함하는 것을 특징으로 하는
    강화 위치 인식 방법.
  6. 삭제
  7. 제5항에 있어서,
    상기 복수의 센서는
    LIDAR(light detection and ranging) 센서 및 Vision 센서를 포함하는 것을 특징으로 하는
    강화 위치 인식 방법.
  8. 제5항에 있어서,
    상기 위치인식알고리즘은
    EKF(extended Kalman filter) Localization, EIF(Eukaryotic Initiation Factors) Localization, PF(Particle filter) Localization 및 AMCL(adaptive Monte Carlo Localization), Visual SLAM(simultaneous localization and mapping), ORB(Oriented FAST and Rotated BRIEF)-SLAM, Direct SLAM, LSD-SLAM 및 Graph-based SLAM 중 적어도 하나를 포함하는 것을 특징으로 하는
    강화 위치 인식 방법.
KR1020190161526A 2019-12-06 2019-12-06 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 방법과 시스템 KR102259247B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190161526A KR102259247B1 (ko) 2019-12-06 2019-12-06 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 방법과 시스템
PCT/KR2020/009056 WO2021112362A1 (ko) 2019-12-06 2020-07-09 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 방법과 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190161526A KR102259247B1 (ko) 2019-12-06 2019-12-06 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 방법과 시스템

Publications (1)

Publication Number Publication Date
KR102259247B1 true KR102259247B1 (ko) 2021-06-01

Family

ID=76221973

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190161526A KR102259247B1 (ko) 2019-12-06 2019-12-06 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 방법과 시스템

Country Status (2)

Country Link
KR (1) KR102259247B1 (ko)
WO (1) WO2021112362A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230115027A (ko) 2022-01-26 2023-08-02 부경대학교 산학협력단 Uwb 및 amcl 기반 모바일 로봇의 실내 위치 측위 정확도를 높이기 위한 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130049610A (ko) * 2011-11-04 2013-05-14 삼성전자주식회사 이동 기기 및 보행 로봇
KR20150114892A (ko) * 2014-04-02 2015-10-13 더 보잉 컴파니 센서 융합을 이용한 환경 내에서의 로컬라이제이션
KR20180053482A (ko) 2016-11-11 2018-05-23 고려대학교 산학협력단 로봇 머니퓰레이터 제어 방법

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101439921B1 (ko) * 2012-06-25 2014-09-17 서울대학교산학협력단 비젼 센서 정보와 모션 센서 정보를 융합한 모바일 로봇용 slam 시스템
KR101866014B1 (ko) * 2016-03-22 2018-06-08 현대자동차주식회사 차량의 측면충돌 회피 시스템 및 그 방법
KR102135560B1 (ko) * 2018-05-16 2020-07-20 주식회사 유진로봇 카메라와 라이다를 이용한 융합 센서 및 이동체

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130049610A (ko) * 2011-11-04 2013-05-14 삼성전자주식회사 이동 기기 및 보행 로봇
KR20150114892A (ko) * 2014-04-02 2015-10-13 더 보잉 컴파니 센서 융합을 이용한 환경 내에서의 로컬라이제이션
KR20180053482A (ko) 2016-11-11 2018-05-23 고려대학교 산학협력단 로봇 머니퓰레이터 제어 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230115027A (ko) 2022-01-26 2023-08-02 부경대학교 산학협력단 Uwb 및 amcl 기반 모바일 로봇의 실내 위치 측위 정확도를 높이기 위한 장치 및 방법

Also Published As

Publication number Publication date
WO2021112362A1 (ko) 2021-06-10

Similar Documents

Publication Publication Date Title
US10436884B2 (en) Calibration of laser and vision sensors
JP7179110B2 (ja) 測位方法、装置、計算装置、コンピュータ可読記憶媒体及びコンピュータプログラム
US10853669B2 (en) Object recognition device, object recognition method and self-driving system
EP3343307A1 (en) Mapping method, localization method, robot system, and robot
KR102168753B1 (ko) 카메라와 레이더 센서 융합 기반 3차원 객체 검출을 위한 전자 장치 및 그의 동작 방법
CN110645974A (zh) 一种融合多传感器的移动机器人室内地图构建方法
KR102547274B1 (ko) 이동 로봇 및 이의 위치 인식 방법
US20190113603A1 (en) Method for predicting a motion of an object
KR20180038154A (ko) 라이다 센서를 이용한 차량의 자세 추정 방법
CN113776519B (zh) 一种无光动态开放环境下agv车辆建图与自主导航避障方法
US10974730B2 (en) Vehicle perception system on-line diangostics and prognostics
KR102259247B1 (ko) 공분산 행렬 기반의 다중 위치인식 결과 융합을 통한 강화 위치인식 방법과 시스템
US11745740B2 (en) Dynamically modifiable map
Cheng et al. Underwater localization and mapping based on multi-beam forward looking sonar
CN110426714B (zh) 一种障碍物识别方法
KR20100066952A (ko) 스테레오 비전을 이용하여 장애물을 추적하는 장치 및 방법
US20220068017A1 (en) Method of adjusting grid spacing of height map for autonomous driving
CN108544491B (zh) 一种综合考虑距离与方向两因素的移动机器人避障方法
CN114018269A (zh) 定位方法、装置、电子设备、存储介质以及自动驾驶车辆
US20150073707A1 (en) Systems and methods for comparing range data with evidence grids
CN112630798A (zh) 用于估计地面的方法和装置
Kim et al. Fusing lidar, radar, and camera using extended Kalman filter for estimating the forward position of vehicles
Hoang et al. Proposal of algorithms for navigation and obstacles avoidance of autonomous mobile robot
KR102026114B1 (ko) 무인 항공기의 도심 항법 위치 추정장치 및 방법
EP4257926A1 (en) Information processing device, control method, program, and recording medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant