KR20220005025A - 동시 위치인식 및 지도작성 방법 - Google Patents

동시 위치인식 및 지도작성 방법 Download PDF

Info

Publication number
KR20220005025A
KR20220005025A KR1020217037754A KR20217037754A KR20220005025A KR 20220005025 A KR20220005025 A KR 20220005025A KR 1020217037754 A KR1020217037754 A KR 1020217037754A KR 20217037754 A KR20217037754 A KR 20217037754A KR 20220005025 A KR20220005025 A KR 20220005025A
Authority
KR
South Korea
Prior art keywords
robot
path
measurements
determined
sensors
Prior art date
Application number
KR1020217037754A
Other languages
English (en)
Inventor
마시밀리아노 루포
잔 더블유. 코베르만
크지슈토프 주라드
Original Assignee
테라비 에스.에이.에스.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 테라비 에스.에이.에스. filed Critical 테라비 에스.에이.에스.
Publication of KR20220005025A publication Critical patent/KR20220005025A/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Geometry (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

구역에서 이동 가능한 로봇의 위치인식과 물체의 로봇에 의한 지도작성을 동시에 수행하는 방법을 제공한다. 이 방법은 하나 이상의 거리 측정 센서를 로봇에 제공하는 단계로, 로봇은 하나 이상의 거리 측정 센서에 의해 물체를 검출할 수 있고; 벽 추종 알고리즘을 실행하여, 이 벽 추종 알고리즘에 의해 얻은 제1 일주 경로를 따라 하나 이상의 거리 측정 센서에 의해 만들어진 복수의 측정값에 기반하여 물체의 주위로 로봇을 안내함으로써, 로봇이 물체 주위의 연속된 복수의 위치 사이를 이동하게 하고; 로봇이 제1 일주 경로 상의 각각의 연속된 위치에 있는 동안 하나 이상의 거리 측정 센서로부터 복수의 측정값을 수집하고; 복수의 연속적인 위치에서 각각 취한 복수의 측정값을 구역의 초기 로컬 스냅샷으로 집계하여, 각 제1 일주 후에 물체의 스캔된 형상을 얻는, 단계; 및 제1 일주 경로로부터 결정된 경로를 구성하는 단계로, 결정된 경로는 후속 일주에서 물체의 주위로 로봇을 안내하도록 하고; 후속 일주에서 결정된 경로로 로봇을 안내하고; 후속 일주 동안 결정된 경로의 추가 결정된 위치에 로봇을 위치결정하고; 로봇이 추가로 결정된 위치에 있는 동안 하나 이상의 거리 측정 센서로부터 추가 측정값을 수집하고; 추가 측정값을 각각의 후속 일주에 대한 구역의 추가 로컬 스냅샷으로 집계하고; 초기 로컬 스냅샷과 함께 추가 로컬 스냅샷의 각각에 대해 스캔 매칭 알고리즘을 실행하여 물체에 대한 로봇의 실제 위치가 어디인지를 결정하는, 단계를 포함한다.

Description

동시 위치인식 및 지도작성 방법
본 발명은 로봇의 지도작성 및 네비게이션에 있어서, 동시 위치인식 및 지도작성 (Simultaneous Localization and Mapping, SLAM)의 분야에 관한 것이다.
종래 기술의 동시 위치인식 및 지도작성 (Simultaneous Localization and Mapping, SLAM) 접근법에서는, 카메라나 레이저 스캐너를 사용하여 만물(world)의 특징을 찾는다. 만물의 특징은 예를 들어, 레이저 스캐너에 의해 생성된, 만물의 코너, 벽, 창, 및 2차원 슬라이스를 포함할 수 있다. SLAM은 일반적으로, 지도를 업데이트하는 환경의 연속적인 지도작성 및 지도 내에서 로봇의 위치인식에 의해, 지도에서 로봇의 위치를 찾는 기술이다. SLAM 문제에 관한 상당한 양의 연구가 있었다. 가장 인기 있는 접근법은 라오-블랙웰라이즈드 입자 필터 (Rao-Blackwellized particle filter) SLAM [비특허문헌 4] 또는 헥터(Hector) SLAM [비특허문헌 5]이다.
헥터 SLAM 접근법은 "평면 지도에서 통합 레이저 스캔(LIDAR)을 기반으로 하는 2D SLAM 시스템과 관성 측정 유닛(inertial measurement unit, IMU)을 기반으로 하는 통합 3D 내비게이션 시스템을 결합하는" 것이다 [비특허문헌 5].
전통적인 레이저 스캐너는 회전부를 포함하는 장치이다. 예를 들어, 전통적인 레이저 스캐너는 자체의 주위를 회전하면서 측정 데이터를 집계하는 하나의 전파 시간 (Time of Flight, ToF) 레이저 센서를 포함할 수 있다.
스캔 매칭은, 예를 들어 2개의 레이저 스캔 또는 포인트 클라우드의 상대 위치 및 배향을 회복하기 위한 주지의 기술이다. ICP (iterative closest point)가 가장 인기 있는 스캔 매칭 알고리즘의 많은 다양한 변형이 있다. 알고리즘은, 대개 매칭된 쌍의 좌표들 간의 제곱 차이의 합과 같이, 소스로부터 기준 포인트 클라우드까지의 거리인 오차 메트릭(error metric)을 최소화하는데 필요한 변환 (변환과 회전의 조합)을 반복적으로 수정한다. ICP는 3차원 모델을 정렬하는데 널리 사용하는 알고리즘 중 하나이다 [비특허문헌 3].
도 1을 참조하면, 이는 로봇 (도 1에는 로봇을 도시하지 않음)에 의해 식별된 주변 환경(12)의 스캔에 대한 일예를 포함한다. 주변 환경(12)은 x-y-기준계로 2차원 공간에 나타낸 윤곽에 의해 묘사된 바와 같이 도시되어 있다. 주변 환경(12)은 2번의 연속 스캔의 결과인 2개의 상이한 뷰(10 및 11)로 나타냈다. 양 뷰 간의 차이점은 뷰(10)를 스캔한 위치로부터 일정 각도만큼 회전한 후, 로봇에 의해 뷰(11)가 연속으로 스캔된 점이다.
선행기술인 비특허문헌 [2]에는 희소 감지(sparse sensing)에 의한 동시 위치인식 및 지도작성 (Simultaneous Localization and Mapping, SLAM) 방법이 개시되어 있다. 이 문헌은 단일 스캔으로 환경의 특징을 추출하기에 불충분한 데이터를 제공하는 매우 희박한 검출에 의한 로봇 관련 문제를 다룬다. SLAM은 로봇이 이동함에 따라서 취한 여러 장의 스캔을 다중 스캔으로 그룹화하도록 수정되며, 이러한 방식으로 주행거리 측정 오차로 인한 더 큰 측정 불확실성에 대한 대가로 더 높은 데이터 밀도를 달성한다. 이러한 의미에서, 입자 필터 구현과 관련된 선행기술 비특허문헌 [2]는 희박한 설정으로 효율적인 로봇용 SLAM 알고리즘을 합리적으로 산출한다.
도 14A는 레이저 스캐너가 취한 스캔의 일반적인 밀도를 나타낸다. 레이저 스캐너로 로봇(152)이 수집한 물체(151)의 단일 스캔은, 스캔한 물체(151)에서 상당히 더 높은 공간 샘플링 밀도(153)를 갖는다. 대조적으로, 도 14B는 5개의 방사상으로 이격된 범위의 센서 빔(154)만을 사용하는 스캔의 데이터 밀도를 나타내며, 이러한 스캔 밀도는 희소한 것으로 간주할 수 있다. 일반적으로, 희소 감지는 스캔의 낮은 공간 샘플링 밀도를 말한다 [비특허문헌 2].
Wall follower autonomous robot development applying fuzzy incremental controller, Dirman Hanafi et al., Intelligent control and automation, 2013, 4, 18-25; SLAM with sparse sensing, Kristopher R. Beevers, Wesley H. Huang, to appear in the 2006 IEEE International conference on Robotics & Automation (ICRA 2006). Efficient Variants of the ICP Algorithm, Rusinkiewicz, Szymon, Marc Levoy (2001). Proceedings Third International Conference on 3-D Digital Imaging and Modeling. Quebec City, Quebec, Canada. pp. 145-152 Grisetti, Giorgio, Cyrill Stachniss, and Wolfram Burgard. "Improved techniques for grid mapping with rao-blackwellized particle filters." IEEE transactions on Robotics 23.1 (2007): 34. Kohlbrecher, Stefan, et al. "A flexible and scalable slam system with full 3d motion estimation." 2011 IEEE International Symposium on Safety, Security, and Rescue Robotics. IEEE, 2011.
본 발명이 해결하고자 하는 과제 중 하나는 종래 기술에 대한 대안적인 해결방안을 실현하는데 있다.
본 발명은 구역에서 이동 가능한 로봇의 위치인식과 물체의 로봇에 의한 지도작성을 동시에 수행하는 방법을 제공한다. 이 방법은 하나 이상의 거리 측정 센서를 로봇에 제공하는 단계로, 로봇은 하나 이상의 거리 측정 센서에 의해 물체를 검출할 수 있고; 벽 추종 알고리즘을 실행하여, 이 벽 추종 알고리즘에 의해 얻은 제1 일주 경로를 따라 하나 이상의 거리 측정 센서에 의해 만들어진 복수의 측정값에 기반하여 물체의 주위로 로봇을 안내함으로써, 로봇이 물체 주위의 연속된 복수의 위치 사이를 이동하게 하고; 로봇이 제1 일주 경로 상의 각각의 연속된 위치에 있는 동안 하나 이상의 거리 측정 센서로부터 복수의 측정값을 수집하고; 복수의 연속적인 위치에서 각각 취한 복수의 측정값을 구역의 초기 로컬 스냅샷으로 집계하여, 각 제1 일주 후에 물체의 스캔된 형상을 얻는 단계; 및 제1 일주 경로로부터 결정된 경로를 구성하는 단계로, 결정된 경로는 후속 일주에서 물체의 주위로 로봇을 안내하도록 하고; 후속 일주에서 결정된 경로로 로봇을 안내하고; 후속 일주 동안 결정된 경로의 추가 결정된 위치에 로봇을 위치결정하고; 로봇이 추가로 결정된 위치에 있는 동안 하나 이상의 거리 측정 센서로부터 추가 측정값을 수집하고; 추가 측정값을 각각의 후속 일주에 대한 구역의 추가 로컬 스냅샷으로 집계하고; 초기 로컬 스냅샷과 함께 추가 로컬 스냅샷의 각각에 대해 스캔 매칭 알고리즘을 실행하여 물체에 대한 로봇의 실제 위치가 어디인지를 결정하는 단계를 포함한다.
바람직한 실시예에서, 제1 일주 경로 이후에 결정된 경로를 구성하는 단계는 물체의 스캔된 형상에, 타원 형상, 또는 직선 및 원호 세트 중 하나를 맞추는 단계를 포함한다.
다른 바람직한 실시예에서, 방법은 물체에 대한 로봇의 결정된 실제 위치에 따른 주행거리 측정 오차를 보정하는 단계, 및 보정된 주행거리 측정 오차에 대응하여 로봇의 위치를 제어하는 단계를 더 포함한다.
추가의 바람직한 실시예에서, 방법은 추가 거리 측정 센서를 로봇에 제공하는 단계를 더 포함하고, 추가 거리 측정 센서 및 하나 이상의 거리 측정 센서는 단일 포인트 센서, 다중 픽셀 센서, 단일 포인트 “작은” 시야 (“small” Field of View, FoV) 전파 시간 (Time of Flight, ToF) 센서, 또는 다중 픽셀 카메라로부터의 개별 픽셀이며, 이들 센서가 방출하는 각각의 빔이 물체의 높이를 커버할 수 있게 서로 약간의 다른 각도로 전파되는 방향을 갖도록 로봇에 위치된다.
추가의 바람직한 실시예에서, 하나 이상의 거리 측정 센서는 3D 카메라의 시야가 물체의 높이를 커버할 수 있도록 로봇에 위치된 3D 카메라이다.
추가의 바람직한 실시예에서, 벽 추종 알고리즘을 실행하는 단계는 물체의 돌출부를 검출하기 위해 물체의 높이 측정값도 포함하는 복수의 측정값을 기반으로 함으로써, 벽 추종 알고리즘은 검출된 돌출부를, 이 검출된 돌출부가 지면에 수직으로 투영되는 곳에서 솟아오른 물체의 벽으로 간주한다.
이제 도면을 참조하고 바람직한 실시예의 상세한 설명을 이용하여 본 발명을 설명한다.
도 1은 선행 기술의 예에 따른, 로봇의 SLAM 시스템으로 작동되는 연속 스캔의 결과를 나타낸다.
도 2는 본 발명의 예시적인 실시예에 따른 ToF 센서로 빔을 방출하는 것을 나타내는 로봇의 개략도이다.
도 3은 도 2와 동일한 로봇의 개략도이지만, 다른 각도에서 취한 도면이다.
도 4는 본 발명에 따른 예시적인 시스템으로 취한 스냅샷의 결과를 포함한다.
도 5A 및 5B는 결정된 경로가 물체의 주위에 그려지는 그러한 물체의 예를 각각 포함한다.
도 6은 본 발명의 바람직한 실시예에 따라 로컬 스냅샷이 어떻게 얻어질 수 있는지를 나타내는 플로우차트를 포함한다.
도 7A 및 도 7B는 본 발명의 예시적인 실시예에 따른 센서 설정 구성의 개략도를 포함한다.
도 8은 물체 주위의 결정된 경로 상에서 로봇의 행로(journey)에서 2군데 위치에 로봇이 도시된 예를 나타낸다.
도 9A, 9B 및 9C는 작동을 위해 벽 추종 알고리즘에서 필요로 하는, 로봇으로부터 측정된 바와 같은 물체로부터의 상대 거리와 각도를 나타내는 개략도이다.
도 10은 궤적이 물체 주위에 어떻게 생성될 수 있는지에 대한 예를 나타낸다.
도 11은 주행거리 측정 기준 프레임에서 로봇의 위치 변화를 나타낸다.
도 12는 만물, 주행거리 측정, 로봇 및 센서 기준 프레임의 종속관계를 나타낸다.
도 13A 및 13B는 돌출부를 지닌 물체의 특별한 경우를 각각 나타내는 것으로, 그의 2D 윤곽이 지면에 투영되어 있다.
도 14A 및 14B는 각각 비희소 감지 및 희소 감지의 예를 나타낸다.
요약하면, 아래에서 설명하는 방법 및 시스템에 의해 본 발명을 구현할 수 있으며, 이는 구역에서 로봇과 이 로봇에 근접하게 위치된 물체 간의 개별 거리 측정 센서를 갖는 로봇, 및 원하는 위치에 로봇을 위치결정하는 변위 수단을 포함한다. 관련된 특징들의 이러한 목록은 단지 본 발명을 구현하기 위한 예시일 뿐이다. 추가의 상세한 내용은 본원의 아래에서 제공한다.
본 발명에 따르면, 방법은 다음의 구현 단계를 포함할 수 있다:
1. 벽 추종 알고리즘을 실행하여, 구역에 위치된 물체의 주위로 로봇을 안내함으로써, 로봇이 물체 주위의 연속된 복수의 위치들 사이를 이동하게 하고;
2. 로봇이 각각의 결정된 위치에 있는 동안 개별 센서로부터 측정 결과(포인트)를 수집하고;
3. 로봇의 연속적으로 결정된 위치에서 취한 측정 결과를 구역의 초기 로컬 스냅샷으로 집계하고;
4. 제1 로컬 스냅샷으로부터 결정된 경로를 생성하고;
5. 물체 주위의 후속 이동을 위해 물체 주위의 결정된 경로로 로봇을 안내하고;
6. 후속 이동 동안 추가로 결정된 위치에 로봇을 위치결정하고;
7. 로봇이 추가로 결정된 위치에 있는 동안 개별 센서로부터 측정 결과를 수집하고;
8. 연속해서 추가로 결정된 로봇의 위치에서 취한 측정 결과를 구역의 추가 로컬 스냅샷으로 집계하며;
9. 추가 로컬 스냅샷에 대한 초기 로컬 스냅샷과의 스캔 매칭 알고리즘을 실행하여 물체에 대한 로봇의 실제 위치를 결정한다.
본 발명의 방법에 대한 구현예
레이저 스캐너(들)을 사용하는 종래 기술의 SLAM과 본 발명의 SLAM 해결방안(들) 간의 주된 차이점은 본 발명이 레이저 스캐너를 사용하지 않고 작동되며, 대신 정적으로 장착된 복수의 ToF 센서 어레이를 사용하는 점이다. 이러한 맥락에서 정적으로 장착된다는 것은 ToF 센서가 로봇의 기준 프레임에 대해 움직이지 않는 것을 의미한다. 본 발명에서 사용한 바와 같이 ToF 센서는, 바람직하게는 적외선(Infrared, IR) 기반이다.
본 예는 ToF 센서를 사용하지만, 이들은 가능한 거리 측정 센서의 예일 뿐이다. 이러한 구성에서 상기 예를 계속 설명하지만, 거리 측정 센서는: 단일 포인트 센서, 다중 픽셀 센서, 단일 포인트 “작은” 시야 (FoV) 전파 시간 (ToF) 센서, 및 3D 카메라의 목록 중 하나로 이해하면 된다.
이제 도 2 및 도 3을 참조하면, 이들은 각각 물체(21) 옆의 공간(22)에 있는 로봇(20)을 나타낸다. 로봇(20)의 뷰는 도 2의 제1 각도, 및 제1 각도와는 다른 도 3의 제2 각도에서 찍었다. 로봇(20)은 이것이 이동하는 공간(22)의 3차원 맵 (도 2 및 3에는 도시하지 않음)을 생성하게 된다.
예시적인 상황에서, 물체(21)는 로봇(20)이 이동하는 공간(22)의 바닥(23)으로부터 수직으로 돌출된 하중을 지탱하는 팔레트이다. 도 2 및 3 모두에서, 수직 개별 센서(25)가 물체(21)를 스캔하는데 어떻게 사용되는지를 제1 빔(24)으로 나타낸다: 추가로, 로봇(20)의 제1 측면 및 제2 측면에 각각 장착된 수평 개별 센서(27)가 어떻게 충돌 방지 목적으로만 사용되는지를 제2 빔(26)으로 나타낸다.
본 발명의 바람직한 실시예에서, 수직 개별 센서(25)들은 각각 낮은 발산을 갖는 빔으로 성형된 전자기 스펙트럼의 근적외선 영역의 광을 사용하고 그 적외선 빔(IR-빔)을 수평면에서 출발하는 방향으로 방출하는 ToF 센서이며, 수평면은 수직 개별 센서(25)를 갖는 로봇(20)이 이동할 수 있는 바닥(23) 면과 실질적으로 평행하다. 수평 개별 센서(27)들은 각각 수평면에 실질적으로 평행한 방향으로 IR-빔을 방출하는 ToF 센서이다.
회전 메커니즘의 효과에 의해 360°로 주변을 스캔하는 레이저 스캐너 같은 종래 기술의 SLAM 해결방안과는 대조적으로, 본 발명에서 사용한 개별 센서는 정적인 장치이며, 기간 동안 로봇이 실질적으로 고정된 위치에 위치되는 임의의 단일 결정된 기간에는 주변환경의 완전한 표현이 얻어지지 않는다. 따라서, 도 1의 결과 대신, 로봇(52)이 물체(54)까지의 거리를 측정하고 이를 공간(55)에 대한 단일 포인트(51)로 나타내는 도 4에 도시된 결과가 나와 있다.
본 발명에 따르면, 개별 센서를 갖는 로봇은 물체의 주위를 이동하여 물체를 완전히 일주하도록 프로그래밍된다. 이는 도 5A 및 도 5B에 2가지의 예로 나타내며, 이들 각각에서, 로봇 (이들 도면에는 도시하지 않음)은 각 물체(62, 64)의 제1 일주 (제1 일주는 벽 추종 알고리즘에 따른 것이었음)를 이동한 후, 제2 일주로부터 결정된 경로(61 및 63)를 따라 물체(62 및 64)의 주위를 이동한다. 결정된 각 경로(61, 63)는, 바람직하게는 타원 맞춤 알고리즘(ellipse fitting algorithm)을 사용하여 생성된다. 벽 추종 알고리즘으로 제1 일주 동안 물체를 스캔한 후, 타원의 스케일링에 의해서 타원을 맞춤으로써, 작은 안전 거리를 도입하여 경로 상의 어떤 위치에서 물체의 윤곽과 로봇의 윤곽 간의 중첩을 피한다. 다른 형상, 가령, 타원 또는 초타원의 경로를 사용할 수 있다. 도 10은 그러한 타원, 및 둥근 직사각형 (원호 및 직선) 형상의 경로에 대한 일예를 나타낸다.
돌출부를 지닌 물체의 특수한 경우도 고려한다. 돌출부는 동일한 물체의 하부를 지나 위로 연장되는 물체의 일부로 규정할 수 있다. 도 13A는 물체(140)의 돌출부(141)가 지면에 수직으로 돌출된 상황을 나타낸다. 효과적으로 물체(140)의 2D 윤곽 및 2D 윤곽에 투영된 바와 같은 그의 돌출부(142)가 도 13B에 도시되어 있다.
로봇이 물체의 주위를 이동하므로, 개별 센서가 취한 측정 결과(포인트)가 집계되고, 물체를 포함한 만물의 로컬 스냅샷이 생성된다. 이는 도 6에 나타냈으며, 플로우차트는 본 발명의 예시적인 실시예에 따라 로컬 스냅샷을 얻을 수 있는 프로세스를 설명한다.
이제 기준 프레임의 종속관계를 설명하는 도 12를 참조하면, 각 개별 센서(135)는 로봇 기준 프레임(133)에서 로봇의 중심 위치에 대해 그 자체적으로 규정된 위치를 갖는다. 주행거리 측정 기준 프레임(132)과 관련된 로봇의 위치, 및 로봇 기준 프레임(133)과 관련된 센서의 위치를 갖고서, 변환 단계(도 6에서 "트랜스포머"로 표시한 박스)에서, 트랜스포머는 모든 센서(도 12에는 예로서 하나의 센서만 도시)에 의해 수집된 물체(137)의 측정값(136)을 취하고, 이를 주행거리 측정 기준 프레임(132)으로 변환하여, 포인트(센서 기준 프레임(134)에 수집된 단일 측정값(136))을 주행거리 측정 기준 프레임(132)에 효과적으로 배치한다. 조립 단계(도 6에서 "어셈블러"로 표시한 박스)에서, 어셈블러는 모든 포인트를 단일 포인트 클라우드로 결합하는 롤링 버퍼를 사용한다. 포인트 클라우드는 주행거리 측정 기준 프레임(132)에서 단일 포인트의 수집물이다. 따라서, 도 6은 포인트 클라우드 1 내지 포인트 클라우드 n으로 표시한 박스에서, 만물 기준 프레임 내 단일 포인트의 복수의 수집물을 나타낸다.
로컬 기준 프레임(주행거리 측정 프레임)에서 로봇의 중심 위치는 주행거리 측정 덕분에 알려져 있으며, 가령 인코더는 로봇이 이동함에 따라 로봇 바퀴의 회전수를 계산한다(도 6에는 도시하지 않음). 도 11을 참조하면, 위치(a)에서 로봇의 중심(121)은 그의 바퀴(123)를 어느 정도 회전시키고, 주행거리 측정 기준 프레임(124)의 위치(b)에서 종료한다.
그러므로, 각 개별 센서의 측정 결과는 로컬 스냅샷을 생성하는 로컬 기준 주행거리 측정 프레임에서 하나의 포인트로 변환된다. 이는 일반적으로 "알려진 포즈에 의한 지도작성"으로 공지되어 있다.
개별 센서가 취한 포인트를 집계하기 위해서는, 개별 센서가 포인트를 취하는 각 순간에 로봇이 어디에 배치되어 있는지를 알 필요가 있다. 이러한 방식으로, 로봇의 배치(위치)와 개별 센서의 측정값에 의해, 만들어질 공간의 3D 지도에서 새로운 포인트를 결정할 수 있다.
로봇의 위치를 결정하기 위해서, 본 발명은 상이한 공지된 기술을 사용할 수 있다. 바람직한 예에서, 본 발명은 주행거리 측정을 사용한다. 주행거리 측정은 기본적으로 과거(이전) 위치를 기반으로 새로운 위치를 계산하는 것이다. 예를 들어, 로봇을 이동시키는 바퀴의 회전수를 계산함으로써, 작은 위치 변화도 검출할 수 있다.
표 1은 종래 기술의 SLAM과 본 발명에서 달성한 바와 같은 SLAM 간의 주된 차이점을 요약한 것이다.

종래 기술 SLAM

본 발명에 따른 SLAM
1. 헥터 SLAM 접근법에 따르면,

Figure pct00001
고정된 평면에서 거리를 순차적으로 스캔하는 레이저 기반 회전 레이저 스캐너가 로봇에 장착된다. 장치 출력은 로컬 환경의 스캔으로 조립할 수 있는 거리 및 각도의 쌍이다.

Figure pct00002
IMU (Inertial measurement unit) 센서를 이용하여 플랫폼 자세를 추정한다.

Figure pct00003
스캔을 스캔 엔드포인트의 포인트 클라우드로 변환한다.

Figure pct00004
연속되는 포인트 클라우드를 서로 또는 기존 맵과 스캔 매칭시킨다.

Figure pct00005
매칭된 포인트 클라우드에 기반하여 새로운 위치 추정을 계산한다.

2. 희소 감지 접근법에 따르면,

Figure pct00006
로봇에 레이저 스캐너가 없으며, 대신 정적으로 고정된 ToF 센서를 사용한다. 희소 감지를 갖춘 SLAM. 희소 감지는 너무 적은 데이터를 제공하여 단일 스캔으로부터 주변환경의 특징을 추출할 수 없다. SLAM은 로봇이 다중 스캔으로 이동함에 따라 취한 여러 장의 스캔을 그룹화하도록 수정되며, 이러한 방식으로 주행거리 측정 오차로 인한 더 큰 측정 불확실성에 대한 대가로 더 높은 데이터 밀도를 달성한다.
본 발명에 따르면,








Figure pct00007
로봇은 물체의 주위를 이동한다. 주행거리 측정을 사용하여 로봇의 위치를 추정함으로써, 개별 ToF 거리 센서 측정값이 집계되어 물체의 포인트 클라우드 표현을 생성한다.

Figure pct00008
물체 주위의 각 회전에서 수집된 연속되는 포인트 클라우드를 기준 스캔 (맵)과 스캔 매칭시킨다.

Figure pct00009
매칭된 포인트 클라우드를 기반으로 새로운 포인트 추정을 계산한다.
로봇이 물체의 주위를 이동하는 방법
아래에서 설명하는 바와 같이, 2가지 가능한 케이스 중 어느 하나에서, 로봇은 물체의 주위를 이동한다.
케이스 1에서, 로봇은 물체의 주위를 제1 이동하여 그 주위를 일주한다. 로봇은 제1 이동을 시작하기 전에, 물체의 형상을 알지 못하며, 벽 추종 알고리즘을 실행하여 제1 일주를 완료한다.
케이스 2에서, 로봇은 케이스 1 동안 이동한 제1 일주 후에 생성된 결정된 경로를 따라, 물체의 주위를 후속(케이스 1의 제1 일주 후에)하여 일주한다. 실제로, 로봇이 이미 케이스 1을 실행했기 때문에, 물체는 케이스 2 전에 이미 한 번 이상 스캔되었다.
케이스 1 - 물체의 주위를 제1 일주/이동
로봇은 "벽 추종" 알고리즘을 사용하여 제1 물체/팔레트 스캔을 만든다. "벽 추종" 알고리즘이 사용되는 방식은, 예를 들어 비특허문헌 [1]과 같이, 당업계에 주지되어 있으며, 이러한 이유로 본 명세서에서는 완전히 상세하게 설명하지 않는다. 벽 추종 알고리즘에 의해, 로봇은 물체의 주변 측에 해당하는 "벽"의 세그먼트 표현을 생성하고, 물체로부터 일정한 거리를 유지하면서 평행을 유지하려고 한다. 이제 벽 추종 알고리즘이 작동하도록 요구되는 바와 같이, 물체(106)로부터 로봇(105)의 상대 거리(101) 및 각도(102)를 나타내는 개략도인 도 9A 및 도 9B를 참조한다. 단일 픽셀 센서, 가령 도 9A에 나타낸 바와 같은 2개의 단일 픽셀 센서를 사용하는 경우, 센서 측정(103 및 104)은 간단한 삼각 방정식 덕분에 로봇(105)의 중심에서부터 물체/팔레트(106)까지의 거리(101), 및 물체/팔레트(106)에 대한 각도(102)를 얻을 수 있게 한다. 다중 픽셀 거리 센서를 사용하는 경우, 다중 픽셀 중 2개 이상으로부터의 신호에 의한 단일 측정(107)은 로봇(105)의 중심에서부터 물체/팔레트(106)까지의 거리(101), 및 물체/팔레트(106)에 대한 각도(102)를 얻기에 충분하다. 벽 추종 알고리즘은 거리(101)를 일정하게 유지하고 각도(102)를 0°로 유지하도록 한다.
돌출부를 지닌 물체의 특별한 경우를 고려해야 한다. 이제 도 9C 및 도 7B를 각각 참조하면, 물체(106)의 어딘가에 배치된 돌출부(108)가 존재하는 경우, 물체(106)의 윤곽에 대한 최단 측정을 찾아야 한다. 도 7B에서 점선으로 나타낸 센서 빔(80 내지 81)의 확산으로 도시한 센서 세트로부터, 먼저 각 측정의 평면 투영이 수행된 다음, 물체(106)의 윤곽에 대한 최단 측정이 발견된다. 단일 픽셀 센서, 가령 도 9C에 나타낸 바와 같이 2개의 단일 픽셀 센서를 사용하는 경우, 센서 측정(110 및 109)은 센서 세트로부터 투영된 최단 센서 측정이므로, "벽 추종" 알고리즘에 대한 입력 정보로서 사용된다.
도 7A 및 도 7B는 본 발명의 예시적인 실시예에 따른 센서 설정 구성의 정면도에 대한 개략도를 포함한다. 각 개별 센서(도 7A 및 7B에는 도시하지 않음)는, 이들이 방출하는 빔이 잠재적인 돌출부를 포함한 팔레트의 전체 높이를 커버할 수 있게 인접한 센서의 인접한 빔으로부터 약간의 다른 각도로 전파되는 방향을 갖도록 위치된다. 이는 센서 홀더(82)에서부터 물체(83)로 전파되는 점선으로 나타낸 센서 빔(80~81)의 확산으로 도시하였다. 도 7B는 물체가 돌출부(86)를 포함하는 특별한 경우를 나타낸다. 이러한 돌출부는 센서에 의해서도 검출된다. 센서 홀더(82)는 로봇 베이스(84)에 견고하게 부착된다. 센서 홀더(82) 및 로봇 베이스(84)는 도 7에 도시하지 않은 로봇의 일부이다. 로봇은, 이 로봇을 이동시키도록 된 바퀴(85)를 더 포함한다.
도 8은 물체(92) 주위를 도는 로봇(90)의 행로에서 2군데 위치(a) 및 (b)에 로봇(90)이 도시된 예를 나타낸다. 물체(92)의 주위를 제1 행로/일주하기 위해, 로봇(90)은 벽 추종 알고리즘을 사용한다. 로봇(90)에 장착된 2개의 센서 (도 8에는 도시하지 않음)는 로봇(90)에서부터 물체(92)까지 연장되는 2개의 점선(93)으로 나타낸 바와 같이, 물체(92)를 향하여 서로 상대적으로 작은 각도로 방사선을 방출한다. 그 결과, 본 발명에 따른 방법 및 시스템은 벽의 세그먼트, 예를 들어 위치(a)에서 로봇(90)을 향해 배향된 세그먼트(94)를 나타내는 세그먼트 (도 8에는 도시하지 않음)를 생성한다. 로봇(90)이 위치(b)로 진행함에 따라, 벽 추종 알고리즘은 물체(92) 벽의 세그먼트 95 및 96에 해당하는 세그먼트 (도 8에는 도시하지 않음)를 생성한다. 벽 추종 알고리즘은 로봇(90)과 물체(92) 간의 거리(97)가 실질적으로 일정하게 유지되는 방식으로, 로봇 바퀴의 속도를 제어한다. 거리 규정의 예에 관한 거리(101)는 도 9를 참조하며, 여기서 거리는 로봇의 중심과 팔레트 세그먼트의 최단 포인트 간의 거리로 규정된다.
케이스 2 - 물체 주위를 후속 일주/이동
물체 주위를 제1 일주한 후에 일단 제1 물체 스캔을 이용할 수 있으면, 로봇이 물체의 주위를 후속 이동함으로써 추종하는, 스캐닝된 물체 주위의 결정된 경로가 구성된다.
결정된 경로는 타원 형상을 스캔된 물체에 맞추거나 (본원의 상기 도 5 및 그에 상응하는 설명 참조), 직선 및 원호의 세트에 의해 구성된다. 실제로, 타원 이외의 다른 형상이 생성될 수 있으며, 가령 맞춰진 타원의 폭과 높이를 기반으로 도 10에서와 같이, 직선으로 연결된 2개의 반원 형상이 생성될 수 있다. 반원 형상의 크기를 파라미터화할 수 있다.
물체 주위의 로봇의 모든 일주에 대한 로컬 스냅샷, 즉, 각 일주 후에 스캔된 형상을 갖고서 로컬 스냅샷을 물체 형상의 초기 로컬 스냅샷과 비교하면, 물체에 대한 로봇의 상대 위치를 제공한다.
로봇은 이론적으로 주행거리 측정 (예를 들어, 로봇 바퀴 회전수를 계산하는 인코더)만을 사용하여 구성한 결정된 경로를 무한정 따를 수 있지만, 실제 시나리오에서 로봇은 바퀴에 대한 인코더의 회전수가 바닥과의 마찰, 및 가령, 주행거리 측정에서 움직임을 검출했어도 바퀴가 제자리에서 회전할 수 있으므로 로봇은 이동하지 않는 그 밖의 영향으로 인해, 로봇의 변위를 정확히 나타내지 않는 드리프트를 경험할 수 있다.
드리프트는 본원의 위에서 설명한 바와 같이 시간이 지남에 따라 누적될 수 있거나, 주행거리 측정이 이전 위치를 기반으로 계산된 새로운 위치에 의존하는 사실로 인해, 따라서 그러한 작은 드리프트 오차를 포함해도 새로운 위치의 측정에 오차가 있으면, 물체의 2장의 로컬 스냅샷 (예를 들어, 초기 스냅샷과 현재의 스냅샷)을 스캔 일치시켜 드리프트 누적을 방지할 수 있고 이들 간의 상대적 차이가 무엇인지 찾을 수 있다. 이러한 상대적 차이는 주행거리 측정으로 인한 로봇의 드리프트를 나타내며, 로봇의 계산된 위치를 수정하는데 사용할 수 있다.

Claims (6)

  1. 구역에서 이동 가능한 로봇의 위치인식과 물체의 로봇에 의한 지도작성을 동시에 수행하는 방법에 있어서,
    하나 이상의 거리 측정 센서를 로봇에 제공하는 단계로, 거리 측정 센서의 광학 측정 축이 로봇의 기준 프레임에 대해 정적으로 장착되고, 추가로 로봇은 하나 이상의 거리 측정 센서에 의해 물체를 검출할 수 있고;
    벽 추종 알고리즘(wall following algorithm)을 실행하여, 이 벽 추종 알고리즘에 의해 얻은 제1 일주 경로를 따라 하나 이상의 거리 측정 센서에 의해 만들어진 복수의 측정값에 기반하여 물체의 주위로 로봇을 안내함으로써, 로봇이 물체 주위의 연속된 복수의 위치 사이를 이동하게 하고;
    로봇이 제1 일주 경로 상의 각각의 연속된 위치에 있는 동안 하나 이상의 거리 측정 센서로부터 복수의 측정값을 수집하고;
    복수의 연속적인 위치에서 각각 취한 복수의 측정값을 구역의 초기 로컬 스냅샷으로 집계하여, 각 제1 일주 후에 물체의 스캔된 형상을 얻는, 단계; 및
    제1 일주 경로로부터 결정된 경로를 구성하는 단계로, 결정된 경로는 후속 일주에서 물체의 주위로 로봇을 안내하도록 하고;
    후속 일주에서 결정된 경로로 로봇을 안내하고;
    후속 일주 동안 결정된 경로의 추가 결정된 위치에 로봇을 위치결정하고;
    로봇이 추가로 결정된 위치에 있는 동안 하나 이상의 거리 측정 센서로부터 추가 측정값을 수집하고;
    추가 측정값을 각각의 후속 일주에 대한 구역의 추가 로컬 스냅샷으로 집계하고;
    초기 로컬 스냅샷과 함께 추가 로컬 스냅샷의 각각에 대해 스캔 매칭 알고리즘을 실행하여 물체에 대한 로봇의 실제 위치가 어디인지를 결정하는, 단계를 포함하는 방법.
  2. 제1항에 있어서, 상기 제1 일주 경로 이후에 결정된 경로를 구성하는 단계는
    물체의 스캔된 형상에,
    타원 형상, 또는
    직선 및 원호 세트 중 하나를 맞추는 단계를 포함하는 방법.
  3. 제1항에 있어서, 물체에 대한 로봇의 결정된 실제 위치에 따른 주행거리 측정 오차를 보정하는 단계, 및 보정된 주행거리 측정 오차에 대응하여 로봇의 위치를 제어하는 단계를 더 포함하는 방법.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서, 추가 거리 측정 센서를 로봇에 제공하는 단계를 더 포함하고, 추가 거리 측정 센서 및 하나 이상의 거리 측정 센서는 단일 포인트 센서, 다중 픽셀 센서, 단일 포인트 “작은” 시야 (“small” Field of View, FoV) 전파 시간 (Time of Flight, ToF) 센서, 또는 다중 픽셀 카메라로부터의 개별 픽셀이며, 이들 센서가 방출하는 각각의 빔이 물체의 높이를 커버할 수 있게 서로 약간의 다른 각도로 전파되는 방향을 갖도록 로봇에 위치되는 방법.
  5. 제1항 내지 제3항 중 어느 한 항에 있어서, 하나 이상의 거리 측정 센서는 3D 카메라의 시야가 물체의 높이를 커버할 수 있도록 로봇에 위치된 3D 카메라인 방법.
  6. 제1항 내지 제3항 중 어느 한 항에 있어서, 벽 추종 알고리즘을 실행하는 단계는 물체의 돌출부를 검출하기 위해 물체의 높이 측정값도 포함하는 복수의 측정값을 기반으로 함으로써, 벽 추종 알고리즘은 검출된 돌출부를, 이 검출된 돌출부가 지면에 수직으로 투영되는 곳에서 솟아오른 물체의 벽으로 간주하는 방법.
KR1020217037754A 2019-05-03 2020-04-24 동시 위치인식 및 지도작성 방법 KR20220005025A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19305570.4A EP3734391A1 (en) 2019-05-03 2019-05-03 Simultaneous localization and mapping
EP19305570.4 2019-05-03
PCT/EP2020/061508 WO2020224996A1 (en) 2019-05-03 2020-04-24 Simultaneous localization and mapping

Publications (1)

Publication Number Publication Date
KR20220005025A true KR20220005025A (ko) 2022-01-12

Family

ID=66625884

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217037754A KR20220005025A (ko) 2019-05-03 2020-04-24 동시 위치인식 및 지도작성 방법

Country Status (6)

Country Link
US (1) US20220214696A1 (ko)
EP (2) EP3734391A1 (ko)
JP (1) JP2022530246A (ko)
KR (1) KR20220005025A (ko)
CA (1) CA3135442A1 (ko)
WO (1) WO2020224996A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112022003662T5 (de) 2021-07-22 2024-05-02 Sl Corporation Sterilisationsvorrichtung

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112799096B (zh) * 2021-04-08 2021-07-13 西南交通大学 基于低成本车载二维激光雷达的地图构建方法
GB2610414B (en) * 2021-09-03 2024-08-14 Integrated Design Ltd Anti-climb system
CN118429426B (zh) * 2024-06-26 2024-09-13 广汽埃安新能源汽车股份有限公司 救援无人车slam方法、装置、电子设备及存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7539557B2 (en) * 2005-12-30 2009-05-26 Irobot Corporation Autonomous mobile robot
KR20090077547A (ko) * 2008-01-11 2009-07-15 삼성전자주식회사 이동 로봇의 경로 계획 방법 및 장치
US9630319B2 (en) * 2015-03-18 2017-04-25 Irobot Corporation Localization and mapping using physical features
KR102326479B1 (ko) * 2015-04-16 2021-11-16 삼성전자주식회사 청소 로봇 및 그 제어 방법
EP3611589B1 (en) * 2017-04-11 2021-11-17 Amicro Semiconductor Co., Ltd. Method for controlling motion of robot based on map prediction
US20220261601A1 (en) * 2017-12-05 2022-08-18 Uatc, Llc Multiple Stage Image Based Object Detection and Recognition
US10762396B2 (en) * 2017-12-05 2020-09-01 Utac, Llc Multiple stage image based object detection and recognition

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Efficient Variants of the ICP Algorithm, Rusinkiewicz, Szymon, Marc Levoy (2001). Proceedings Third International Conference on 3-D Digital Imaging and Modeling. Quebec City, Quebec, Canada. pp. 145-152
Grisetti, Giorgio, Cyrill Stachniss, and Wolfram Burgard. "Improved techniques for grid mapping with rao-blackwellized particle filters." IEEE transactions on Robotics 23.1 (2007): 34.
Kohlbrecher, Stefan, et al. "A flexible and scalable slam system with full 3d motion estimation." 2011 IEEE International Symposium on Safety, Security, and Rescue Robotics. IEEE, 2011.
SLAM with sparse sensing, Kristopher R. Beevers, Wesley H. Huang, to appear in the 2006 IEEE International conference on Robotics & Automation (ICRA 2006).
Wall follower autonomous robot development applying fuzzy incremental controller, Dirman Hanafi et al., Intelligent control and automation, 2013, 4, 18-25;

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112022003662T5 (de) 2021-07-22 2024-05-02 Sl Corporation Sterilisationsvorrichtung

Also Published As

Publication number Publication date
EP3734391A1 (en) 2020-11-04
US20220214696A1 (en) 2022-07-07
EP3963419A1 (en) 2022-03-09
WO2020224996A1 (en) 2020-11-12
JP2022530246A (ja) 2022-06-28
CA3135442A1 (en) 2020-11-12

Similar Documents

Publication Publication Date Title
KR20220005025A (ko) 동시 위치인식 및 지도작성 방법
US9939529B2 (en) Robot positioning system
US9242171B2 (en) Real-time camera tracking using depth maps
KR20210109529A (ko) 파이프에 uav 착지를 위한 자동화 방법
JP2011027724A (ja) 3次元計測装置、その計測方法及びプログラム
KR20100005488A (ko) 이동 로봇의 지도 구성 장치 및 방법
TWI772743B (zh) 資訊處理裝置以及移動機器人
Fang et al. Real-time onboard 6dof localization of an indoor mav in degraded visual environments using a rgb-d camera
KR20210132674A (ko) 자재 취급 차량에 관련한 센서의 포즈의 교정을 위한 시스템들 및 방법들
JP6435781B2 (ja) 自己位置推定装置及び自己位置推定装置を備えた移動体
Holz et al. Mapping with micro aerial vehicles by registration of sparse 3D laser scans
Kim et al. Autonomous mobile robot localization and mapping for unknown construction environments
Beinschob et al. Advances in 3d data acquisition, mapping and localization in modern large-scale warehouses
JP7273696B2 (ja) 位置推定装置及びシステム
Hoang et al. Proposal of algorithms for navigation and obstacles avoidance of autonomous mobile robot
US20230316567A1 (en) Localization of a surveying instrument
Yang et al. A robust and accurate SLAM algorithm for omni-directional mobile robots based on a novel 2.5 D lidar device
KR20200080598A (ko) 이동 로봇의 주행 평가 방법
Serdel et al. Online localisation and colored mesh reconstruction architecture for 3d visual feedback in robotic exploration missions
US10119804B2 (en) Moving amount estimating apparatus, autonomous mobile body, and moving amount estimating method
KR102616776B1 (ko) 자율주행 가능한 대차 로봇
Wang et al. Mapping Quality Evaluation of Monocular Slam Solutions for Micro Aerial Vehicles
US11662740B2 (en) Position estimating apparatus, method for determining position of movable apparatus, and non-transitory computer readable medium
JP2024092716A (ja) 移動体システム及びオルソ画像地図生成方法
Dobrynin About One Way to Scan a Surface for a Home Walking Robot