KR102096398B1 - 자율 이동 로봇의 위치 인식 방법 - Google Patents

자율 이동 로봇의 위치 인식 방법 Download PDF

Info

Publication number
KR102096398B1
KR102096398B1 KR1020130077668A KR20130077668A KR102096398B1 KR 102096398 B1 KR102096398 B1 KR 102096398B1 KR 1020130077668 A KR1020130077668 A KR 1020130077668A KR 20130077668 A KR20130077668 A KR 20130077668A KR 102096398 B1 KR102096398 B1 KR 102096398B1
Authority
KR
South Korea
Prior art keywords
virtual
mobile robot
autonomous mobile
scan data
area scan
Prior art date
Application number
KR1020130077668A
Other languages
English (en)
Other versions
KR20150004568A (ko
Inventor
박순용
노경식
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020130077668A priority Critical patent/KR102096398B1/ko
Priority to US14/187,670 priority patent/US9304001B2/en
Publication of KR20150004568A publication Critical patent/KR20150004568A/ko
Application granted granted Critical
Publication of KR102096398B1 publication Critical patent/KR102096398B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device

Abstract

일 실시 예에 따른 자율 이동 로봇의 위치 인식 방법은 격자 지도를 복수의 공간으로 분할하는 단계와, 분할된 상기 복수의 공간 각각에 대한 학습 데이터를 추출하는 단계와, 추출된 상기 학습 데이터를 이용하여 상기 복수의 공간 각각에 대한 공간 모델을 생성하는 단계 및 상기 학습 데이터와 공간 모델 및 자율 이동 로봇을 통해 입력되는 실제 영역 스캔 데이터를 이용하여 자율 이동 로봇의 현재 위치를 인식하는 단계를 포함한다.

Description

자율 이동 로봇의 위치 인식 방법{Method for recognizing position of autonomous mobile robot}
자율 이동 로봇의 위치 인식 방법이 개시된다. 더욱 상세하게는, 자율 이동 로봇이 불필요하게 이동하지 않고 정지한 상태에서 현재 위치를 인식할 수 있는 방법이 개시된다.
자율 이동 로봇(Autonomous mobile robot)은 미지의 환경에서 사전지식 없이 스스로 그 환경에 대처할 수 있는 능력을 가진 로봇을 말한다. 이와 같은 자율 이동 로봇은 다양한 분야에서 널리 사용되고 있는데, 예를 들어, 장애자를 도와주는 일, 공장에서의 물류 이송 작업, 핵폐기물 처리장 또는 심해와 같은 위험한 환경에서의 작업 등을 인간을 대신하여 수행하고 있다. 뿐만 아니라 무인 청소기, 무인 잔디 깎기 등으로도 사용될 수 있다.
이러한 자율 이동 로봇이 인간에게 효율적으로 서비스를 제공하기 위해서는 인간과 공유하는 환경 내에서 자신의 위치를 인식하는 기능이 필수적으로 요구된다. 이때, 자율 이동 로봇이 자신의 위치를 인식하는 방법은 로봇이 내장하고 있는 환경 지도의 종류에 따라 다양하다. 환경 지도는 크게 형상 지도(Feature Map)과 격자 지도(Grid Map)을 포함할 수 있으며, 이중 격자 지도(Grid Map)가 널리 사용된다.
격자 지도(Grid Map)를 사용하여 위치를 인식하는 일반적인 방법은 다음과 같다. 즉, 격자 지도(Grid Map) 상에서 자율 이동 로봇이 위치할 만한 위치들을 추정하고, 추정 위치에서 획득할 수 있는 모든 영역 스캔 데이터(Range Scan Data)를 시뮬레이션하고, 시뮬레이션된 모든 영역 스캔 데이터 중 자율 이동 로봇이 영역 스캔 센서(Range Scan Data)를 이용하여 실제로 수집한 영역 스캔 데이터와 가장 유사한 데이터를 찾아내고, 그 데이터가 만들어진 추정 위치를 자율 이동 로봇의 현재 위치로 인식하는 방법이다.
그러나, 이와 같은 위치 인식 방법은 추정 위치의 수가 적은 경우에는 위치 인식이 실패할 가능성이 있고, 추정 위치의 수가 많은 경우에는 위치 인식을 위한 연산 시간이 증가하는 단점이 있다. 또한, 자율 이동 로봇이 추정 위치를 따라 계속 이동하면서 해당 위치에서의 영역 스캔 데이터를 시뮬레이션하고, 시뮬레이션된 영역 스캔 데이터 중 실제 영역 스캔 데이터와 유사한 영역 스캔 데이터를 추출해야하기 때문에 비효율적이다.
자율 이동 로봇이 불필요하게 이동하지 않고 정지한 상태에서 빠르고 정확하게 현재 위치를 인식할 수 있는 이동 로봇의 위치 인식 방법을 제공하는 것이다.
일 실시 예에 따른 자율 이동 로봇의 위치 인식 방법은 격자 지도를 복수의 공간으로 분할하는 단계와, 분할된 상기 복수의 공간 각각에 대한 학습 데이터를 추출하는 단계와, 추출된 상기 학습 데이터를 이용하여 상기 복수의 공간 각각에 대한 공간 모델을 생성하는 단계 및 상기 학습 데이터와 공간 모델 및 자율 이동 로봇을 통해 입력되는 실제 영역 스캔 데이터를 이용하여 자율 이동 로봇의 현재 위치를 인식하는 단계를 포함한다.
도 1은 일 실시 예에 따른 자율 이동 로봇의 위치 인식 방법을 순차적으로 도시한 흐름도이다.
도 2는 격자 지도(Grid Map)를 복수의 공간으로 분할하는 과정을 구체적으로 도시한 흐름도이다.
도 3a 내지 도 3f는 격자 지도를 복수의 공간으로 분할하는 예를 도시한 도면이다.
도 4는 각 공간에 대한 학습 데이터를 추출하는 과정을 구체적으로 도시한 흐름도이다.
도 5는 가상 영역 스캔 데이터의 모든 포인트에 대한 지역 좌표계를 도시한 도면이다.
도 6은 가상 영역 스캔 데이터 중 하나의 포인트를 기준으로 하는 지역 형태 맥락 기술자(Local Shape Context Descriptor)를 도시한 도면이다.
도 7은 각 공간에 대한 공간 모델을 생성하는 과정을 구체적으로 도시한 흐름도이다.
도 8은 군집의 대표 특징점을 추출하는 일 예를 도시한 도면이다.
도 9는 도 1의 단계 S140을 구체적으로 도시한 흐름도이다.
본 발명의 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 연관되어지는 이하의 상세한 설명과 바람직한 실시 예들로부터 더욱 명백해질 것이다. 본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. 본 명세서에서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 상기 용어들에 의해 제한되는 것은 아니다.
이하, 첨부된 도면들을 참조하여 본 실시 예를 상세히 설명하기로 한다.
도 1은 일 실시 예에 따른 자율 이동 로봇의 위치 인식 방법을 순차적으로 도시한 흐름도이다.
도 1을 참조하면, 본 실시 예에 따른 자율 이동 로봇의 위치 인식 방법은 우선, 자율 이동 로봇 내에 내장된 격자 지도(Grid Map)를 복수의 공간으로 분할한다(S110).
여기에서, 격자 지도(Grid Map)는 자율 이동 로봇의 주위 환경을 작은 격자(Grid)로 나누어 각 격자에 물체가 있을 가능성을 확률적으로 표현한 지도로서, 확률 격자 지도라고도 불린다.
이와 같은 격자 지도(Grid Map)를 이용한 위치 인식 방법으로 잘 알려진 방법은 몬테카를로 위치 추정(Monte Carlo Localization) 방법이다. 이 방법은 자율 이동 로봇의 위치 인식을 위해 파티클 필터(Particle Filter)를 구현한 것으로, 추정 위치는 샘플(sample)로 표상된다. 즉, 기존의 격자 지도를 이용한 몬테카를로 위치 추정(Monte Carlo Localization) 방법은 많은 수의 추정 위치에 대한 샘플들을 격자 지도(Grid Map) 상에 무작위로 뿌리고, 자율 이동 로봇은 지속적으로 이동하면서 각 샘플에서의 영역 스캔 데이터를 수집하고, 샘플의 위치에서 시뮬레이션된 영역 스캔 데이터와 비교하여 샘플들을 수렴시키는 작업을 반복적으로 수행하면 최종적으로 샘플들은 한 곳으로 수렴되며 수렴된 위치를 자율 이동 로봇의 현재 위치로 인식하는 방법이다.
그러나, 이와 같은 자율 이동 로봇의 위치 인식 방법은 사용하는 샘플의 수가 적은 경우에는 위치 인식에 실패할 가능성이 있고, 샘플의 수가 많은 경우에는 위치 인식을 위한 연산 시간이 증가하는 단점이 있다. 또한, 샘플들을 한 곳으로 수렴시키기 위해 자율 이동 로봇이 지속적으로 이동해야하기 때문에 매우 비효율적이다.
이에 따라, 본 실시 예에서는 자율 이동 로봇의 위치를 보다 효율적으로 빠르게 인식하기 위해 우선, 상술한 바와 같이, 격자 지도(Grid Map)를 복수의 공간으로 분할한다(S110). 이후, 본 실시 예에서 격자 지도를 복수의 공간으로 분할하는 과정에 대하여 구체적으로 서술할 것이다.
도 2는 격자 지도를 복수의 공간으로 분할하는 과정을 구체적으로 도시한 흐름도이고, 도 3은 격자 지도를 복수의 공간으로 분할하는 예를 도시한 도면이다.
도 2 및 도 3을 참조하면, 본 실시 예에 따라 격자 지도를 복수의 공간으로 분할하는 과정은 우선, 격자 지도(100, 도 3a 참조)로부터 GVG(Generalized Voronoi Graph)(110, 도 3b 참조)를 추출한다(S111).
본 실시 예에서 GVG(Generalized Voronoi Graph)(110)는 브러쉬파이어 알고리즘(Brushfire algorithm)을 이용하여 추출될 수 있으나, 이는 하나의 실시 예에 불과하며, GVG(Generalized Voronoi Graph)(110)를 추출하는 방법이 이에 한정되는 것은 아니다.
다음, 단계 S111을 통해 추출된 GVG(Generalized Voronoi Graph)(110)로부터 분할될 공간들의 기준 위치(120, 도 3c 참조)를 추출한다(S112). 이때, 기준 위치(120)들은 도 3c에 도시한 바와 같이, GVG(Generalized Voronoi Graph)(110) 상에서 3개 이상의 에지(Edge)들이 교차하는 지점으로 결정될 수 있으나, 특별히 이에 한정되는 것은 아니다.
다음, 단계 S112를 통해 추출된 기준 위치(120)들 중 서로 근접한 기준 위치(120)들을 하나의 그룹(Group)으로 분류한다(S113). 본 실시 예에서는 스펙트럼 군집화(Spectral Clustering) 알고리즘을 이용하여 기준 위치(120)들을 그룹으로 분류하였으나, 기준 위치(120)들을 그룹으로 분류하는 방법이 반드시 이에 한정되는 것은 아니다. 이후, 하나의 그룹으로 분류된 기준 위치(120)들에는 서로 같은 식별 번호를 부여한다. 이와 같이 하나의 그룹으로 분류된 기준 위치(120)들에 서로 같은 식별 번호를 부여한 예를 도 3d에 도시하였다. 도 3d를 살펴보면, 하나의 그룹으로 분류된 기준 위치(120)들이 서로 같은 식별 번호를 갖는 것을 예로써, 서로 같은 무늬를 갖는 것으로 표시하였다.
다음, 도 3d와 같이 각각의 기준 위치(120)에 부여된 식별 번호와 동일한 식별 번호를 식별 번호가 부여되지 않은 이웃하는 격자들에게 반복적으로 복사하여 전파한다(S114). 본 단계를 통해 기준 위치(120)에 부여된 식별 번호와 동일한 식별 번호가 이웃하는 격자들에게 부여된 상태를 도 3e에 도시하였다. 도 3e에 도시한 바와 같이, 기준 위치(120)에 부여된 식별 번호와 동일한 식별 번호를 부여받은 이웃 격자는 또 자신의 이웃 격자들에게 반복적으로 동일한 식별 번호를 복사하여 전파한다. 이와 같은 단계를 격자 지도(100) 내의 모든 격자에 식별 번호가 부여될 때까지 반복적으로 수행하며, 이를 파면 전파(Wavefront Propagation)라 한다.
이와 같은 파면 전파(Wavefront Propagation) 단계가 종료되면, 도 3f에 도시한 바와 같이, 격자 지도(100)는 동일한 식별 번호를 가진 격자들을 포함하는 복수의 공간으로 분할될 수 있다(S115).
본 실시 예에서는 상술한 바와 같이, 격자 지도(100)로부터 GVG(110)를 추출하고, 추출된 GVG(110) 상에서 기준 위치(120)를 추출한 다음, 추출된 기준 위치(120)들을 다수의 그룹으로 분류하여 각 그룹에 포함된 기준 위치(120)들에 동일한 식별 번호를 부여한 후, 기준 위치(120)에 인접한 격자에 동일한 식별 번호를 전파하는 파면 전파를 수행하여 격자 지도(100)를 복수의 공간으로 분할하는 방법을 설명하고 있으나, 이는 하나의 실시 예에 불과하며, 격자 지도(100)를 복수의 공간으로 분할하는 방법이 특별히 이에 한정되는 것은 아니다.
다음, 상술한 단계 S110을 통해 분할된 각 공간에 대한 학습 데이터를 추출한다(S120).
도 4는 분할된 각 공간에 대한 학습 데이터를 추출하는 과정을 구체적으로 도시한 흐름도이고, 도 5는 가상 영역 스캔 데이터의 모든 포인트에 대한 지역 좌표계를 도시한 도면이며, 도 6은 가상 영역 스캔 데이터 중 하나의 포인트를 기준으로 하는 지역 형태 맥락 기술자(local shape context descriptor)를 도시한 도면이다.
도 4를 참조하면, 본 실시 예에서 분할된 각 공간에 대한 학습 데이터를 추출하는 과정은 다음과 같다.
우선, 분할된 각각의 공간에서 무작위로 샘플 위치를 추출한다(S121). 이때, 샘플 위치는 동일 식별 번호로 분류된 각각의 격자 그룹 즉, 각 공간별로 임의의 위치에 해당하는 격자를 무작위로 일정 개수 추출할 수 있으나, 특별히 이에 한정되는 것은 아니다.
다음, 추출된 각각의 샘플 위치에서의 가상 영역 스캔 데이터(virtual range scan data)를 추출한다(S122). 이때, 본 실시 예에서 가상 영역 스캔 데이터는 격자 지도상에서 추출된 샘플 위치에 자율 이동 로봇이 있다고 가정하고, 그 위치에서 영역 스캔 센서(range scan sensor)를 모델링(modeling)한 후, 레이 캐스팅 알고리즘(ray casting algorithm)을 적용하여 추출될 수 있으나, 가상 영역 스캔 데이터를 추출하는 방법이 반드시 이에 한정되는 것은 아니다. 이때, 상술한 영역 스캔 센서로는 레이저 센서, 초음파 센서, 적외선 센서 및 비전 센서 등이 사용될 수 있으나, 특별히 이에 한정되는 것은 아니다.
또한, 단계 S122를 통해 추출되는 가상 영역 스캔 데이터는 스캔 포인트(scan point)의 집합이며, 스캔 포인트의 개수는 영역 스캔 센서로부터 조사되는 광선의 개수와 같을 수 있다.
다음, 추출된 가상 영역 스캔 데이터의 모든 스캔 포인트에 대한 지역 형태 맥락 기술자(local shape context descriptor)를 추출한다(S123). 이때, 지역 형태 맥락 기술자는 가상 영역 스캔 데이터의 스캔 포인트 개수와 동일한 개수로 추출될 수 있다. 이후부터는, 실제 영역 스캔 데이터에 대한 지역 형태 맥락 기술자와의 구별을 위해 가상 영역 스캔 데이터에 대한 지역 형태 맥락 기술자를 가상 지역 형태 맥락 기술자라 명명할 것이다.
본 단계에서 가상 지역 형태 맥락 기술자를 추출하기 위해서는 먼저, 도 5에 도시한 바와 같이, 가상 영역 스캔 데이터의 모든 스캔 포인트(pi)에 대해 지역 좌표계(local coordinate system)를 정의해야한다. 본 실시 예에서 각 스캔 포인트(pi)에 대한 지역 좌표계는 다음과 같은 방법으로 정의할 수 있으나, 특별히 이에 한정되는 것은 아니다. 예를 들어, 도 5를 살펴보면 스캔 포인트(pi)를 지역 좌표계의 원점으로 하고, x축은 아래의 [수학식 1]을 이용하여 계산된 접선 방향(Tangent Direction) ui로 정의하며, y축은 접선 방향 ui와 수직인 방향으로 정의할 수 있다.
Figure 112013059811114-pat00001
다음, 이와 같이 정의된 지역 좌표계를 이용하여, 도 6에 도시한 바와 같이, 반지름이 R인 원을 정의하고, 그 원을 반지름 방향과 각도 방향으로 각각 길이 d와 각도 θ만큼 균등하게 분할한다. 이와 같이 분할된 영역 각각은 파이(pie) 형태를 이루며, 파이(pie)의 개수와 면적은 원을 분할하는 d와 θ의 크기에 따라 결정될 수 있다.
본 실시 예에서 추출되는 가상 지역 형태 맥락 기술자의 차원은 파이(pie) 즉, 분할된 영역의 개수와 같으며, 각 차원에 할당되는 값은 그 차원에 해당하는 파이의 면적 안에 포함된 스캔 포인트의 개수와 대응된다.
다음, 상술한 단계 S123을 통해 추출된 가상 지역 형태 맥락 기술자를 이용하여 분할된 각 공간을 학습한 후, 각 공간의 공간 모델을 생성한다(S130).
도 7은 각 공간에 대한 공간 모델을 생성하는 과정을 구체적으로 도시한 흐름도이고, 도 8은 군집의 대표 특징점을 추출하는 일 예를 도시한 도면이다.
도 7을 참조하면, 본 실시 예에서 각 공간에 대한 공간 모델을 생성하는 과정은 다음과 같다.
우선, 상술한 단계 S123을 통해 추출된 가상 지역 형태 맥락 기술자들을 이용하여 대표 형태 맥락 기술자(이후, 가상 대표 형태 맥락 기술자라 한다)를 연산한다(S131).
상술한 단계 S123을 통해 추출된 가상 지역 형태 맥락 기술자들의 개수는 매우 방대하므로, 이를 모두 이용하여 각 공간의 모델 파라미터를 학습하는 것은 비효율적이다.
이에 따라, 본 실시 예에서는 추출된 가상 지역 형태 맥락 기술자들을 근사화하는 가상 대표 형태 맥락 기술자를 연산한다. 이때, 예를 들어, 3차원의 가상 지역 형태 맥락 기술자는 3차원 공간상에 위치한 특징점들로 정의될 수 있다. 이러한 특징점들을 인접하는 것들끼리 군집화하고, 각 군집 별로 포함된 특징점들의 평균이 되는 대표 특징점을 연산하는 것이다. 여기에서, 대표 특징점들이 가상 대표 형태 맥락 기술자에 해당한다.
이때, 특징점들을 군집화하고, 대표 특징점을 계산하는 과정을 나타내는 일 예를 도 8에 도시하였다. 도 8을 참조하면, 도 8의 (a)는 2차원 공간에 놓인 특징점들을 나타내고, 도 8의 (b)는 2차원 공간에 놓인 특징점들을 3개의 군집으로 군집화한 예를 나타내며, 도 8의 (c)는 3개의 군집을 각각 이루는 특징점들의 평균이 되는 대표 특징점을 계산한 결과를 나타낸다.
본 실시 예에서는 가상 지역 형태 맥락 기술자를 군집화하기 위해 K 평균 군집화 알고리즘(K-means clustering algorithm)이 사용될 수 있으나, 가상 지역 형태 맥락 기술자를 군집화하는 방법이 특별히 이에 한정되는 것은 아니다. 여기에서, K 평균 군집화 알고리즘(K-means clustering algorithm)은 임의의 위치에 K 개의 평균점을 설정한 후, 그 점들로부터 가까운 것들을 군집화하여 K 개의 그룹으로 나누고, 다시 각 그룹 안에서 새로운 평균점을 설정하고 그룹을 나누는 것을 반복하는 알고리즘이다.
다음, 모든 가상 영역 스캔 데이터에 대한 가상 지역 형태 맥락 기술자들의 히스토그램(이하, 가상 히스토그램이라 한다)을 연산한다(S132).
예를 들어, 하나의 가상 영역 스캔 데이터를 이루는 스캔 포인트의 개수가 M개라고 하면, M개의 가상 지역 형태 맥락 기술자가 존재할 수 있으며, 본 단계에서는 M개의 가상 지역 형태 맥락 기술자에 대한 가상 히스토그램을 연산한다.
이때, 가상 히스토그램을 연산하기 위해서는 먼저, M개의 가상 지역 형태 맥락 기술자들을 K개의 가상 대표 형태 맥락 기술자들 중 하나로 근사화한다. 예를 들어, 가상 지역 형태 맥락 기술자와 가상 대표 형태 맥락 기술자들을 D차원 공간의 특징점들로 표현한다면, K 개의 가상 대표 형태 맥락 기술자 중에서 가상 지역 형태 맥락 기술자와 가장 가까운 가상 대표 형태 맥락 기술자를 가상 지역 형태 맥락 기술자들의 근사화된 값으로 결정할 수 있다.
또한, 가상 히스토그램의 x축은 가상 대표 형태 맥락 기술자의 식별 번호이고, y축은 각각의 가상 지역 형태 맥락 기술자가 근사화된 가상 대표 형태 맥락 기술자의 개수를 표시할 수 있으므로, 본 실시 예에서 가상 히스토그램은 K 차원의 벡터
Figure 112013059811114-pat00002
형태를 가질 수 있다. 본 단계를 통해 연산된 가상 영역 스캔 데이터의 가상 지역 형태 맥락 기술자에 대한 가상 히스토그램을 예로써,
Figure 112013059811114-pat00003
라고 정의한다. 여기에서, 아래 첨자
Figure 112013059811114-pat00004
는 가상(virtual)을 의미하는 것이다.
다음, 상술한 단계 S132를 통해 연산된 가상 히스토그램을 이용하여 각 공간을 학습한 후, 각 공간에 대한 공간 모델을 생성한다(S133).
본 실시 예에서는 지지 벡터 기계(Support Vector Machine, SVM) 학습 알고리즘을 통해 가상 히스토그램을 이용하여 각 공간의 모델 파라미터를 학습할 수 있으나, 사용될 수 있는 학습 알고리즘이 특별히 이에 한정되는 것은 아니며, 당 기술분야에 널리 알려진 다양한 기계 학습 알고리즘은 모두 사용 가능하다.
각 공간의 모델은 하기 [수학식 2]와 같이 표현되며, 각 공간의 모델은 K 차원에서 초평면(Hyperplane)의 형태를 가질 수 있다. 여기에서,
Figure 112013059811114-pat00005
(이후 벡터
Figure 112013059811114-pat00006
라 한다.)와
Figure 112013059811114-pat00007
는 공간의 모델 파라미터이다.
Figure 112013059811114-pat00008
이와 같이, 본 실시 예에서는 분할된 각 공간상의 임의로 선정된 샘플 위치에 자율 이동 로봇이 위치하는 것으로 가정하여 해당 샘플 위치에 영역 스캔 센서를 모델링한 후, 모델링된 영역 스캔 센서에 레이 캐스팅 알고리즘을 적용하여 가상 영역 스캔 데이터를 추출할 수 있다. 따라서, 본 실시 예에서는 자율 이동 로봇이 해당 샘플 위치로 직접 이동하지 않아도 해당 샘플 위치에서의 가상 영역 스캔 데이터를 추출할 수 있으므로, 자율 이동 로봇이 불필요한 이동을 하지 않아도 된다.
또한, 본 실시 예에서는 상술한 단계들을 통해 추출된 모든 가상 영역 스캔 데이터, 각 가상 영역 스캔 데이터에 대한 가상 지역 형태 맥락 기술자, 가상 지역 형태 맥락 기술자의 가상 히스토그램 및 각 공간에 대한 공간 모델은 자율 이동 로봇 내에 데이터 베이스 형태로 내장될 수 있으나, 특별히 이에 한정되는 것은 아니다.
다음, 도 1을 참조하면, 입력되는 실제 영역 스캔 데이터와 상술한 단계 S120을 통해 추출된 학습 데이터 및 단계 S130을 통해 생성된 공간 모델을 이용하여 자율 이동 로봇의 현재 위치를 인식한다(S140)
본 실시 예에 따른 위치 인식 과정을 간략히 서술하면, 자율 이동 로봇이 현재 위치에서 수집한 실제 영역 스캔 데이터를 입력으로 하여 현재 위치하고 있는 공간을 결정한 다음, 결정된 공간 내에서의 정확한 위치를 인식하는 순서로 수행될 수 있다.
이후, 도 9를 참조하여 자율 이동 로봇이 위치하고 있는 공간을 결정하고, 결정된 공간 내에서의 정확한 위치를 인식하는 과정을 설명할 것이다.
우선, 도 9에 도시한 바와 같이, 자율 이동 로봇이 위치하고 있는 공간을 결정하는 과정은 다음과 같다.
먼저, 자율 이동 로봇이 현재 위치에서 수집한 실제 영역 스캔 데이터의 각 스캔 포인트에 대한 지역 형태 맥락 기술자(local shape context descriptor)(이하, 실제 지역 형태 맥락 기술자라 한다)를 연산한다(S141).
이때, 상술한 실제 영역 스캔 데이터는 자율 이동 로봇에 마련된 영역 스캔 센서를 이용하여 수집될 수 있으며, 여기에서, 영역 스캔 센서로는 레이저 센서, 초음파 센서, 적외선 센서 및 비전 센서 등이 사용될 수 있으나, 특별히 이에 한정되는 것은 아니다.
또한, 본 단계에서 연산되는 실제 지역 형태 맥락 기술자는 상술한 가상 영역 스캔 데이터에 대한 가상 지역 형태 맥락 기술자를 연산하는 것과 같은 방법으로 연산될 수 있으므로, 중복되는 설명은 생략한다.
다음, 단계 S141을 통해 연산된 실제 지역 형태 맥락 기술자들의 히스토그램(이하, 실제 히스토그램이라 한다)을 연산한다(S142). 이때, 본 단계에서 실제 히스토그램은 상술한 가상 영역 스캔 데이터의 가상 지역 형태 맥락 기술자들의 가상 히스토그램을 연산하는 것과 같은 방법으로 연산될 수 있으므로, 중복되는 설명은 생략한다.
본 단계를 통해 연산된 실제 영역 스캔 데이터의 실제 지역 형태 맥락 기술자에 대한 실제 히스토그램을 예로써,
Figure 112013059811114-pat00009
라고 정의한다.
다음, 단계 S142를 통해 연산된 실제 히스토그램과 단계 S133을 통해 생성된 각 공간에 대한 공간 모델을 이용하여 각 공간에 대한 분류 점수(classification score)를 계산하고(S143), 계산된 분류 점수가 가장 큰 공간을 자율 이동 로봇이 위치하는 공간으로 결정한다(S144).
본 실시 예에서, 상술한 분류 점수는 하기 [수학식 3]을 이용하여 계산될 수 있다.
Figure 112013059811114-pat00010
여기에서,
Figure 112013059811114-pat00011
는 분류 점수(classification score)를 나타내고,
Figure 112013059811114-pat00012
Figure 112013059811114-pat00013
는 공간의 모델 파라미터를 나타내며,
Figure 112013059811114-pat00014
는 실제 영역 스캔 데이터의 실제 지역 형태 맥락 기술자에 대한 실제 히스토그램을 나타내고,
Figure 112013059811114-pat00015
는 공간의 식별 번호를 나타낸다. 이때,
Figure 112013059811114-pat00016
는 공간의 개수와 같다.
상술한 단계들을 통해 자율 이동 로봇이 위치하는 공간을 결정하였다.
다음, 도 9에 도시한 바와 같이, 결정된 공간 내에서 자율 이동 로봇이 위치한 정확한 지점을 인식하는 과정은 다음과 같다.
먼저, 단계 S144를 통해 자율 이동 로봇이 위치하는 것으로 결정된 공간의 가상 영역 스캔 데이터들 중 실제 영역 스캔 데이터와 가장 근접하는 최근접 가상 영역 스캔 데이터를 결정한다(S145).
즉, 상술한 단계 S121 및 단계 S122를 통해 각 공간에서 추출된 복수의 샘플 위치에서의 가상 영역 스캔 데이터들을 추출하였다. 이중 단계 S144를 통해 결정된 공간에서 추출된 복수의 가상 영역 스캔 데이터들 중 자율 이동 로봇에 마련된 영역 스캔 센서를 통해 수집된 실제 영역 스캔 데이터에 가장 근접하는 가상 영역 스캔 데이터를 결정하는 것이다.
본 실시 예에서 실제 영역 스캔 데이터와 가장 근접하는 최근접 가상 영역 스캔 데이터를 결정하는 것은 다음과 같은 방법을 통해 수행될 수 있으나, 이는 하나의 실시 예에 불과하며, 최근접 가상 영역 스캔 데이터를 결정하는 방법이 특별히 이에 한정되는 것은 아니다.
예를 들어, 실제 영역 스캔 데이터의 실제 지역 형태 맥락 기술자에 대한 실제 히스토그램을
Figure 112013059811114-pat00017
라고 정의하고, 결정된 공간에서 추출된 가상 영역 스캔 데이터의 가상 지역 형태 맥락 기술자에 대한 가상 히스토그램을
Figure 112013059811114-pat00018
라고 정의하면,
Figure 112013059811114-pat00019
Figure 112013059811114-pat00020
사이의 거리를 계산하여 가장 거리가 짧은 가상 영역 스캔 데이터를 실제 영역 스캔 데이터에 대한 최근접 가상 영역 스캔 데이터로 결정할 수 있다.
다음, 단계 S145를 통해 결정된 최근접 가상 영역 스캔 데이터와 실제 영역 스캔 데이터의 정합점(matching point)를 결정한다(S146).
즉, 최근접 가상 영역 스캔 데이터 각각의 스캔 포인트와 매칭되는 실제 영역 스캔 데이터 각각의 스캔 포인트를 결정하는 것이다. 본 실시 예에서는 최근접 가상 영역 스캔 데이터의 가상 지역 형태 맥락 기술자들과 실제 영역 스캔 데이터의 실제 지역 형태 맥락 기술자들을 헝가리안 방법(Hungarian Method)을 이용하여 비교하여 정합점을 결정할 수 있으나, 특별히 이에 한정되는 것은 아니다.
다음, 단계 S146을 통해 결정된 정합점을 이용하여 최근접 가상 영역 스캔 데이터에 대한 실제 영역 스캔 데이터의 상대 위치를 계산하여 자율 이동 로봇의 위치를 측정한다(S147).
구체적으로, 도 4를 참조하면, 각 공간에서 복수의 샘플 위치를 추출하고(S121), 추출된 샘플 위치에서의 가상 영역 스캔 데이터를 추출하므로(S122), 모든 가상 영역 스캔 데이터가 추출된 위치는 즉, 샘플 위치는 이미 알고 있는 정확한 위치에 해당한다. 즉, 격자 지도상에서 최근접 가상 영역 스캔 데이터가 추출된 위치는 이미 알고 있는 위치이므로, 위치를 알고 있는 최근접 가상 영역 스캔 데이터에 대한 실제 영역 스캔 데이터의 상대 위치를 계산하면, 격자 지도상에서의 실제 영역 스캔 데이터가 추출될 수 있는 위치를 알 수 있으며, 해당 위치를 자율 이동 로봇이 현재 존재하는 위치로 인식할 수 있는 것이다.
본 실시 예에서 최근접 가상 영역 스캔 데이터에 대한 실제 영역 스캔 데이터의 상대 위치를 계산하는 방법으로는 무작위 샘플 합의(RANdom SAmple Consensus, RANSAC) 알고리즘이 사용될 수 있으나, 특별히 이에 한정되는 것은 아니다.
상술한 바와 같이, 본 실시 예에서는 주어진 격자 지도를 복수의 공간으로 분할한 다음, 분할된 각 공간에서 복수의 샘플 위치를 추출하고, 추출된 복수의 샘플 위치 각각에 대한 복수의 가상 영역 스캔 데이터를 추출한다. 이후, 추출된 복수의 가상 영역 스캔 데이터 중 자율 이동 로봇이 실제로 수집한 실제 영역 스캔 데이터와 가장 근접하는 최근접 가상 영역 스캔 데이터를 결정하고, 결정된 최근접 가상 영역 스캔 데이터에 대한 실제 영역 스캔 데이터의 상대 위치를 계산함으로써, 자율 이동 로봇의 현재 위치를 인식할 수 있다.
이와 같은 실시 예에 따른 자율 이동 로봇의 위치 인식 방법은 격자 지도를 사용하여 자율 이동 로봇의 현재 위치를 인식하는데 기존의 파티클 필터(Particle Filter) 기반 방식들과 같이 샘플을 한 곳으로 수렴시키기 위해 로봇이 지속적으로 이동하면서 영역 스캔 데이터를 직접 수집해야하는 비효율적인 행동을 필요로 하지 않고, 제자리에 정지한 상태에서 수집한 하나의 실제 영역 스캔 데이터만을 이용하여 격자 지도상의 현재 위치를 빠르고 정확하게 인식할 수 있는 이점이 있다.
이상 본 발명을 구체적인 실시 예를 통하여 상세히 설명하였으나, 이는 본 발명을 구체적으로 설명하기 위한 것으로 본 발명은 이에 한정되지 않으며, 본 발명의 기술적 사상 내에서 당 분야의 통상의 지식을 가진 자에 의해 그 변형이나 개량이 가능함이 명백하다.
본 발명의 단순한 변형 내지 변경은 모두 본 발명의 영역에 속하는 것으로 본 발명의 구체적인 보호 범위는 첨부된 특허청구범위에 의하여 명확해질 것이다.
100 : 격자 지도
110 : GVG(Generalized Voronoi Graph)
120 : 기준 위치

Claims (18)

  1. 격자 지도를 복수의 공간으로 분할하는 단계;
    분할된 상기 복수의 공간 각각에 대한 학습 데이터를 추출하는 단계;
    추출된 상기 학습 데이터를 이용하여 상기 복수의 공간 각각에 대한 공간 모델을 생성하는 단계; 및
    상기 학습 데이터와 공간 모델 및 자율 이동 로봇을 통해 입력되는 실제 영역 스캔 데이터를 이용하여 자율 이동 로봇의 현재 위치를 인식하는 단계
    를 포함하는 자율 이동 로봇의 위치 인식 방법.
  2. 제1항에 있어서,
    상기 격자 지도를 복수의 공간으로 분할하는 단계는,
    상기 격자 지도로부터 GVG(Generalized Voronoi Graph)를 추출하는 단계;
    추출된 상기 GVG(Generalized Voronoi Graph)상에서 기준 위치들을 추출하는 단계;
    추출된 상기 기준 위치들 중 인접하는 기준 위치들을 동일 그룹으로 분류하고, 분류된 상기 동일 그룹 내에 포함되는 기준 위치들에 동일한 식별 번호를 부여하는 단계; 및
    상기 기준 위치들에 부여된 식별 번호와 동일한 식별 번호를 식별 번호가 부여되지 않은 이웃 격자들에게 전파하여 복수의 공간으로 분할하는 단계
    를 포함하는 자율 이동 로봇의 위치 인식 방법.
  3. 제2항에 있어서,
    상기 GVG(Generalized Voronoi Graph)를 추출하는 단계는 브러쉬파이어 알고리즘(brushfire algorithm)을 이용하여 수행되는 자율 이동 로봇의 위치 인식 방법.
  4. 제2항에 있어서,
    상기 기준 위치는 상기 GVG(Generalized Voronoi Graph)상에서 3개 이상의 에지(edge)들이 교차하는 지점인 자율 이동 로봇의 위치 인식 방법.
  5. 제2항에 있어서,
    상기 인접하는 기준 위치들을 동일 그룹으로 분류하는 것은 스펙트럼 군집화 알고리즘(spectral clustering algorithm)을 이용하여 수행되는 자율 이동 로봇의 위치 인식 방법.
  6. 제1항에 있어서,
    상기 복수의 공간 각각에 대한 학습 데이터를 추출하는 단계는,
    각 공간에서 복수의 샘플 위치를 추출하는 단계;
    추출된 각각의 샘플 위치에서의 가상 영역 스캔 데이터를 추출하는 단계; 및
    추출된 가상 영역 스캔 데이터에 대한 가상 지역 형태 맥락 기술자(local shape context descriptor)들을 추출하는 단계
    를 포함하는 자율 이동 로봇의 위치 인식 방법.
  7. 제6항에 있어서,
    상기 샘플 위치에서의 가상 영역 스캔 데이터를 추출하는 단계는,
    상기 샘플 위치상에 영역 스캔 센서(range scan sensor)를 모델링(modeling)한 다음, 모델링된 영역 스캔 센서에 레이 캐스팅 알고리즘(ray casting algorithm)을 적용하여 수행되는 자율 이동 로봇의 위치 인식 방법.
  8. 제6항에 있어서,
    상기 가상 영역 스캔 데이터는 복수의 스캔 포인트로 이루어진 자율 이동 로봇의 위치 인식 방법.
  9. 제8항에 있어서,
    상기 스캔 포인트의 개수는 상기 모델링된 영역 스캔 센서로부터 조사되는 광선의 개수와 동일한 자율 이동 로봇의 위치 인식 방법.
  10. 제8항에 있어서,
    상기 가상 지역 형태 맥락 기술자들을 추출하는 단계는,
    상기 복수의 스캔 포인트 각각에 대한 지역 좌표계(local coordinate system)를 정의하는 단계;
    정의된 상기 지역 좌표계의 원점을 중심으로 일정 길이의 반지름을 갖는 원을 정의하는 단계; 및
    정의된 상기 원을 반지름 방향과 각도 방향으로 각각 일정 길이와 일정 각도로 균등하게 분할하는 단계
    를 포함하는 자율 이동 로봇의 위치 인식 방법.
  11. 제6항에 있어서,
    상기 복수의 공간 각각에 대한 공간 모델을 생성하는 단계는,
    추출된 상기 가상 지역 형태 맥락 기술자들을 이용하여 가상 대표 형태 맥락 기술자들을 연산하는 단계;
    상기 가상 지역 형태 맥락 기술자들의 가상 히스토그램을 연산하는 단계; 및
    연산된 상기 가상 히스토그램을 이용하여 각 공간에 대한 공간 모델을 생성하는 단계
    를 포함하는 자율 이동 로봇의 위치 인식 방법.
  12. 제11항에 있어서,
    상기 가상 대표 형태 맥락 기술자들을 연산하는 단계는,
    상기 가상 지역 형태 맥락 기술자를 복수의 군집으로 군집화하는 단계; 및
    군집화된 상기 복수의 군집 각각을 이루는 가상 지역 형태 맥락 기술자들의 평균을 연산하는 단계
    를 포함하는 자율 이동 로봇의 위치 인식 방법.
  13. 제12항에 있어서,
    상기 가상 지역 형태 맥락 기술자를 복수의 군집으로 군집화하는 단계는 K 평균 군집화 알고리즘(K-means clustering algorithm)을 사용하여 수행되는 자율 이동 로봇의 위치 인식 방법.
  14. 제12항에 있어서,
    상기 가상 히스토그램을 연산하는 단계는 상기 각각의 가상 지역 형태 맥락 기술자들을 상기 연산된 가상 대표 형태 맥락 기술자들 중 하나의 가상 대표 형태 맥락 기술자로 근사화하여 수행되는 자율 이동 로봇의 위치 인식 방법.
  15. 제14항에 있어서,
    상기 가상 히스토그램의 x축은 상기 가상 대표 형태 맥락 기술자의 식별 번호이고, y축은 상기 각각의 가상 지역 형태 맥락 기술자가 근사화된 가상 대표 형태 맥락 기술자의 개수인 자율 이동 로봇의 위치 인식 방법.
  16. 제11항에 있어서,
    상기 자율 이동 로봇의 현재 위치를 인식하는 단계는,
    상기 자율 이동 로봇을 통해 입력되는 실제 영역 스캔 데이터에 대한 실제 지역 형태 맥락 기술자를 연산하는 단계;
    연산된 상기 실제 지역 형태 맥락 기술자들의 실제 히스토그램을 연산하는 단계;
    연산된 상기 실제 히스토그램 및 상기 공간 모델을 이용하여 상기 분할된 각 공간에 대한 분류 점수를 계산하는 단계;
    계산된 상기 분류 점수가 가장 큰 공간을 상기 자율 이동 로봇이 위치하는 공간으로 결정하는 단계;
    상기 결정된 공간의 가상 영역 스캔 데이터들 중 상기 실제 영역 스캔 데이터와 가장 근접하는 최근접 가상 영역 스캔 데이터를 결정하는 단계;
    상기 최근접 가상 영역 스캔 데이터와 상기 실제 영역 스캔 데이터의 정합점(matching point)을 결정하는 단계; 및
    상기 최근접 가상 영역 스캔 데이터에 대한 상기 실제 영역 스캔 데이터의 상대 위치를 계산하는 단계
    를 포함하는 자율 이동 로봇의 위치 인식 방법.
  17. 제16항에 있어서,
    상기 최근접 가상 영역 스캔 데이터와 상기 실제 영역 스캔 데이터의 정합점(matching point)을 결정하는 단계는,
    상기 최근접 가상 영역 스캔 데이터에 대한 가상 지역 형태 맥락 기술자들과 상기 실제 영역 스캔 데이터에 대한 실제 지역 형태 맥락 기술자들을 헝가리안 방법(hungarian method)으로 비교하여 수행되는 자율 이동 로봇의 위치 인식 방법.
  18. 제16항에 있어서,
    상기 최근접 가상 영역 스캔 데이터에 대한 상기 실제 영역 스캔 데이터의 상대 위치를 계산하는 단계는 RANSAC(RANdom SAmple Consensus) 알고리즘을 이용하여 수행되는 자율 이동 로봇의 위치 인식 방법.
KR1020130077668A 2013-07-03 2013-07-03 자율 이동 로봇의 위치 인식 방법 KR102096398B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020130077668A KR102096398B1 (ko) 2013-07-03 2013-07-03 자율 이동 로봇의 위치 인식 방법
US14/187,670 US9304001B2 (en) 2013-07-03 2014-02-24 Position recognition methods of autonomous mobile robots

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130077668A KR102096398B1 (ko) 2013-07-03 2013-07-03 자율 이동 로봇의 위치 인식 방법

Publications (2)

Publication Number Publication Date
KR20150004568A KR20150004568A (ko) 2015-01-13
KR102096398B1 true KR102096398B1 (ko) 2020-04-03

Family

ID=52133374

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130077668A KR102096398B1 (ko) 2013-07-03 2013-07-03 자율 이동 로봇의 위치 인식 방법

Country Status (2)

Country Link
US (1) US9304001B2 (ko)
KR (1) KR102096398B1 (ko)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102096398B1 (ko) * 2013-07-03 2020-04-03 삼성전자주식회사 자율 이동 로봇의 위치 인식 방법
US10168699B1 (en) * 2015-01-30 2019-01-01 Vecna Technologies, Inc. Interactions between a vehicle and a being encountered by the vehicle
US10564031B1 (en) * 2015-08-24 2020-02-18 X Development Llc Methods and systems for determining errors based on detected sounds during operation of a robotic device
EP3144765B1 (en) 2015-09-18 2020-01-08 Samsung Electronics Co., Ltd. Apparatus for localizing cleaning robot, cleaning robot, and controlling method of cleaning robot
KR102386361B1 (ko) * 2015-09-18 2022-04-15 삼성전자주식회사 이동 로봇의 위치 인식 장치 및 그 방법
KR102471487B1 (ko) * 2015-10-26 2022-11-28 삼성전자주식회사 청소 로봇 및 그 제어방법
KR20170053351A (ko) * 2015-11-06 2017-05-16 삼성전자주식회사 청소 로봇 및 그 제어 방법
US9943959B2 (en) * 2016-04-25 2018-04-17 Disney Enterprises, Inc. Map localizing with partially obstructed ranging devices for autonomous robots and vehicles
WO2017188706A1 (ko) * 2016-04-25 2017-11-02 엘지전자 주식회사 이동 로봇 및 이동 로봇의 제어방법
CN106052674B (zh) * 2016-05-20 2019-07-26 青岛克路德机器人有限公司 一种室内机器人的slam方法和系统
US10162362B2 (en) 2016-08-29 2018-12-25 PerceptIn, Inc. Fault tolerance to provide robust tracking for autonomous positional awareness
US11314262B2 (en) 2016-08-29 2022-04-26 Trifo, Inc. Autonomous platform guidance systems with task planning and obstacle avoidance
US10395117B1 (en) 2016-08-29 2019-08-27 Trifo, Inc. Visual-inertial positional awareness for autonomous and non-autonomous tracking
US10390003B1 (en) 2016-08-29 2019-08-20 Perceptln Shenzhen Limited Visual-inertial positional awareness for autonomous and non-autonomous device
US10683171B2 (en) 2016-09-30 2020-06-16 Staples, Inc. Hybrid modular storage fetching system
CN109791477A (zh) 2016-09-30 2019-05-21 史泰博公司 混合式模块化存储提取系统
US10589931B2 (en) 2016-09-30 2020-03-17 Staples, Inc. Hybrid modular storage fetching system
KR102656581B1 (ko) * 2016-11-24 2024-04-12 삼성전자주식회사 이동 로봇, 그를 포함하는 시스템 및 이동 로봇의 제어 방법
CN106598052A (zh) * 2016-12-14 2017-04-26 南京阿凡达机器人科技有限公司 一种基于环境地图的机器人安防巡检方法及其机器人
KR20180070062A (ko) * 2016-12-16 2018-06-26 삼성전자주식회사 이동체 및 이동체의 제어 방법
US11042777B2 (en) * 2017-03-27 2021-06-22 Shenzhen Institutes Of Advanced Technology Classification method and classification device of indoor scene
US10437252B1 (en) * 2017-09-08 2019-10-08 Perceptln Shenzhen Limited High-precision multi-layer visual and semantic map for autonomous driving
US10794710B1 (en) 2017-09-08 2020-10-06 Perceptin Shenzhen Limited High-precision multi-layer visual and semantic map by autonomous units
CN108733065B (zh) * 2017-09-29 2021-06-04 北京猎户星空科技有限公司 一种机器人的避障方法、装置及机器人
CN108256430B (zh) * 2017-12-20 2021-01-29 北京理工大学 障碍物信息获取方法、装置及机器人
WO2019183804A1 (zh) * 2018-03-27 2019-10-03 尤中乾 一种机器人规避控制方法及相关装置
CN108681323A (zh) * 2018-05-14 2018-10-19 浙江工业大学 基于Voronoi图的群组机器人自组装路径规划方法
US11407111B2 (en) 2018-06-27 2022-08-09 Abb Schweiz Ag Method and system to generate a 3D model for a robot scene
US11084410B1 (en) 2018-08-07 2021-08-10 Staples, Inc. Automated guided vehicle for transporting shelving units
US11590997B1 (en) 2018-08-07 2023-02-28 Staples, Inc. Autonomous shopping cart
US11630447B1 (en) 2018-08-10 2023-04-18 Staples, Inc. Automated guided vehicle for transporting objects
KR102106858B1 (ko) 2018-11-27 2020-05-06 노성우 하이브리드 타입의 물류로봇 위치추정방법
KR102145054B1 (ko) 2018-11-28 2020-08-18 성균관대학교 산학협력단 인간의 뇌지도 모델 및 인지 기반 이동로봇 주행을 위한 시맨틱 지도 작성 시스템
US11180069B2 (en) 2018-12-31 2021-11-23 Staples, Inc. Automated loading of delivery vehicles using automated guided vehicles
US11119487B2 (en) 2018-12-31 2021-09-14 Staples, Inc. Automated preparation of deliveries in delivery vehicles using automated guided vehicles
US11774983B1 (en) 2019-01-02 2023-10-03 Trifo, Inc. Autonomous platform guidance systems with unknown environment mapping
AU2019437767B2 (en) * 2019-03-28 2023-09-28 Lg Electronics Inc. Artificial intelligence cleaner and operation method thereof
US11124401B1 (en) 2019-03-31 2021-09-21 Staples, Inc. Automated loading of delivery vehicles
CN110909671B (zh) * 2019-11-21 2020-09-29 大连理工大学 一种融合概率和高度信息的栅格地图障碍物检测方法
KR102196076B1 (ko) * 2020-05-15 2020-12-29 주식회사 케이스랩 삼각-육각 지도 생성방법 및 장치와 이를 이용한 이동체의 광역위치 결정방법 및 장치
KR102292733B1 (ko) * 2020-06-08 2021-08-20 롯데정보통신 주식회사 복수의 이동 로봇의 자율 주행을 위한 비동기 분산 방식의 인공지능 모델 할당 시스템 및 그 방법
CN115363478A (zh) * 2021-05-17 2022-11-22 尚科宁家(中国)科技有限公司 一种清洁机器人重定位失败的清洁方法和清洁机器人
WO2023068542A1 (ko) * 2021-10-21 2023-04-27 한국전자통신연구원 모바일 로봇의 전역 위치인식을 위한 방법 및 컴퓨팅 장치
KR102631313B1 (ko) * 2023-06-08 2024-01-31 (주)인티그리트 Slam 기술 구현을 위한 비전 데이터 및 라이다 데이터 간의 실시간 분석 및 대조를 통해 위치 오차 보정이 가능한 장치
KR102631315B1 (ko) * 2023-06-08 2024-02-01 (주)인티그리트 Slam 기술 구현을 위한 비전 데이터 및 라이다 데이터 간의 실시간 분석 및 대조를 통해 위치 오차 보정이 가능한 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009205226A (ja) * 2008-02-26 2009-09-10 Toyota Motor Corp 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造
KR101202108B1 (ko) * 2010-06-03 2012-11-15 고려대학교 산학협력단 이동 로봇의 위치 추정 방법

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5006988A (en) * 1989-04-28 1991-04-09 University Of Michigan Obstacle-avoiding navigation system
US5850352A (en) * 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US7805220B2 (en) * 2003-03-14 2010-09-28 Sharper Image Acquisition Llc Robot vacuum with internal mapping system
GB2404466B (en) * 2003-07-31 2007-07-18 Hewlett Packard Development Co Method and apparatus for providing information about a real-world space
KR100601946B1 (ko) 2004-03-26 2006-07-14 삼성전자주식회사 로봇의 전역 위치 추정 방법
US20100013615A1 (en) * 2004-03-31 2010-01-21 Carnegie Mellon University Obstacle detection having enhanced classification
US8078338B2 (en) * 2004-10-22 2011-12-13 Irobot Corporation System and method for behavior based control of an autonomous vehicle
US7499804B2 (en) * 2004-10-22 2009-03-03 Irobot Corporation System and method for multi-modal control of an autonomous vehicle
US20070065002A1 (en) * 2005-02-18 2007-03-22 Laurence Marzell Adaptive 3D image modelling system and apparatus and method therefor
WO2007048029A2 (en) * 2005-10-21 2007-04-26 Deere & Company Systems and methods for obstacle avoidance
KR100843085B1 (ko) 2006-06-20 2008-07-02 삼성전자주식회사 이동 로봇의 격자지도 작성 방법 및 장치와 이를 이용한영역 분리 방법 및 장치
US8355818B2 (en) * 2009-09-03 2013-01-15 Battelle Energy Alliance, Llc Robots, systems, and methods for hazard evaluation and visualization
US7974738B2 (en) * 2006-07-05 2011-07-05 Battelle Energy Alliance, Llc Robotics virtual rail system and method
US9858712B2 (en) * 2007-04-09 2018-01-02 Sam Stathis System and method capable of navigating and/or mapping any multi-dimensional space
US7920961B2 (en) * 2007-08-29 2011-04-05 Sap Ag Method and apparatus for path planning and distance calculation
JP2010238217A (ja) 2009-03-09 2010-10-21 Yaskawa Electric Corp 移動ロボットの自己位置同定方法及び移動ロボット
CN104699099B (zh) 2009-08-31 2018-03-23 Neato机器人技术公司 移动机器人环境的同时定位和地图绘制的方法和设备
JP4866951B2 (ja) * 2009-09-16 2012-02-01 株式会社日立製作所 測位組み合わせ決定システム
KR20120043446A (ko) * 2010-10-26 2012-05-04 한국전자통신연구원 차량 및 장애물의 위치 검출 장치 및 그 방법
KR101739996B1 (ko) 2010-11-03 2017-05-25 삼성전자주식회사 이동 로봇 및 이동 로봇의 위치 인식 및 지도 작성 방법
KR102096398B1 (ko) * 2013-07-03 2020-04-03 삼성전자주식회사 자율 이동 로봇의 위치 인식 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009205226A (ja) * 2008-02-26 2009-09-10 Toyota Motor Corp 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造
KR101202108B1 (ko) * 2010-06-03 2012-11-15 고려대학교 산학협력단 이동 로봇의 위치 추정 방법

Also Published As

Publication number Publication date
US9304001B2 (en) 2016-04-05
US20150012209A1 (en) 2015-01-08
KR20150004568A (ko) 2015-01-13

Similar Documents

Publication Publication Date Title
KR102096398B1 (ko) 자율 이동 로봇의 위치 인식 방법
Zermas et al. Fast segmentation of 3d point clouds: A paradigm on lidar data for autonomous vehicle applications
Dong et al. Real-time avoidance strategy of dynamic obstacles via half model-free detection and tracking with 2d lidar for mobile robots
JP6773471B2 (ja) 自律移動体と環境地図更新装置
CN105551015A (zh) 一种散乱点云图像配准方法
Vieira et al. Spatial density patterns for efficient change detection in 3d environment for autonomous surveillance robots
Wei et al. Multi-sensor detection and control network technology based on parallel computing model in robot target detection and recognition
Yeon et al. Robust-PCA-based hierarchical plane extraction for application to geometric 3D indoor mapping
Drews et al. Fast and adaptive 3d change detection algorithm for autonomous robots based on gaussian mixture models
Yin et al. A failure detection method for 3D LiDAR based localization
Ramachandran et al. A probabilistic approach to automated construction of topological maps using a stochastic robotic swarm
CN113936210A (zh) 塔吊防撞方法
Wang et al. A new approach to model-free tracking with 2D lidar
Li et al. Intersection detection and recognition for autonomous urban driving using a virtual cylindrical scanner
Chen et al. Sparse Gaussian process regression based ground segmentation for autonomous land vehicles
Zhou et al. Gaussian-weighted Jensen–Shannon divergence as a robust fitness function for multi-model fitting
Wang et al. A 64-line Lidar-based road obstacle sensing algorithm for intelligent vehicles
Masuzawa et al. Observation planning for environment information summarization with deadlines
Qu et al. A Grey Qualitative Based Approach for Environmental Information Analysis.
Kaleci et al. Plane segmentation of point cloud data using split and merge based method
Kim et al. Contact-based pose estimation of workpieces for robotic setups
Ali et al. Fast gravitational approach for rigid point set registration with ordinary differential equations
Barbosa et al. Soft constrained autonomous vehicle navigation using gaussian processes and instance segmentation
Li et al. An Ant–Based Filtering Random–Finite–Set Approach to Simultaneous Localization and Mapping
Li et al. Lidar-based vehicle detection for dynamic SLAM applications

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right