KR20150004568A - 자율 이동 로봇의 위치 인식 방법 - Google Patents
자율 이동 로봇의 위치 인식 방법 Download PDFInfo
- Publication number
- KR20150004568A KR20150004568A KR1020130077668A KR20130077668A KR20150004568A KR 20150004568 A KR20150004568 A KR 20150004568A KR 1020130077668 A KR1020130077668 A KR 1020130077668A KR 20130077668 A KR20130077668 A KR 20130077668A KR 20150004568 A KR20150004568 A KR 20150004568A
- Authority
- KR
- South Korea
- Prior art keywords
- virtual
- scan data
- area scan
- mobile robot
- autonomous mobile
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000005266 casting Methods 0.000 claims description 4
- 238000003064 k means clustering Methods 0.000 claims description 3
- 230000003595 spectral effect Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 7
- 241000282414 Homo sapiens Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- UDHXJZHVNHGCEC-UHFFFAOYSA-N Chlorophacinone Chemical compound C1=CC(Cl)=CC=C1C(C=1C=CC=CC=1)C(=O)C1C(=O)C2=CC=CC=C2C1=O UDHXJZHVNHGCEC-UHFFFAOYSA-N 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Image Analysis (AREA)
Abstract
일 실시 예에 따른 자율 이동 로봇의 위치 인식 방법은 격자 지도를 복수의 공간으로 분할하는 단계와, 분할된 상기 복수의 공간 각각에 대한 학습 데이터를 추출하는 단계와, 추출된 상기 학습 데이터를 이용하여 상기 복수의 공간 각각에 대한 공간 모델을 생성하는 단계 및 상기 학습 데이터와 공간 모델 및 자율 이동 로봇을 통해 입력되는 실제 영역 스캔 데이터를 이용하여 자율 이동 로봇의 현재 위치를 인식하는 단계를 포함한다.
Description
자율 이동 로봇의 위치 인식 방법이 개시된다. 더욱 상세하게는, 자율 이동 로봇이 불필요하게 이동하지 않고 정지한 상태에서 현재 위치를 인식할 수 있는 방법이 개시된다.
자율 이동 로봇(Autonomous mobile robot)은 미지의 환경에서 사전지식 없이 스스로 그 환경에 대처할 수 있는 능력을 가진 로봇을 말한다. 이와 같은 자율 이동 로봇은 다양한 분야에서 널리 사용되고 있는데, 예를 들어, 장애자를 도와주는 일, 공장에서의 물류 이송 작업, 핵폐기물 처리장 또는 심해와 같은 위험한 환경에서의 작업 등을 인간을 대신하여 수행하고 있다. 뿐만 아니라 무인 청소기, 무인 잔디 깎기 등으로도 사용될 수 있다.
이러한 자율 이동 로봇이 인간에게 효율적으로 서비스를 제공하기 위해서는 인간과 공유하는 환경 내에서 자신의 위치를 인식하는 기능이 필수적으로 요구된다. 이때, 자율 이동 로봇이 자신의 위치를 인식하는 방법은 로봇이 내장하고 있는 환경 지도의 종류에 따라 다양하다. 환경 지도는 크게 형상 지도(Feature Map)과 격자 지도(Grid Map)을 포함할 수 있으며, 이중 격자 지도(Grid Map)가 널리 사용된다.
격자 지도(Grid Map)를 사용하여 위치를 인식하는 일반적인 방법은 다음과 같다. 즉, 격자 지도(Grid Map) 상에서 자율 이동 로봇이 위치할 만한 위치들을 추정하고, 추정 위치에서 획득할 수 있는 모든 영역 스캔 데이터(Range Scan Data)를 시뮬레이션하고, 시뮬레이션된 모든 영역 스캔 데이터 중 자율 이동 로봇이 영역 스캔 센서(Range Scan Data)를 이용하여 실제로 수집한 영역 스캔 데이터와 가장 유사한 데이터를 찾아내고, 그 데이터가 만들어진 추정 위치를 자율 이동 로봇의 현재 위치로 인식하는 방법이다.
그러나, 이와 같은 위치 인식 방법은 추정 위치의 수가 적은 경우에는 위치 인식이 실패할 가능성이 있고, 추정 위치의 수가 많은 경우에는 위치 인식을 위한 연산 시간이 증가하는 단점이 있다. 또한, 자율 이동 로봇이 추정 위치를 따라 계속 이동하면서 해당 위치에서의 영역 스캔 데이터를 시뮬레이션하고, 시뮬레이션된 영역 스캔 데이터 중 실제 영역 스캔 데이터와 유사한 영역 스캔 데이터를 추출해야하기 때문에 비효율적이다.
자율 이동 로봇이 불필요하게 이동하지 않고 정지한 상태에서 빠르고 정확하게 현재 위치를 인식할 수 있는 이동 로봇의 위치 인식 방법을 제공하는 것이다.
일 실시 예에 따른 자율 이동 로봇의 위치 인식 방법은 격자 지도를 복수의 공간으로 분할하는 단계와, 분할된 상기 복수의 공간 각각에 대한 학습 데이터를 추출하는 단계와, 추출된 상기 학습 데이터를 이용하여 상기 복수의 공간 각각에 대한 공간 모델을 생성하는 단계 및 상기 학습 데이터와 공간 모델 및 자율 이동 로봇을 통해 입력되는 실제 영역 스캔 데이터를 이용하여 자율 이동 로봇의 현재 위치를 인식하는 단계를 포함한다.
도 1은 일 실시 예에 따른 자율 이동 로봇의 위치 인식 방법을 순차적으로 도시한 흐름도이다.
도 2는 격자 지도(Grid Map)를 복수의 공간으로 분할하는 과정을 구체적으로 도시한 흐름도이다.
도 3a 내지 도 3f는 격자 지도를 복수의 공간으로 분할하는 예를 도시한 도면이다.
도 4는 각 공간에 대한 학습 데이터를 추출하는 과정을 구체적으로 도시한 흐름도이다.
도 5는 가상 영역 스캔 데이터의 모든 포인트에 대한 지역 좌표계를 도시한 도면이다.
도 6은 가상 영역 스캔 데이터 중 하나의 포인트를 기준으로 하는 지역 형태 맥락 기술자(Local Shape Context Descriptor)를 도시한 도면이다.
도 7은 각 공간에 대한 공간 모델을 생성하는 과정을 구체적으로 도시한 흐름도이다.
도 8은 군집의 대표 특징점을 추출하는 일 예를 도시한 도면이다.
도 9는 도 1의 단계 S140을 구체적으로 도시한 흐름도이다.
도 2는 격자 지도(Grid Map)를 복수의 공간으로 분할하는 과정을 구체적으로 도시한 흐름도이다.
도 3a 내지 도 3f는 격자 지도를 복수의 공간으로 분할하는 예를 도시한 도면이다.
도 4는 각 공간에 대한 학습 데이터를 추출하는 과정을 구체적으로 도시한 흐름도이다.
도 5는 가상 영역 스캔 데이터의 모든 포인트에 대한 지역 좌표계를 도시한 도면이다.
도 6은 가상 영역 스캔 데이터 중 하나의 포인트를 기준으로 하는 지역 형태 맥락 기술자(Local Shape Context Descriptor)를 도시한 도면이다.
도 7은 각 공간에 대한 공간 모델을 생성하는 과정을 구체적으로 도시한 흐름도이다.
도 8은 군집의 대표 특징점을 추출하는 일 예를 도시한 도면이다.
도 9는 도 1의 단계 S140을 구체적으로 도시한 흐름도이다.
본 발명의 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 연관되어지는 이하의 상세한 설명과 바람직한 실시 예들로부터 더욱 명백해질 것이다. 본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. 본 명세서에서, 제1, 제2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 상기 용어들에 의해 제한되는 것은 아니다.
이하, 첨부된 도면들을 참조하여 본 실시 예를 상세히 설명하기로 한다.
도 1은 일 실시 예에 따른 자율 이동 로봇의 위치 인식 방법을 순차적으로 도시한 흐름도이다.
도 1을 참조하면, 본 실시 예에 따른 자율 이동 로봇의 위치 인식 방법은 우선, 자율 이동 로봇 내에 내장된 격자 지도(Grid Map)를 복수의 공간으로 분할한다(S110).
여기에서, 격자 지도(Grid Map)는 자율 이동 로봇의 주위 환경을 작은 격자(Grid)로 나누어 각 격자에 물체가 있을 가능성을 확률적으로 표현한 지도로서, 확률 격자 지도라고도 불린다.
이와 같은 격자 지도(Grid Map)를 이용한 위치 인식 방법으로 잘 알려진 방법은 몬테카를로 위치 추정(Monte Carlo Localization) 방법이다. 이 방법은 자율 이동 로봇의 위치 인식을 위해 파티클 필터(Particle Filter)를 구현한 것으로, 추정 위치는 샘플(sample)로 표상된다. 즉, 기존의 격자 지도를 이용한 몬테카를로 위치 추정(Monte Carlo Localization) 방법은 많은 수의 추정 위치에 대한 샘플들을 격자 지도(Grid Map) 상에 무작위로 뿌리고, 자율 이동 로봇은 지속적으로 이동하면서 각 샘플에서의 영역 스캔 데이터를 수집하고, 샘플의 위치에서 시뮬레이션된 영역 스캔 데이터와 비교하여 샘플들을 수렴시키는 작업을 반복적으로 수행하면 최종적으로 샘플들은 한 곳으로 수렴되며 수렴된 위치를 자율 이동 로봇의 현재 위치로 인식하는 방법이다.
그러나, 이와 같은 자율 이동 로봇의 위치 인식 방법은 사용하는 샘플의 수가 적은 경우에는 위치 인식에 실패할 가능성이 있고, 샘플의 수가 많은 경우에는 위치 인식을 위한 연산 시간이 증가하는 단점이 있다. 또한, 샘플들을 한 곳으로 수렴시키기 위해 자율 이동 로봇이 지속적으로 이동해야하기 때문에 매우 비효율적이다.
이에 따라, 본 실시 예에서는 자율 이동 로봇의 위치를 보다 효율적으로 빠르게 인식하기 위해 우선, 상술한 바와 같이, 격자 지도(Grid Map)를 복수의 공간으로 분할한다(S110). 이후, 본 실시 예에서 격자 지도를 복수의 공간으로 분할하는 과정에 대하여 구체적으로 서술할 것이다.
도 2는 격자 지도를 복수의 공간으로 분할하는 과정을 구체적으로 도시한 흐름도이고, 도 3은 격자 지도를 복수의 공간으로 분할하는 예를 도시한 도면이다.
도 2 및 도 3을 참조하면, 본 실시 예에 따라 격자 지도를 복수의 공간으로 분할하는 과정은 우선, 격자 지도(100, 도 3a 참조)로부터 GVG(Generalized Voronoi Graph)(110, 도 3b 참조)를 추출한다(S111).
본 실시 예에서 GVG(Generalized Voronoi Graph)(110)는 브러쉬파이어 알고리즘(Brushfire algorithm)을 이용하여 추출될 수 있으나, 이는 하나의 실시 예에 불과하며, GVG(Generalized Voronoi Graph)(110)를 추출하는 방법이 이에 한정되는 것은 아니다.
다음, 단계 S111을 통해 추출된 GVG(Generalized Voronoi Graph)(110)로부터 분할될 공간들의 기준 위치(120, 도 3c 참조)를 추출한다(S112). 이때, 기준 위치(120)들은 도 3c에 도시한 바와 같이, GVG(Generalized Voronoi Graph)(110) 상에서 3개 이상의 에지(Edge)들이 교차하는 지점으로 결정될 수 있으나, 특별히 이에 한정되는 것은 아니다.
다음, 단계 S112를 통해 추출된 기준 위치(120)들 중 서로 근접한 기준 위치(120)들을 하나의 그룹(Group)으로 분류한다(S113). 본 실시 예에서는 스펙트럼 군집화(Spectral Clustering) 알고리즘을 이용하여 기준 위치(120)들을 그룹으로 분류하였으나, 기준 위치(120)들을 그룹으로 분류하는 방법이 반드시 이에 한정되는 것은 아니다. 이후, 하나의 그룹으로 분류된 기준 위치(120)들에는 서로 같은 식별 번호를 부여한다. 이와 같이 하나의 그룹으로 분류된 기준 위치(120)들에 서로 같은 식별 번호를 부여한 예를 도 3d에 도시하였다. 도 3d를 살펴보면, 하나의 그룹으로 분류된 기준 위치(120)들이 서로 같은 식별 번호를 갖는 것을 예로써, 서로 같은 무늬를 갖는 것으로 표시하였다.
다음, 도 3d와 같이 각각의 기준 위치(120)에 부여된 식별 번호와 동일한 식별 번호를 식별 번호가 부여되지 않은 이웃하는 격자들에게 반복적으로 복사하여 전파한다(S114). 본 단계를 통해 기준 위치(120)에 부여된 식별 번호와 동일한 식별 번호가 이웃하는 격자들에게 부여된 상태를 도 3e에 도시하였다. 도 3e에 도시한 바와 같이, 기준 위치(120)에 부여된 식별 번호와 동일한 식별 번호를 부여받은 이웃 격자는 또 자신의 이웃 격자들에게 반복적으로 동일한 식별 번호를 복사하여 전파한다. 이와 같은 단계를 격자 지도(100) 내의 모든 격자에 식별 번호가 부여될 때까지 반복적으로 수행하며, 이를 파면 전파(Wavefront Propagation)라 한다.
이와 같은 파면 전파(Wavefront Propagation) 단계가 종료되면, 도 3f에 도시한 바와 같이, 격자 지도(100)는 동일한 식별 번호를 가진 격자들을 포함하는 복수의 공간으로 분할될 수 있다(S115).
본 실시 예에서는 상술한 바와 같이, 격자 지도(100)로부터 GVG(110)를 추출하고, 추출된 GVG(110) 상에서 기준 위치(120)를 추출한 다음, 추출된 기준 위치(120)들을 다수의 그룹으로 분류하여 각 그룹에 포함된 기준 위치(120)들에 동일한 식별 번호를 부여한 후, 기준 위치(120)에 인접한 격자에 동일한 식별 번호를 전파하는 파면 전파를 수행하여 격자 지도(100)를 복수의 공간으로 분할하는 방법을 설명하고 있으나, 이는 하나의 실시 예에 불과하며, 격자 지도(100)를 복수의 공간으로 분할하는 방법이 특별히 이에 한정되는 것은 아니다.
다음, 상술한 단계 S110을 통해 분할된 각 공간에 대한 학습 데이터를 추출한다(S120).
도 4는 분할된 각 공간에 대한 학습 데이터를 추출하는 과정을 구체적으로 도시한 흐름도이고, 도 5는 가상 영역 스캔 데이터의 모든 포인트에 대한 지역 좌표계를 도시한 도면이며, 도 6은 가상 영역 스캔 데이터 중 하나의 포인트를 기준으로 하는 지역 형태 맥락 기술자(local shape context descriptor)를 도시한 도면이다.
도 4를 참조하면, 본 실시 예에서 분할된 각 공간에 대한 학습 데이터를 추출하는 과정은 다음과 같다.
우선, 분할된 각각의 공간에서 무작위로 샘플 위치를 추출한다(S121). 이때, 샘플 위치는 동일 식별 번호로 분류된 각각의 격자 그룹 즉, 각 공간별로 임의의 위치에 해당하는 격자를 무작위로 일정 개수 추출할 수 있으나, 특별히 이에 한정되는 것은 아니다.
다음, 추출된 각각의 샘플 위치에서의 가상 영역 스캔 데이터(virtual range scan data)를 추출한다(S122). 이때, 본 실시 예에서 가상 영역 스캔 데이터는 격자 지도상에서 추출된 샘플 위치에 자율 이동 로봇이 있다고 가정하고, 그 위치에서 영역 스캔 센서(range scan sensor)를 모델링(modeling)한 후, 레이 캐스팅 알고리즘(ray casting algorithm)을 적용하여 추출될 수 있으나, 가상 영역 스캔 데이터를 추출하는 방법이 반드시 이에 한정되는 것은 아니다. 이때, 상술한 영역 스캔 센서로는 레이저 센서, 초음파 센서, 적외선 센서 및 비전 센서 등이 사용될 수 있으나, 특별히 이에 한정되는 것은 아니다.
또한, 단계 S122를 통해 추출되는 가상 영역 스캔 데이터는 스캔 포인트(scan point)의 집합이며, 스캔 포인트의 개수는 영역 스캔 센서로부터 조사되는 광선의 개수와 같을 수 있다.
다음, 추출된 가상 영역 스캔 데이터의 모든 스캔 포인트에 대한 지역 형태 맥락 기술자(local shape context descriptor)를 추출한다(S123). 이때, 지역 형태 맥락 기술자는 가상 영역 스캔 데이터의 스캔 포인트 개수와 동일한 개수로 추출될 수 있다. 이후부터는, 실제 영역 스캔 데이터에 대한 지역 형태 맥락 기술자와의 구별을 위해 가상 영역 스캔 데이터에 대한 지역 형태 맥락 기술자를 가상 지역 형태 맥락 기술자라 명명할 것이다.
본 단계에서 가상 지역 형태 맥락 기술자를 추출하기 위해서는 먼저, 도 5에 도시한 바와 같이, 가상 영역 스캔 데이터의 모든 스캔 포인트(pi)에 대해 지역 좌표계(local coordinate system)를 정의해야한다. 본 실시 예에서 각 스캔 포인트(pi)에 대한 지역 좌표계는 다음과 같은 방법으로 정의할 수 있으나, 특별히 이에 한정되는 것은 아니다. 예를 들어, 도 5를 살펴보면 스캔 포인트(pi)를 지역 좌표계의 원점으로 하고, x축은 아래의 [수학식 1]을 이용하여 계산된 접선 방향(Tangent Direction) ui로 정의하며, y축은 접선 방향 ui와 수직인 방향으로 정의할 수 있다.
다음, 이와 같이 정의된 지역 좌표계를 이용하여, 도 6에 도시한 바와 같이, 반지름이 R인 원을 정의하고, 그 원을 반지름 방향과 각도 방향으로 각각 길이 d와 각도 θ만큼 균등하게 분할한다. 이와 같이 분할된 영역 각각은 파이(pie) 형태를 이루며, 파이(pie)의 개수와 면적은 원을 분할하는 d와 θ의 크기에 따라 결정될 수 있다.
본 실시 예에서 추출되는 가상 지역 형태 맥락 기술자의 차원은 파이(pie) 즉, 분할된 영역의 개수와 같으며, 각 차원에 할당되는 값은 그 차원에 해당하는 파이의 면적 안에 포함된 스캔 포인트의 개수와 대응된다.
다음, 상술한 단계 S123을 통해 추출된 가상 지역 형태 맥락 기술자를 이용하여 분할된 각 공간을 학습한 후, 각 공간의 공간 모델을 생성한다(S130).
도 7은 각 공간에 대한 공간 모델을 생성하는 과정을 구체적으로 도시한 흐름도이고, 도 8은 군집의 대표 특징점을 추출하는 일 예를 도시한 도면이다.
도 7을 참조하면, 본 실시 예에서 각 공간에 대한 공간 모델을 생성하는 과정은 다음과 같다.
우선, 상술한 단계 S123을 통해 추출된 가상 지역 형태 맥락 기술자들을 이용하여 대표 형태 맥락 기술자(이후, 가상 대표 형태 맥락 기술자라 한다)를 연산한다(S131).
상술한 단계 S123을 통해 추출된 가상 지역 형태 맥락 기술자들의 개수는 매우 방대하므로, 이를 모두 이용하여 각 공간의 모델 파라미터를 학습하는 것은 비효율적이다.
이에 따라, 본 실시 예에서는 추출된 가상 지역 형태 맥락 기술자들을 근사화하는 가상 대표 형태 맥락 기술자를 연산한다. 이때, 예를 들어, 3차원의 가상 지역 형태 맥락 기술자는 3차원 공간상에 위치한 특징점들로 정의될 수 있다. 이러한 특징점들을 인접하는 것들끼리 군집화하고, 각 군집 별로 포함된 특징점들의 평균이 되는 대표 특징점을 연산하는 것이다. 여기에서, 대표 특징점들이 가상 대표 형태 맥락 기술자에 해당한다.
이때, 특징점들을 군집화하고, 대표 특징점을 계산하는 과정을 나타내는 일 예를 도 8에 도시하였다. 도 8을 참조하면, 도 8의 (a)는 2차원 공간에 놓인 특징점들을 나타내고, 도 8의 (b)는 2차원 공간에 놓인 특징점들을 3개의 군집으로 군집화한 예를 나타내며, 도 8의 (c)는 3개의 군집을 각각 이루는 특징점들의 평균이 되는 대표 특징점을 계산한 결과를 나타낸다.
본 실시 예에서는 가상 지역 형태 맥락 기술자를 군집화하기 위해 K 평균 군집화 알고리즘(K-means clustering algorithm)이 사용될 수 있으나, 가상 지역 형태 맥락 기술자를 군집화하는 방법이 특별히 이에 한정되는 것은 아니다. 여기에서, K 평균 군집화 알고리즘(K-means clustering algorithm)은 임의의 위치에 K 개의 평균점을 설정한 후, 그 점들로부터 가까운 것들을 군집화하여 K 개의 그룹으로 나누고, 다시 각 그룹 안에서 새로운 평균점을 설정하고 그룹을 나누는 것을 반복하는 알고리즘이다.
다음, 모든 가상 영역 스캔 데이터에 대한 가상 지역 형태 맥락 기술자들의 히스토그램(이하, 가상 히스토그램이라 한다)을 연산한다(S132).
예를 들어, 하나의 가상 영역 스캔 데이터를 이루는 스캔 포인트의 개수가 M개라고 하면, M개의 가상 지역 형태 맥락 기술자가 존재할 수 있으며, 본 단계에서는 M개의 가상 지역 형태 맥락 기술자에 대한 가상 히스토그램을 연산한다.
이때, 가상 히스토그램을 연산하기 위해서는 먼저, M개의 가상 지역 형태 맥락 기술자들을 K개의 가상 대표 형태 맥락 기술자들 중 하나로 근사화한다. 예를 들어, 가상 지역 형태 맥락 기술자와 가상 대표 형태 맥락 기술자들을 D차원 공간의 특징점들로 표현한다면, K 개의 가상 대표 형태 맥락 기술자 중에서 가상 지역 형태 맥락 기술자와 가장 가까운 가상 대표 형태 맥락 기술자를 가상 지역 형태 맥락 기술자들의 근사화된 값으로 결정할 수 있다.
또한, 가상 히스토그램의 x축은 가상 대표 형태 맥락 기술자의 식별 번호이고, y축은 각각의 가상 지역 형태 맥락 기술자가 근사화된 가상 대표 형태 맥락 기술자의 개수를 표시할 수 있으므로, 본 실시 예에서 가상 히스토그램은 K 차원의 벡터 형태를 가질 수 있다. 본 단계를 통해 연산된 가상 영역 스캔 데이터의 가상 지역 형태 맥락 기술자에 대한 가상 히스토그램을 예로써, 라고 정의한다. 여기에서, 아래 첨자 는 가상(virtual)을 의미하는 것이다.
다음, 상술한 단계 S132를 통해 연산된 가상 히스토그램을 이용하여 각 공간을 학습한 후, 각 공간에 대한 공간 모델을 생성한다(S133).
본 실시 예에서는 지지 벡터 기계(Support Vector Machine, SVM) 학습 알고리즘을 통해 가상 히스토그램을 이용하여 각 공간의 모델 파라미터를 학습할 수 있으나, 사용될 수 있는 학습 알고리즘이 특별히 이에 한정되는 것은 아니며, 당 기술분야에 널리 알려진 다양한 기계 학습 알고리즘은 모두 사용 가능하다.
각 공간의 모델은 하기 [수학식 2]와 같이 표현되며, 각 공간의 모델은 K 차원에서 초평면(Hyperplane)의 형태를 가질 수 있다. 여기에서, (이후 벡터 라 한다.)와 는 공간의 모델 파라미터이다.
이와 같이, 본 실시 예에서는 분할된 각 공간상의 임의로 선정된 샘플 위치에 자율 이동 로봇이 위치하는 것으로 가정하여 해당 샘플 위치에 영역 스캔 센서를 모델링한 후, 모델링된 영역 스캔 센서에 레이 캐스팅 알고리즘을 적용하여 가상 영역 스캔 데이터를 추출할 수 있다. 따라서, 본 실시 예에서는 자율 이동 로봇이 해당 샘플 위치로 직접 이동하지 않아도 해당 샘플 위치에서의 가상 영역 스캔 데이터를 추출할 수 있으므로, 자율 이동 로봇이 불필요한 이동을 하지 않아도 된다.
또한, 본 실시 예에서는 상술한 단계들을 통해 추출된 모든 가상 영역 스캔 데이터, 각 가상 영역 스캔 데이터에 대한 가상 지역 형태 맥락 기술자, 가상 지역 형태 맥락 기술자의 가상 히스토그램 및 각 공간에 대한 공간 모델은 자율 이동 로봇 내에 데이터 베이스 형태로 내장될 수 있으나, 특별히 이에 한정되는 것은 아니다.
다음, 도 1을 참조하면, 입력되는 실제 영역 스캔 데이터와 상술한 단계 S120을 통해 추출된 학습 데이터 및 단계 S130을 통해 생성된 공간 모델을 이용하여 자율 이동 로봇의 현재 위치를 인식한다(S140)
본 실시 예에 따른 위치 인식 과정을 간략히 서술하면, 자율 이동 로봇이 현재 위치에서 수집한 실제 영역 스캔 데이터를 입력으로 하여 현재 위치하고 있는 공간을 결정한 다음, 결정된 공간 내에서의 정확한 위치를 인식하는 순서로 수행될 수 있다.
이후, 도 9를 참조하여 자율 이동 로봇이 위치하고 있는 공간을 결정하고, 결정된 공간 내에서의 정확한 위치를 인식하는 과정을 설명할 것이다.
우선, 도 9에 도시한 바와 같이, 자율 이동 로봇이 위치하고 있는 공간을 결정하는 과정은 다음과 같다.
먼저, 자율 이동 로봇이 현재 위치에서 수집한 실제 영역 스캔 데이터의 각 스캔 포인트에 대한 지역 형태 맥락 기술자(local shape context descriptor)(이하, 실제 지역 형태 맥락 기술자라 한다)를 연산한다(S141).
이때, 상술한 실제 영역 스캔 데이터는 자율 이동 로봇에 마련된 영역 스캔 센서를 이용하여 수집될 수 있으며, 여기에서, 영역 스캔 센서로는 레이저 센서, 초음파 센서, 적외선 센서 및 비전 센서 등이 사용될 수 있으나, 특별히 이에 한정되는 것은 아니다.
또한, 본 단계에서 연산되는 실제 지역 형태 맥락 기술자는 상술한 가상 영역 스캔 데이터에 대한 가상 지역 형태 맥락 기술자를 연산하는 것과 같은 방법으로 연산될 수 있으므로, 중복되는 설명은 생략한다.
다음, 단계 S141을 통해 연산된 실제 지역 형태 맥락 기술자들의 히스토그램(이하, 실제 히스토그램이라 한다)을 연산한다(S142). 이때, 본 단계에서 실제 히스토그램은 상술한 가상 영역 스캔 데이터의 가상 지역 형태 맥락 기술자들의 가상 히스토그램을 연산하는 것과 같은 방법으로 연산될 수 있으므로, 중복되는 설명은 생략한다.
다음, 단계 S142를 통해 연산된 실제 히스토그램과 단계 S133을 통해 생성된 각 공간에 대한 공간 모델을 이용하여 각 공간에 대한 분류 점수(classification score)를 계산하고(S143), 계산된 분류 점수가 가장 큰 공간을 자율 이동 로봇이 위치하는 공간으로 결정한다(S144).
본 실시 예에서, 상술한 분류 점수는 하기 [수학식 3]을 이용하여 계산될 수 있다.
여기에서, 는 분류 점수(classification score)를 나타내고, 및 는 공간의 모델 파라미터를 나타내며, 는 실제 영역 스캔 데이터의 실제 지역 형태 맥락 기술자에 대한 실제 히스토그램을 나타내고, 는 공간의 식별 번호를 나타낸다. 이때, 는 공간의 개수와 같다.
상술한 단계들을 통해 자율 이동 로봇이 위치하는 공간을 결정하였다.
다음, 도 9에 도시한 바와 같이, 결정된 공간 내에서 자율 이동 로봇이 위치한 정확한 지점을 인식하는 과정은 다음과 같다.
먼저, 단계 S144를 통해 자율 이동 로봇이 위치하는 것으로 결정된 공간의 가상 영역 스캔 데이터들 중 실제 영역 스캔 데이터와 가장 근접하는 최근접 가상 영역 스캔 데이터를 결정한다(S145).
즉, 상술한 단계 S121 및 단계 S122를 통해 각 공간에서 추출된 복수의 샘플 위치에서의 가상 영역 스캔 데이터들을 추출하였다. 이중 단계 S144를 통해 결정된 공간에서 추출된 복수의 가상 영역 스캔 데이터들 중 자율 이동 로봇에 마련된 영역 스캔 센서를 통해 수집된 실제 영역 스캔 데이터에 가장 근접하는 가상 영역 스캔 데이터를 결정하는 것이다.
본 실시 예에서 실제 영역 스캔 데이터와 가장 근접하는 최근접 가상 영역 스캔 데이터를 결정하는 것은 다음과 같은 방법을 통해 수행될 수 있으나, 이는 하나의 실시 예에 불과하며, 최근접 가상 영역 스캔 데이터를 결정하는 방법이 특별히 이에 한정되는 것은 아니다.
예를 들어, 실제 영역 스캔 데이터의 실제 지역 형태 맥락 기술자에 대한 실제 히스토그램을 라고 정의하고, 결정된 공간에서 추출된 가상 영역 스캔 데이터의 가상 지역 형태 맥락 기술자에 대한 가상 히스토그램을 라고 정의하면, 과 사이의 거리를 계산하여 가장 거리가 짧은 가상 영역 스캔 데이터를 실제 영역 스캔 데이터에 대한 최근접 가상 영역 스캔 데이터로 결정할 수 있다.
다음, 단계 S145를 통해 결정된 최근접 가상 영역 스캔 데이터와 실제 영역 스캔 데이터의 정합점(matching point)를 결정한다(S146).
즉, 최근접 가상 영역 스캔 데이터 각각의 스캔 포인트와 매칭되는 실제 영역 스캔 데이터 각각의 스캔 포인트를 결정하는 것이다. 본 실시 예에서는 최근접 가상 영역 스캔 데이터의 가상 지역 형태 맥락 기술자들과 실제 영역 스캔 데이터의 실제 지역 형태 맥락 기술자들을 헝가리안 방법(Hungarian Method)을 이용하여 비교하여 정합점을 결정할 수 있으나, 특별히 이에 한정되는 것은 아니다.
다음, 단계 S146을 통해 결정된 정합점을 이용하여 최근접 가상 영역 스캔 데이터에 대한 실제 영역 스캔 데이터의 상대 위치를 계산하여 자율 이동 로봇의 위치를 측정한다(S147).
구체적으로, 도 4를 참조하면, 각 공간에서 복수의 샘플 위치를 추출하고(S121), 추출된 샘플 위치에서의 가상 영역 스캔 데이터를 추출하므로(S122), 모든 가상 영역 스캔 데이터가 추출된 위치는 즉, 샘플 위치는 이미 알고 있는 정확한 위치에 해당한다. 즉, 격자 지도상에서 최근접 가상 영역 스캔 데이터가 추출된 위치는 이미 알고 있는 위치이므로, 위치를 알고 있는 최근접 가상 영역 스캔 데이터에 대한 실제 영역 스캔 데이터의 상대 위치를 계산하면, 격자 지도상에서의 실제 영역 스캔 데이터가 추출될 수 있는 위치를 알 수 있으며, 해당 위치를 자율 이동 로봇이 현재 존재하는 위치로 인식할 수 있는 것이다.
본 실시 예에서 최근접 가상 영역 스캔 데이터에 대한 실제 영역 스캔 데이터의 상대 위치를 계산하는 방법으로는 무작위 샘플 합의(RANdom SAmple Consensus, RANSAC) 알고리즘이 사용될 수 있으나, 특별히 이에 한정되는 것은 아니다.
상술한 바와 같이, 본 실시 예에서는 주어진 격자 지도를 복수의 공간으로 분할한 다음, 분할된 각 공간에서 복수의 샘플 위치를 추출하고, 추출된 복수의 샘플 위치 각각에 대한 복수의 가상 영역 스캔 데이터를 추출한다. 이후, 추출된 복수의 가상 영역 스캔 데이터 중 자율 이동 로봇이 실제로 수집한 실제 영역 스캔 데이터와 가장 근접하는 최근접 가상 영역 스캔 데이터를 결정하고, 결정된 최근접 가상 영역 스캔 데이터에 대한 실제 영역 스캔 데이터의 상대 위치를 계산함으로써, 자율 이동 로봇의 현재 위치를 인식할 수 있다.
이와 같은 실시 예에 따른 자율 이동 로봇의 위치 인식 방법은 격자 지도를 사용하여 자율 이동 로봇의 현재 위치를 인식하는데 기존의 파티클 필터(Particle Filter) 기반 방식들과 같이 샘플을 한 곳으로 수렴시키기 위해 로봇이 지속적으로 이동하면서 영역 스캔 데이터를 직접 수집해야하는 비효율적인 행동을 필요로 하지 않고, 제자리에 정지한 상태에서 수집한 하나의 실제 영역 스캔 데이터만을 이용하여 격자 지도상의 현재 위치를 빠르고 정확하게 인식할 수 있는 이점이 있다.
이상 본 발명을 구체적인 실시 예를 통하여 상세히 설명하였으나, 이는 본 발명을 구체적으로 설명하기 위한 것으로 본 발명은 이에 한정되지 않으며, 본 발명의 기술적 사상 내에서 당 분야의 통상의 지식을 가진 자에 의해 그 변형이나 개량이 가능함이 명백하다.
본 발명의 단순한 변형 내지 변경은 모두 본 발명의 영역에 속하는 것으로 본 발명의 구체적인 보호 범위는 첨부된 특허청구범위에 의하여 명확해질 것이다.
100 : 격자 지도
110 : GVG(Generalized Voronoi Graph)
120 : 기준 위치
110 : GVG(Generalized Voronoi Graph)
120 : 기준 위치
Claims (18)
- 격자 지도를 복수의 공간으로 분할하는 단계;
분할된 상기 복수의 공간 각각에 대한 학습 데이터를 추출하는 단계;
추출된 상기 학습 데이터를 이용하여 상기 복수의 공간 각각에 대한 공간 모델을 생성하는 단계; 및
상기 학습 데이터와 공간 모델 및 자율 이동 로봇을 통해 입력되는 실제 영역 스캔 데이터를 이용하여 자율 이동 로봇의 현재 위치를 인식하는 단계
를 포함하는 자율 이동 로봇의 위치 인식 방법. - 제1항에 있어서,
상기 격자 지도를 복수의 공간으로 분할하는 단계는,
상기 격자 지도로부터 GVG(Generalized Voronoi Graph)를 추출하는 단계;
추출된 상기 GVG(Generalized Voronoi Graph)상에서 기준 위치들을 추출하는 단계;
추출된 상기 기준 위치들 중 인접하는 기준 위치들을 동일 그룹으로 분류하고, 분류된 상기 동일 그룹 내에 포함되는 기준 위치들에 동일한 식별 번호를 부여하는 단계; 및
상기 기준 위치들에 부여된 식별 번호와 동일한 식별 번호를 식별 번호가 부여되지 않은 이웃 격자들에게 전파하여 복수의 공간으로 분할하는 단계
를 포함하는 자율 이동 로봇의 위치 인식 방법. - 제2항에 있어서,
상기 GVG(Generalized Voronoi Graph)를 추출하는 단계는 브러쉬파이어 알고리즘(brushfire algorithm)을 이용하여 수행되는 자율 이동 로봇의 위치 인식 방법. - 제2항에 있어서,
상기 기준 위치는 상기 GVG(Generalized Voronoi Graph)상에서 3개 이상의 에지(edge)들이 교차하는 지점인 자율 이동 로봇의 위치 인식 방법. - 제2항에 있어서,
상기 인접하는 기준 위치들을 동일 그룹으로 분류하는 것은 스펙트럼 군집화 알고리즘(spectral clustering algorithm)을 이용하여 수행되는 자율 이동 로봇의 위치 인식 방법. - 제1항에 있어서,
상기 복수의 공간 각각에 대한 학습 데이터를 추출하는 단계는,
각 공간에서 복수의 샘플 위치를 추출하는 단계;
추출된 각각의 샘플 위치에서의 가상 영역 스캔 데이터를 추출하는 단계; 및
추출된 가상 영역 스캔 데이터에 대한 가상 지역 형태 맥락 기술자(local shape context descriptor)들을 추출하는 단계
를 포함하는 자율 이동 로봇의 위치 인식 방법. - 제6항에 있어서,
상기 샘플 위치에서의 가상 영역 스캔 데이터를 추출하는 단계는,
상기 샘플 위치상에 영역 스캔 센서(range scan sensor)를 모델링(modeling)한 다음, 모델링된 영역 스캔 센서에 레이 캐스팅 알고리즘(ray casting algorithm)을 적용하여 수행되는 자율 이동 로봇의 위치 인식 방법. - 제6항에 있어서,
상기 가상 영역 스캔 데이터는 복수의 스캔 포인트로 이루어진 자율 이동 로봇의 위치 인식 방법. - 제8항에 있어서,
상기 스캔 포인트의 개수는 상기 모델링된 영역 스캔 센서로부터 조사되는 광선의 개수와 동일한 자율 이동 로봇의 위치 인식 방법. - 제8항에 있어서,
상기 가상 지역 형태 맥락 기술자들을 추출하는 단계는,
상기 복수의 스캔 포인트 각각에 대한 지역 좌표계(local coordinate system)를 정의하는 단계;
정의된 상기 지역 좌표계의 원점을 중심으로 일정 길이의 반지름을 갖는 원을 정의하는 단계; 및
정의된 상기 원을 반지름 방향과 각도 방향으로 각각 일정 길이와 일정 각도로 균등하게 분할하는 단계
를 포함하는 자율 이동 로봇의 위치 인식 방법. - 제6항에 있어서,
상기 복수의 공간 각각에 대한 공간 모델을 생성하는 단계는,
추출된 상기 가상 지역 형태 맥락 기술자들을 이용하여 가상 대표 형태 맥락 기술자들을 연산하는 단계;
상기 가상 지역 형태 맥락 기술자들의 가상 히스토그램을 연산하는 단계; 및
연산된 상기 가상 히스토그램을 이용하여 각 공간에 대한 공간 모델을 생성하는 단계
를 포함하는 자율 이동 로봇의 위치 인식 방법. - 제11항에 있어서,
상기 가상 대표 형태 맥락 기술자들을 연산하는 단계는,
상기 가상 지역 형태 맥락 기술자를 복수의 군집으로 군집화하는 단계; 및
군집화된 상기 복수의 군집 각각을 이루는 가상 지역 형태 맥락 기술자들의 평균을 연산하는 단계
를 포함하는 자율 이동 로봇의 위치 인식 방법. - 제12항에 있어서,
상기 가상 지역 형태 맥락 기술자를 복수의 군집으로 군집화하는 단계는 K 평균 군집화 알고리즘(K-means clustering algorithm)을 사용하여 수행되는 자율 이동 로봇의 위치 인식 방법. - 제12항에 있어서,
상기 가상 히스토그램을 연산하는 단계는 상기 각각의 가상 지역 형태 맥락 기술자들을 상기 연산된 가상 대표 형태 맥락 기술자들 중 하나의 가상 대표 형태 맥락 기술자로 근사화하여 수행되는 자율 이동 로봇의 위치 인식 방법. - 제14항에 있어서,
상기 가상 히스토그램의 x축은 상기 가상 대표 형태 맥락 기술자의 식별 번호이고, y축은 상기 각각의 가상 지역 형태 맥락 기술자가 근사화된 가상 대표 형태 맥락 기술자의 개수인 자율 이동 로봇의 위치 인식 방법. - 제11항에 있어서,
상기 자율 이동 로봇의 현재 위치를 인식하는 단계는,
상기 자율 이동 로봇을 통해 입력되는 실제 영역 스캔 데이터에 대한 실제 지역 형태 맥락 기술자를 연산하는 단계;
연산된 상기 실제 지역 형태 맥락 기술자들의 실제 히스토그램을 연산하는 단계;
연산된 상기 실제 히스토그램 및 상기 공간 모델을 이용하여 상기 분할된 각 공간에 대한 분류 점수를 계산하는 단계;
계산된 상기 분류 점수가 가장 큰 공간을 상기 자율 이동 로봇이 위치하는 공간으로 결정하는 단계;
상기 결정된 공간의 가상 영역 스캔 데이터들 중 상기 실제 영역 스캔 데이터와 가장 근접하는 최근접 가상 영역 스캔 데이터를 결정하는 단계;
상기 최근접 가상 영역 스캔 데이터와 상기 실제 영역 스캔 데이터의 정합점(matching point)을 결정하는 단계; 및
상기 최근접 가상 영역 스캔 데이터에 대한 상기 실제 영역 스캔 데이터의 상대 위치를 계산하는 단계
를 포함하는 자율 이동 로봇의 위치 인식 방법. - 제16항에 있어서,
상기 최근접 가상 영역 스캔 데이터와 상기 실제 영역 스캔 데이터의 정합점(matching point)을 결정하는 단계는,
상기 최근접 가상 영역 스캔 데이터에 대한 가상 지역 형태 맥락 기술자들과 상기 실제 영역 스캔 데이터에 대한 실제 지역 형태 맥락 기술자들을 헝가리안 방법(hungarian method)으로 비교하여 수행되는 자율 이동 로봇의 위치 인식 방법. - 제16항에 있어서,
상기 최근접 가상 영역 스캔 데이터에 대한 상기 실제 영역 스캔 데이터의 상대 위치를 계산하는 단계는 RANSAC(RANdom SAmple Consensus) 알고리즘을 이용하여 수행되는 자율 이동 로봇의 위치 인식 방법.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130077668A KR102096398B1 (ko) | 2013-07-03 | 2013-07-03 | 자율 이동 로봇의 위치 인식 방법 |
US14/187,670 US9304001B2 (en) | 2013-07-03 | 2014-02-24 | Position recognition methods of autonomous mobile robots |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130077668A KR102096398B1 (ko) | 2013-07-03 | 2013-07-03 | 자율 이동 로봇의 위치 인식 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150004568A true KR20150004568A (ko) | 2015-01-13 |
KR102096398B1 KR102096398B1 (ko) | 2020-04-03 |
Family
ID=52133374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130077668A KR102096398B1 (ko) | 2013-07-03 | 2013-07-03 | 자율 이동 로봇의 위치 인식 방법 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9304001B2 (ko) |
KR (1) | KR102096398B1 (ko) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170034069A (ko) * | 2015-09-18 | 2017-03-28 | 삼성전자주식회사 | 이동 로봇의 위치 인식 장치 및 그 방법 |
KR20170047850A (ko) * | 2015-10-26 | 2017-05-08 | 삼성전자주식회사 | 청소 로봇 및 그 제어방법 |
WO2017188706A1 (ko) * | 2016-04-25 | 2017-11-02 | 엘지전자 주식회사 | 이동 로봇 및 이동 로봇의 제어방법 |
KR20180058303A (ko) * | 2016-11-24 | 2018-06-01 | 삼성전자주식회사 | 이동 로봇, 그를 포함하는 시스템 및 이동 로봇의 제어 방법 |
KR102106858B1 (ko) | 2018-11-27 | 2020-05-06 | 노성우 | 하이브리드 타입의 물류로봇 위치추정방법 |
KR20200063880A (ko) | 2018-11-28 | 2020-06-05 | 성균관대학교산학협력단 | 인간의 뇌지도 모델 및 인지 기반 이동로봇 주행을 위한 시맨틱 지도 작성 시스템 |
WO2020196962A1 (ko) * | 2019-03-28 | 2020-10-01 | 엘지전자 주식회사 | 인공 지능 청소기 및 그의 동작 방법 |
KR102196076B1 (ko) * | 2020-05-15 | 2020-12-29 | 주식회사 케이스랩 | 삼각-육각 지도 생성방법 및 장치와 이를 이용한 이동체의 광역위치 결정방법 및 장치 |
KR102292733B1 (ko) * | 2020-06-08 | 2021-08-20 | 롯데정보통신 주식회사 | 복수의 이동 로봇의 자율 주행을 위한 비동기 분산 방식의 인공지능 모델 할당 시스템 및 그 방법 |
WO2023068542A1 (ko) * | 2021-10-21 | 2023-04-27 | 한국전자통신연구원 | 모바일 로봇의 전역 위치인식을 위한 방법 및 컴퓨팅 장치 |
KR102631313B1 (ko) * | 2023-06-08 | 2024-01-31 | (주)인티그리트 | Slam 기술 구현을 위한 비전 데이터 및 라이다 데이터 간의 실시간 분석 및 대조를 통해 위치 오차 보정이 가능한 장치 |
KR102631315B1 (ko) * | 2023-06-08 | 2024-02-01 | (주)인티그리트 | Slam 기술 구현을 위한 비전 데이터 및 라이다 데이터 간의 실시간 분석 및 대조를 통해 위치 오차 보정이 가능한 시스템 |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102096398B1 (ko) * | 2013-07-03 | 2020-04-03 | 삼성전자주식회사 | 자율 이동 로봇의 위치 인식 방법 |
US10168699B1 (en) * | 2015-01-30 | 2019-01-01 | Vecna Technologies, Inc. | Interactions between a vehicle and a being encountered by the vehicle |
US10564031B1 (en) * | 2015-08-24 | 2020-02-18 | X Development Llc | Methods and systems for determining errors based on detected sounds during operation of a robotic device |
EP3144765B1 (en) * | 2015-09-18 | 2020-01-08 | Samsung Electronics Co., Ltd. | Apparatus for localizing cleaning robot, cleaning robot, and controlling method of cleaning robot |
KR20170053351A (ko) * | 2015-11-06 | 2017-05-16 | 삼성전자주식회사 | 청소 로봇 및 그 제어 방법 |
US9943959B2 (en) * | 2016-04-25 | 2018-04-17 | Disney Enterprises, Inc. | Map localizing with partially obstructed ranging devices for autonomous robots and vehicles |
CN106052674B (zh) * | 2016-05-20 | 2019-07-26 | 青岛克路德机器人有限公司 | 一种室内机器人的slam方法和系统 |
US10162362B2 (en) | 2016-08-29 | 2018-12-25 | PerceptIn, Inc. | Fault tolerance to provide robust tracking for autonomous positional awareness |
US10395117B1 (en) | 2016-08-29 | 2019-08-27 | Trifo, Inc. | Visual-inertial positional awareness for autonomous and non-autonomous tracking |
US10390003B1 (en) | 2016-08-29 | 2019-08-20 | Perceptln Shenzhen Limited | Visual-inertial positional awareness for autonomous and non-autonomous device |
US11314262B2 (en) | 2016-08-29 | 2022-04-26 | Trifo, Inc. | Autonomous platform guidance systems with task planning and obstacle avoidance |
US10683171B2 (en) | 2016-09-30 | 2020-06-16 | Staples, Inc. | Hybrid modular storage fetching system |
CN109791477A (zh) | 2016-09-30 | 2019-05-21 | 史泰博公司 | 混合式模块化存储提取系统 |
US10589931B2 (en) | 2016-09-30 | 2020-03-17 | Staples, Inc. | Hybrid modular storage fetching system |
CN106598052A (zh) * | 2016-12-14 | 2017-04-26 | 南京阿凡达机器人科技有限公司 | 一种基于环境地图的机器人安防巡检方法及其机器人 |
KR20180070062A (ko) | 2016-12-16 | 2018-06-26 | 삼성전자주식회사 | 이동체 및 이동체의 제어 방법 |
US11042777B2 (en) * | 2017-03-27 | 2021-06-22 | Shenzhen Institutes Of Advanced Technology | Classification method and classification device of indoor scene |
US10794710B1 (en) | 2017-09-08 | 2020-10-06 | Perceptin Shenzhen Limited | High-precision multi-layer visual and semantic map by autonomous units |
US10437252B1 (en) * | 2017-09-08 | 2019-10-08 | Perceptln Shenzhen Limited | High-precision multi-layer visual and semantic map for autonomous driving |
CN108733065B (zh) * | 2017-09-29 | 2021-06-04 | 北京猎户星空科技有限公司 | 一种机器人的避障方法、装置及机器人 |
CN108256430B (zh) * | 2017-12-20 | 2021-01-29 | 北京理工大学 | 障碍物信息获取方法、装置及机器人 |
EP3779630A4 (en) * | 2018-03-27 | 2021-08-11 | Zhongqian You | ROBOT AVOIDATION CONTROL PROCEDURES AND RELATED DEVICE |
CN108681323A (zh) * | 2018-05-14 | 2018-10-19 | 浙江工业大学 | 基于Voronoi图的群组机器人自组装路径规划方法 |
US11407111B2 (en) | 2018-06-27 | 2022-08-09 | Abb Schweiz Ag | Method and system to generate a 3D model for a robot scene |
US11590997B1 (en) | 2018-08-07 | 2023-02-28 | Staples, Inc. | Autonomous shopping cart |
US11084410B1 (en) | 2018-08-07 | 2021-08-10 | Staples, Inc. | Automated guided vehicle for transporting shelving units |
US11630447B1 (en) | 2018-08-10 | 2023-04-18 | Staples, Inc. | Automated guided vehicle for transporting objects |
US11180069B2 (en) | 2018-12-31 | 2021-11-23 | Staples, Inc. | Automated loading of delivery vehicles using automated guided vehicles |
US11119487B2 (en) | 2018-12-31 | 2021-09-14 | Staples, Inc. | Automated preparation of deliveries in delivery vehicles using automated guided vehicles |
US11774983B1 (en) | 2019-01-02 | 2023-10-03 | Trifo, Inc. | Autonomous platform guidance systems with unknown environment mapping |
US11124401B1 (en) | 2019-03-31 | 2021-09-21 | Staples, Inc. | Automated loading of delivery vehicles |
CN110909671B (zh) * | 2019-11-21 | 2020-09-29 | 大连理工大学 | 一种融合概率和高度信息的栅格地图障碍物检测方法 |
CN115363478B (zh) * | 2021-05-17 | 2024-06-07 | 尚科宁家(中国)科技有限公司 | 一种清洁机器人重定位失败的清洁方法和清洁机器人 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009205226A (ja) * | 2008-02-26 | 2009-09-10 | Toyota Motor Corp | 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造 |
KR101202108B1 (ko) * | 2010-06-03 | 2012-11-15 | 고려대학교 산학협력단 | 이동 로봇의 위치 추정 방법 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5006988A (en) * | 1989-04-28 | 1991-04-09 | University Of Michigan | Obstacle-avoiding navigation system |
US5850352A (en) * | 1995-03-31 | 1998-12-15 | The Regents Of The University Of California | Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images |
US7805220B2 (en) * | 2003-03-14 | 2010-09-28 | Sharper Image Acquisition Llc | Robot vacuum with internal mapping system |
GB2404466B (en) * | 2003-07-31 | 2007-07-18 | Hewlett Packard Development Co | Method and apparatus for providing information about a real-world space |
KR100601946B1 (ko) | 2004-03-26 | 2006-07-14 | 삼성전자주식회사 | 로봇의 전역 위치 추정 방법 |
US20100013615A1 (en) * | 2004-03-31 | 2010-01-21 | Carnegie Mellon University | Obstacle detection having enhanced classification |
US8078338B2 (en) * | 2004-10-22 | 2011-12-13 | Irobot Corporation | System and method for behavior based control of an autonomous vehicle |
US7499804B2 (en) * | 2004-10-22 | 2009-03-03 | Irobot Corporation | System and method for multi-modal control of an autonomous vehicle |
US20070065002A1 (en) * | 2005-02-18 | 2007-03-22 | Laurence Marzell | Adaptive 3D image modelling system and apparatus and method therefor |
US7894951B2 (en) * | 2005-10-21 | 2011-02-22 | Deere & Company | Systems and methods for switching between autonomous and manual operation of a vehicle |
KR100843085B1 (ko) | 2006-06-20 | 2008-07-02 | 삼성전자주식회사 | 이동 로봇의 격자지도 작성 방법 및 장치와 이를 이용한영역 분리 방법 및 장치 |
US8355818B2 (en) * | 2009-09-03 | 2013-01-15 | Battelle Energy Alliance, Llc | Robots, systems, and methods for hazard evaluation and visualization |
US7974738B2 (en) * | 2006-07-05 | 2011-07-05 | Battelle Energy Alliance, Llc | Robotics virtual rail system and method |
US9858712B2 (en) * | 2007-04-09 | 2018-01-02 | Sam Stathis | System and method capable of navigating and/or mapping any multi-dimensional space |
US7920961B2 (en) * | 2007-08-29 | 2011-04-05 | Sap Ag | Method and apparatus for path planning and distance calculation |
JP2010238217A (ja) | 2009-03-09 | 2010-10-21 | Yaskawa Electric Corp | 移動ロボットの自己位置同定方法及び移動ロボット |
CA2859112C (en) | 2009-08-31 | 2017-08-15 | Neato Robotics, Inc. | Method and apparatus for simultaneous localization and mapping of mobile robot environment |
JP4866951B2 (ja) * | 2009-09-16 | 2012-02-01 | 株式会社日立製作所 | 測位組み合わせ決定システム |
KR20120043446A (ko) * | 2010-10-26 | 2012-05-04 | 한국전자통신연구원 | 차량 및 장애물의 위치 검출 장치 및 그 방법 |
KR101739996B1 (ko) | 2010-11-03 | 2017-05-25 | 삼성전자주식회사 | 이동 로봇 및 이동 로봇의 위치 인식 및 지도 작성 방법 |
KR102096398B1 (ko) * | 2013-07-03 | 2020-04-03 | 삼성전자주식회사 | 자율 이동 로봇의 위치 인식 방법 |
-
2013
- 2013-07-03 KR KR1020130077668A patent/KR102096398B1/ko active IP Right Grant
-
2014
- 2014-02-24 US US14/187,670 patent/US9304001B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009205226A (ja) * | 2008-02-26 | 2009-09-10 | Toyota Motor Corp | 自律移動ロボット、自己位置推定方法、環境地図の生成方法、環境地図の生成装置、及び環境地図のデータ構造 |
KR101202108B1 (ko) * | 2010-06-03 | 2012-11-15 | 고려대학교 산학협력단 | 이동 로봇의 위치 추정 방법 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170034069A (ko) * | 2015-09-18 | 2017-03-28 | 삼성전자주식회사 | 이동 로봇의 위치 인식 장치 및 그 방법 |
KR20170047850A (ko) * | 2015-10-26 | 2017-05-08 | 삼성전자주식회사 | 청소 로봇 및 그 제어방법 |
US10939791B2 (en) | 2016-04-25 | 2021-03-09 | Lg Electronics Inc. | Mobile robot and mobile robot control method |
WO2017188706A1 (ko) * | 2016-04-25 | 2017-11-02 | 엘지전자 주식회사 | 이동 로봇 및 이동 로봇의 제어방법 |
KR20180125010A (ko) * | 2016-04-25 | 2018-11-21 | 엘지전자 주식회사 | 이동 로봇 및 이동 로봇의 제어방법 |
KR20180058303A (ko) * | 2016-11-24 | 2018-06-01 | 삼성전자주식회사 | 이동 로봇, 그를 포함하는 시스템 및 이동 로봇의 제어 방법 |
KR102106858B1 (ko) | 2018-11-27 | 2020-05-06 | 노성우 | 하이브리드 타입의 물류로봇 위치추정방법 |
KR20200063880A (ko) | 2018-11-28 | 2020-06-05 | 성균관대학교산학협력단 | 인간의 뇌지도 모델 및 인지 기반 이동로봇 주행을 위한 시맨틱 지도 작성 시스템 |
WO2020196962A1 (ko) * | 2019-03-28 | 2020-10-01 | 엘지전자 주식회사 | 인공 지능 청소기 및 그의 동작 방법 |
US11399685B2 (en) | 2019-03-28 | 2022-08-02 | Lg Electronics Inc. | Artificial intelligence cleaner and method of operating the same |
KR102196076B1 (ko) * | 2020-05-15 | 2020-12-29 | 주식회사 케이스랩 | 삼각-육각 지도 생성방법 및 장치와 이를 이용한 이동체의 광역위치 결정방법 및 장치 |
KR102292733B1 (ko) * | 2020-06-08 | 2021-08-20 | 롯데정보통신 주식회사 | 복수의 이동 로봇의 자율 주행을 위한 비동기 분산 방식의 인공지능 모델 할당 시스템 및 그 방법 |
WO2023068542A1 (ko) * | 2021-10-21 | 2023-04-27 | 한국전자통신연구원 | 모바일 로봇의 전역 위치인식을 위한 방법 및 컴퓨팅 장치 |
KR102631313B1 (ko) * | 2023-06-08 | 2024-01-31 | (주)인티그리트 | Slam 기술 구현을 위한 비전 데이터 및 라이다 데이터 간의 실시간 분석 및 대조를 통해 위치 오차 보정이 가능한 장치 |
KR102631315B1 (ko) * | 2023-06-08 | 2024-02-01 | (주)인티그리트 | Slam 기술 구현을 위한 비전 데이터 및 라이다 데이터 간의 실시간 분석 및 대조를 통해 위치 오차 보정이 가능한 시스템 |
Also Published As
Publication number | Publication date |
---|---|
US9304001B2 (en) | 2016-04-05 |
KR102096398B1 (ko) | 2020-04-03 |
US20150012209A1 (en) | 2015-01-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102096398B1 (ko) | 자율 이동 로봇의 위치 인식 방법 | |
Zermas et al. | Fast segmentation of 3d point clouds: A paradigm on lidar data for autonomous vehicle applications | |
EP3405845B1 (en) | Object-focused active three-dimensional reconstruction | |
Chen et al. | Principal axes descriptor for automated construction-equipment classification from point clouds | |
JP6773471B2 (ja) | 自律移動体と環境地図更新装置 | |
Drews et al. | Novelty detection and 3d shape retrieval using superquadrics and multi-scale sampling for autonomous mobile robots | |
Vieira et al. | Spatial density patterns for efficient change detection in 3d environment for autonomous surveillance robots | |
O'Callaghan et al. | Continuous occupancy mapping with integral kernels | |
JP2017526083A (ja) | 位置特定およびマッピングの装置ならびに方法 | |
CN113936210A (zh) | 塔吊防撞方法 | |
Aissou et al. | Building roof superstructures classification from imbalanced and low density airborne LiDAR point cloud | |
Yeon et al. | Robust-PCA-based hierarchical plane extraction for application to geometric 3D indoor mapping | |
Li et al. | A new method for occupancy grid maps merging: Application to multi-vehicle cooperative local mapping and moving object detection in outdoor environment | |
Drwięga | Features matching based merging of 3D maps in multi-robot systems | |
Yin et al. | A failure detection method for 3D LiDAR based localization | |
Drews et al. | Fast and adaptive 3d change detection algorithm for autonomous robots based on gaussian mixture models | |
Neuman et al. | Segmentation-based online change detection for mobile robots | |
Han et al. | Multi-sample image-based material recognition and formalized sequencing knowledge for operation-level construction progress monitoring | |
Markovic et al. | Automatic recognition of cylinders and planes from unstructured point clouds | |
Wang et al. | A new approach to model-free tracking with 2D lidar | |
Kaleci et al. | A probabilistic approach for semantic classification using laser range data in indoor environments | |
JP2017117025A (ja) | パターン識別方法及びその装置、そのプログラム | |
Zhou et al. | Gaussian-weighted Jensen–Shannon divergence as a robust fitness function for multi-model fitting | |
Chae et al. | Object recognition for SLAM in floor environments using a depth sensor | |
Kaleci et al. | Plane segmentation of point cloud data using split and merge based method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |