KR20110097140A - 이동 로봇의 위치 추정 장치 및 방법 - Google Patents

이동 로봇의 위치 추정 장치 및 방법 Download PDF

Info

Publication number
KR20110097140A
KR20110097140A KR1020100016812A KR20100016812A KR20110097140A KR 20110097140 A KR20110097140 A KR 20110097140A KR 1020100016812 A KR1020100016812 A KR 1020100016812A KR 20100016812 A KR20100016812 A KR 20100016812A KR 20110097140 A KR20110097140 A KR 20110097140A
Authority
KR
South Korea
Prior art keywords
point
patch
edge
cloud data
points
Prior art date
Application number
KR1020100016812A
Other languages
English (en)
Inventor
최기완
박지영
이형기
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100016812A priority Critical patent/KR20110097140A/ko
Priority to US12/929,414 priority patent/US20110205338A1/en
Publication of KR20110097140A publication Critical patent/KR20110097140A/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20164Salient point detection; Corner detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

위치 추정에 소요되는 시간을 감소시킬 수 있는 위치 추정 장치 및 방법이 제공된다. 이동 로봇의 위치 추정 장치는, 3D 포인트 클라우드 데이터를 획득하는 거리 데이터 획득부와, 이전에 획득된 3D 포인트 클라우드 데이터로부터 추출된 특징점 주변의 포인트들을 포함하는 복수 개의 패치를 저장하는 저장부와, 획득된 3D 포인트 클라우드 데이터로부터 복수 개의 패치를 추적하여, 위치를 추정하는 위치 추정부를 포함한다.

Description

이동 로봇의 위치 추정 장치 및 방법{Apparatus for estimating location of moving robot and method thereof}
이동 로봇의 위치 추정 장치 및 방법에 관한 것으로, 더욱 상세하게는, 거리 센서를 이용하여 로봇의 자기 위치를 추정할 수 있는 위치 추정 장치 및 방법에 관한 것이다.
광학과 전자학에서의 새로운 기술 발전으로 저렴하면서도 더 정확한 레이저 스캐닝 시스템(laser scanning system)이 가능해지고 있다. 레이저 스캐닝 시스템은 물체로부터 깊이 정보를 직접적으로 얻을 수 있어 거리 이미지 분석(range image analysis)을 간단하게 할 수 있으며, 그 응용영역을 확대시키고 있다. 거리 이미지는 3차원의 구조적 데이터 점들의 집합으로 구성되며 여러 다른 관점에서 물체의 자유 형상 표면을 기술한다.
거리 이미지의 등록(registration)은 머신 비전과 관련되어 널리 알려진 중요한 문제이다. 산점도 행렬(scatter matrix), 기하학적 히스토그램(histogram), 반복 최근점(ICP, iterative closest point), 그래프 매칭(graph matching), 외부점(external point), 거리 기반의 탐색, 상호작용법(interactive method) 등과 같은 여러 가지 방법이 등록 문제를 해결하기 위해 제안되어 왔다. 등록 기법은 물체 인식, 운동 추정, 장면 이해(scene understanding), 로봇 자율 주행 등과 같은 여러 분야에서 다양하게 응용된다.
이러한 방법 중 반복 최근점 알고리즘(Iterative Closest Point) 방법은 제안된 이래 머신 비전 분야에서 많은 관심을 받았다. 반복 최근점 알고리즘(ICP)의 목적은 수학적으로 거리 데이터 좌표계 거리 데이터 세트와 모델 데이터 세트를 정렬할 변환 매트릭스를 찾는 것이다. 이러한 ICP 방법은 비교적 정확도가 높지만 3D 평면 매칭 등의 경우와 같이 비교할 입력 데이터의 양이 많은 경우에는 매칭 수행 시간이 데이터 양에 비례하여 길어지는 문제점이 있다.
위치 추정의 정확도를 유지하면서, 위치 추정에 필요한 데이터 계산량을 감소시켜서, 위치 추정에 소요되는 시간을 감소시킬 수 있는 위치 추정 장치 및 방법이 제공된다.
일 측면에 따른 이동 로봇의 위치 추정 장치로서, 3D 포인트 클라우드 데이터를 획득하는 거리 데이터 획득부와, 이전에 획득된 3D 포인트 클라우드 데이터로부터 추출된 특징점 주변의 포인트들을 포함하는 복수 개의 패치를 저장하는 저장부와, 획득된 3D 포인트 클라우드 데이터로부터 복수 개의 패치를 추적하여, 위치를 추정하는 위치 추정부를 포함한다.
위치 추정 장치는, 이전에 획득된 3D 포인트 클라우드 데이터로부터 적어도 하나의 특징점을 추출하고, 추출된 특징점 주변의 포인트들을 포함하는 패치를 생성하고, 생성된 패치를 저장부에 저장하는 패치 생성부를 더 포함할 수 있다.
패치 생성부는, 이전에 획득된 3D 포인트 클라우드 데이터 각각에 대한 법선 벡터를 계산하고, 각각의 법선 벡터를 구성하는 3차원 공간 좌표 (x, y, z)를 각각 RGB 값으로 설정하여, 각각의 법선 벡터를 RGB 영상으로 변환하고, 변환된 RGB 영상을 그레이 영상으로 변환하고, 그레이 영상에서 코너 추출 알고리즘을 이용하여 코너점을 추출하고, 추출된 코너점 중에서 특징점을 추출하고, 추출된 특징점 주변의 포인트들을 포함하는 패치를 생성할 수 있다.
패치 생성부는, 패치를 각각의 패치의 특징점의 위치 정보와 함께 저장할 수 있다. 패치 생성부는, 패치를 구성하는 포인트들이 각각 에지를 형성하는 에지 포인트인지 에지를 형성하지 않는 일반 포인트인지를 구분하여 저장부에 저장할 수 있다.
위치 추정부는, 3D 포인트 클라우드 데이터의 각각의 포인트들에서 법선 벡터를 계산하고, 법선 벡터를 이용하여, 각각의 포인트들이 각각 에지를 형성하는 에지 포인트인지 에지를 형성하지 않는 일반 포인트인지를 구분하고, 패치의 에지 포인트는 3D 포인트 클라우드 데이터의 에지 포인트와 매칭시키고, 패치의 일반 포인트는 에지 포인트와 일반 포인트 구별 없이 3D 포인트 클라우드 데이터와 매칭시키는 에지 기반 ICP 기반 알고리즘을 이용하여 3D 포인트 클라우드 데이터로부터 패치를 추적할 수 있다.
위치 추정부는, 패치의 에지 포인트들은 가장 가까운 3D 포인트 클라우드 데이터의 에지 포인트와 매칭시키고, 패치의 일반 포인트는 가장 가까운 3D 포인트 클라우드 데이터의 포인트와 매칭시킬 수 있다.
다른 측면에 따른 이동 로봇의 위치 추정 방법은, 3D 포인트 클라우드 데이터를 획득하는 단계와, 이전에 획득된 3D 포인트 클라우드 데이터로부터 추출된 특징점 주변의 포인트들을 포함하는 복수 개의 패치를, 획득된 3D 포인트 클라우드 데이터로부터, 추적하여 이동 로봇 위치를 추정하는 단계를 포함한다.
위치 추정의 정확도를 유지하면서, 위치 추정에 필요한 데이터 계산량을 감소시켜서, 위치 추정에 소요되는 시간을 감소시킬 수 있다.
도 1은 이동 로봇의 위치 추정 장치의 구성의 일 예를 나타내는 블록도이다.
도 2는 이동 로봇의 위치 추정 방법의 일 예를 나타내는 순서도이다.
도 3은 등록된 패치를 이용하여 위치를 추정하는 동작의 일 예를 나타내는 도면이다.
도 4는 패치 생성 방법의 일 예를 나타내는 도면이다.
도 5는 패치 추적에 의한 위치 추정 방법의 일 예를 나타내는 도면이다.
도 6a는 위치 추정 장치가 획득한 3D 포인트 클라우드 데이터 및 미리 등록된 패치의 일 예를 나타내는 도면이다.
도 6b는 일반 ICP를 이용한 패치 추적 과정의 일 예를 나타내는 도면이다.
도 6c는 일 실시예에 따른 에지 기반 ICP 알고리즘을 이용한 패치 추적 과정의 일 예를 나타내는 도면이다.
이하, 첨부된 도면을 참조하여 본 발명의 일 실시예를 상세하게 설명한다. 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 이동 로봇의 위치 추정 장치의 구성의 일 예를 나타내는 블록도이다.
위치 추정 장치(100)는 주행부(110), 센서부(120), 거리 데이터 획득부(130), 제어부(140) 및 저장부(150)를 포함할 수 있다. 이하에서는, 위치 추정 장치(100)가 이동 로봇인 경우를 가정하고 설명한다.
주행부(110)는 이동 로봇(100)을 주행시키기 위하여 복수 개의 바퀴와 같은 주행 수단과, 주행 수단에 구동력을 제공하기 위한 구동원을 포함할 수 있다.
센서부(120)는 이동 로봇(100)에 장착되어 이동 로봇(100)의 이동량 및 회전량을 감지한다. 이를 위해, 센서부(120)는 엔코더(encoder) 또는 자이로 센서(gyrosensor)를 포함할 수 있다. 자이로 센서로 이동 로봇(100)의 실제 회전한 각도가 감지될 수 있으며, 엔코더로 이동 로봇(100)의 실제 움직인 경로가 인식될 수 있다. 상세하게는, 엔코더에 의해 움직인 거리 및 방향을 적분함으로써 현재 이동 로봇의 평면상의 2차원 좌표계상의 위치(position) 및 방향각 추정이 가능하다. 통상적으로, 엔코더는 짧은 구간에서는 비교적 정확하지만 적분을 계속 수행해 나감에 따라 오차가 누적된다. 한편, 센서부(120)는 장애물 지도를 작성하는데 이용되는 장애물 감지 정보를 감지하기 위하여 적외선, 레이저 또는 초음파 센서를 더 포함할 수 있다.
거리 데이터 획득부(130)는 3차원 환경을 스캐닝하여 획득된 스캔 데이터를 처리하여 스캐닝한 3차원 환경에 대한 거리 데이터(range data)를 측정한다. 거리 데이터 획득부(130)는 거리 데이터를 감지 및 측정하기 위하여 3차원 환경을 인식할 수 있도록 레이저 구조광(structured light)을 이용한 센서 시스템을 포함하여 구성될 수 있다.
거리 데이터 획득부(130)는 3D 거리 센서(도시되지 않음)를 포함하여 3D 거리 정보인 R[r, θ, ψ]를 획득한다. 거리 데이터 획득부(130)는 3D 거리 정보인 R[r, θ, ψ]를 P[x, y, z]로 표현되는 3D 포인트 클라우드(point cloud)로 변환할 수 있다. x는 r*cosψ*cosθ로, y는 r*cosψ*sinθ로, z는 r*sinψ의 값을 가진다.
제어부(140)는 주행 경로 계획 장치(100)의 동작 전반을 제어하도록 구성될 수 있다. 제어부(140)는 패치 생성부(142), 위치 추정부(144) 및 경로 생성부(146)을 포함할 수 있다.
패치 생성부(142)는 3D 포인트 클라우드 데이터로부터 적어도 하나의 특징점을 추출하고, 추출된 특징점 주변의 포인트들을 포함하는 패치를 생성하고, 생성된 패치를 저장부(150)에 저장한다. 통상적으로, 영상 센서로부터 얻은 영상으로부터 SIFT(Scale-Invariant Feature Transform), MSER(Maximally Stable Extremal Region) 기법, 또는 해리스 코너 검출(Harris Corner Detector) 방법 등과 같은 특징점 추출 알고리즘을 이용하여 특징점 및 특징점 기술자가 생성되어, 위치 추정에 이용된다. 일 실시예에서는, 특징점 주변의 포인트들을 포함하는 패치가 위치 추정에 이용된다. 패치의 형태는 다양한 3차원 형태를 가질 수 있다. 패치는 예를 들어, 3D 클라우드 데이터에서 특징점을 중심으로 하는 정육면체에 포함되는 포인트들로 구성될 수 있다.
패치 생성부(142)는, 3D 포인트 클라우드 데이터 각각에 대한 법선 벡터(normal vector)를 계산한다. 패치 생성부(142)는 각각의 법선 벡터를 구성하는 3차원 공간 좌표 (x, y, z)를 각각 RGB 값으로 설정하여, 각각의 법선 벡터를 RGB 영상으로 변환한다. 그런 다음, 패치 생성부(142)는 변환된 RGB 영상을 그레이 영상으로 변환하고, 그레이 영상에서 코너 추출 알고리즘을 이용하여 코너점을 추출하고, 추출된 코너점 중에서 특징점을 추출할 수 있다. 여기에서 특징점은 사물의 모서리 또는 코너와 같이 형상을 특정시킬 수 있는 점을 의미한다.
패치 생성부(142)는 특징점 주변의 3차원 공간상에 위치하는 포인트들을 패치로서 생성할 수 있다. 따라서, 특징점은 생성된 패치의 중간에 위치하는 점일 수 있다.
패치 생성부(142)는, 패치를 각각의 패치의 특징점의 위치 정보와 함께 저장할 수 있다. 또한, 패치 생성부(142)는, 패치를 구성하는 포인트들이 각각 에지를 형성하는 에지 포인트인지 에지를 형성하지 않는 일반 포인트인지를 구별하여 저장부(150)에 저장할 수 있다.
위치 추정부(144)는 이동 로봇(100)이 출발하는 위치 및 출발시 방향각을 기준값으로 위치를 추정할 수 있다. 이동 로봇의 위치를 추정한다는 것은 이동 로봇의 2차원 평면상에서의 위치 및 방향각을 추정함을 의미한다. 이동 로봇(100)의 위치에 대한 기준은 지도(map) 상에 존재하는 특징점(Feature)을 포함하는 패치가 될 수 있다. 따라서, 이동 로봇(100)의 위치 정보는 이동 로봇(100)이 인식한 특징점을 기준으로 한 이동 로봇(100)의 위치 및 방향각을 포함할 수 있다.
위치 추정부(144)는 주행부(110) 및 센서부(120)로부터 획득되는 오도메트리 정보, 각속도, 가속도 등의 정보를 종합적으로 이용하여 위치를 추정 및 인식할 수 있다. 또한, 위치 추정부(144)는 추정된 위치를 입력으로 하여 슬램을 수행하여 지도 작성과 함께 위치 인식을 수행할 수 있다. 슬램은 어떤 위치에서 주변 환경의 지도를 구성하고 구성된 지도를 바탕으로 다시 이동한 로봇의 위치를 알아내는 과정을 반복하여 로봇의 위치와 주변 환경의 지도를 동시에 추정할 수 있는 알고리즘이다.
일 예로, 위치 추정부(144)는 엔코더 및 자이로 정보와 통합하여 새로운 거리 정보를 추출할 수 있도록 칼만 필터(Kalman Filter)를 이용할 수 있다. 칼만 필터는 기본적으로 모델에 의해 위치를 추정하는 예측 과정과, 센서 값을 통하여 추정된 값을 보정하는 업데이트 과정으로 구성된다.
위치 추정부(144)는 예측 과정에서는, 이전 과정의 예측치에 미리 설정된 모델을 사용하여 주어진 입력에 대하여 예산되는 출력을 추정한다.
위치 추정부(144)는 예측 과정에서는, 과거의 위치 정보와 센서부(120)에서 새롭게 획득한 정보를 가지고 현재의 위치를 예측한다. 위치 추정부(144)는 업데이트 과정에서는 예측된 위치를 기준으로 새롭게 획득된 3D 포인트 클라우드 데이터로부터 복수 개의 패치를 추적하고, 추적된 정보를 가지고 더욱 정확한 위치를 추정하게 된다. 미리 저장된 패치들은 각각 독립된 좌표계를 가지고 있으며, 독립된 좌표계와 절대 좌표계 사이의 변환 정보를 가지고 있다. 따라서, 저장된 패치의 위치는 변환 정보와 예측 과정에서 예측된 로봇의 위치 정보를 가지고 로봇의 좌표계 기준의 상대 위치로 변환되고, 추적된 패치의 위치와의 차이를 계산하여 로봇의 위치를 추정하게 된다.
또한, 위치 추정부(144)는 추적된 패치 중에서 잘못 추정된 추정 결과를 제거할 수 있다. 이를 위해서, 위치 추정부(144)는 RANSAC(RANdom SAmple Consensus) 또는 JCBB(Joint Compatibility Branch and Bound) 방법 등을 이용할 수 있다. 이 밖에도, 위치 추정부(144)는 위치 인식과 지도 구성을 수행하는 한 다양한 구조를 가질 수 있다.
위치 추정부(144)는, 다음과 같은 방법으로, 패치를 추적할 수 있다. 여기에서, 패치는 이전에 획득된 3D 포인트 클라우드 데이터로부터 추출된 특징점 주변의 포인트들을 포함한다. 우선, 위치 추정부(144)는 3D 포인트 클라우드 데이터의 각각의 포인트에서 법선 벡터를 계산하고, 법선 벡터를 이용하여 3D 포인트 클라우드 데이터의 각각의 포인트들이 각각 에지를 형성하는 에지 포인트인지 에지를 형성하지 않는 일반 포인트인지를 구분한다. 위치 추정부(144)는 패치의 에지 포인트는 3D 포인트 클라우드 데이터의 에지 포인트와 매칭시키고, 패치의 일반 포인트는 에지 포인트와 일반 포인트 구별 없이 3D 포인트 클라우드 데이터와 매칭시키는 에지 기반 ICP(edge combination ICP) 알고리즘을 이용하여 3D 포인트 클라우드 데이터로부터 패치를 추적할 수 있다. 여기에서, 위치 추정부(144)는, 패치의 에지 포인트는 가장 가까운 3D 포인트 클라우드 데이터의 에지 포인트와 매칭시키고, 패치의 일반 포인트는 가까운 3D 클라우드 데이터 포인트와 매칭시킬 수 있다.
경로 생성부(146)는 위치 추정부(144)에서 인식된 이동 로봇(100)의 위치 정보를 이용하여 경로를 생성할 수 있다.
저장부(150)는 위치 추정 장치(100)의 동작에 필요한 운영체제, 애플리케이션 및 데이터가 저장될 수 있다. 또한, 저장부(150)는 이전에 획득된 3D 포인트 클라우드 데이터로부터 추출된 특징점 주변의 포인트들을 포함하는 복수 개의 패치를 저장하는 패치 저장부(152)를 포함할 수 있다.
도 2는 이동 로봇의 위치 추정 방법의 일 예를 나타내는 순서도이다.
위치 추정 장치(100)는 3D 포인트 클라우드 데이터를 획득한다(210).
위치 추정 장치(100)는 이전에 획득된 3D 포인트 클라우드 데이터로부터 추출된 특징점 주변의 포인트들을 포함하는 복수 개의 패치를, 획득된 3D 포인트 클라우드 데이터로부터, 추적하여 이동 로봇 위치를 추정한다(220).
위치 추정 장치(100)는 등록된 패치의 개수가 미리 설정된 개수 이하이거나, 추적된 패치의 개수가 미리 설정된 개수 이하인 경우와 같이, 추가적으로 패치가 필요하다고 판단하는 경우(230), 획득된 3D 포인트 데이터로부터 특징점을 추출하고, 추출된 특징점 주변의 포인트들을 포함하는 패치를 생성하여, 저장부(150)에 저장함으로써 패치를 추가적으로 등록할 수 있다(240).
도 3은 등록된 패치를 이용하여 위치를 추정하는 동작의 일 예를 나타내는 도면이다.
도 3에서, 프레임 N1(310)은 이전에 획득된 3D 포인트 클라우드 데이터를 나타내고, 프레임 N2(320)는 현재 획득된 3D 클라우드 포인터 데이터를 나타낸다.
위치 추정 장치(100)는, 프레임 N1(310)의 영역(311)에서 특징점을 추출하고, 추출된 특징점 주변의 포인트들을 포함하는 패치(333)를 패치 저장부(152)에 저장해둘 수 있다. 패치 저장부(152)에는 패치(333)를 포함하는 복수 개의 패치(331, 332, 333)가 등록되어 저장될 수 있다.
위치 추정 장치(100)가 프레임 N2(320)를 획득하면, 프레임 N2(320)에서 미리 등록된 복수 개의 패치(331, 332, 333)를 추적할 수 있다. 예를 들어, 패치(333)가 프레임 N2(320)에서 영역(321)으로부터 추적되면, 프레임 N2(320)에서의 패치(333)의 상대적인 위치를 알 수 있다. 따라서, 위치 추정 장치(100)는 패치(333)의 프레임 N2(320)에서 파악된 상대적인 위치 정보를 이용하여 위치 추정 장치(100)의 절대 위치를 추정할 수 있다.
도 4는 패치 생성 방법의 일 예를 나타내는 도면이다.
도 1의 패치 생성부(142)는, 이전에 획득된 3D 포인트 클라우드 데이터 각각의 포인트에 대한 법선 벡터를 계산한다(142).
패치 생성부(142)는 각각의 법선 벡터를 구성하는 3차원 공간 좌표 (x, y, z)를 각각 RGB 값으로 설정하여, 각각의 법선 벡터를 RGB 영상으로 변환한다(420). 따라서, 생성된 RGB영상에서 R(Red), G(green) 및 B(Blue)는 각각 각 포인트에서의 법선 벡터의 방향을 나타낸다.
패치 생성부(142)는 변환된 RGB 영상을 그레이 영상으로 변환한다(430).
패치 생성부(142)는 그레이 영상에서 코너 추출 알고리즘을 이용하여 코너점을 추출한다(440). 해리스 코너 검출 등 알려진 다양한 방법으로 그레이 영상에서 코너점들이 추출될 수 있다. 노이즈 등으로 인하여 실제 코너가 아님에도 코너점으로 추출될 수 있으므로, 패치 생성부(142)는 추출된 코너점 중에서 특징점으로 적합한지 판단하고, 적합하다고 판단된 코너점을 특징점으로 추출한다(450). 예를 들어, 패치 생성부(142)는 추출된 코너점 주변의 포인트들의 법선 벡터의 변화도(gradient)가 일정 크기 이하이면, 특징점으로 적합하지 않은 것으로 결정할 수 있다.
추출된 특징점 주변의 포인트들은 패치로 결정되어 저장부(150)에 저장될 수 있다. 이때, 패치는 각각의 패치의 특징점의 위치 정보와 함께 저장될 수 있다. 또한, 패치를 저장할 때, 패치를 구성하는 포인트들 각각이 에지를 형성하는 에지 포인트인지 에지를 형성하지 않는 일반 포인트인지를 구분하여 저장할 수 있다. 패치에서 에지 포인트들 및 일반 포인트들을 구별하여 저장하면, 패치 추적 과정에서 이용되는 에지 기반 ICP 실행시 계산 시간이 단축될 수 있다.
도 5는 패치 추적에 의한 위치 추정 방법의 일 예를 나타내는 도면이다.
도 1의 위치 추정부(144)는 3D 포인트 클라우드 데이터의 각각의 포인트에서 법선 벡터를 계산한다(510).
위치 추정부(144)는 법선 벡터를 이용하여 3D 포인트 클라우드 데이터의 각각의 포인트가 각각 에지를 형성하는 에지 포인트인지 에지를 형성하지 않는 일반 포인트인지를 구분한다(520). 예를 들어, 3D 포인트 클라우드 데이터의 포인트들의 법선 벡터의 변화가 일정 크기 이상 큰 위치에 존재하는 포인트들이 에지 포인트로 결정될 수 있다.
위치 추정부(144)는 에지 기반 ICP를 이용하여, 3D 포인트 클라우드 데이터에서 패치를 추적한다(530). 에지 기반 ICP 알고리즘은 패치의 에지 포인트는 3D 포인트 클라우드 데이터의 에지 포인트와 매칭시키고, 패치의 일반 포인트는 에지 포인트와 일반 포인트 구별 없이 3D 포인트 클라우드 데이터와 매칭시킨다.
따라서, 위치 추정부(144)는 추적되는 패치들에 대하여, 패치를 구성하는 포인트들이 에지 포인트이지 일반 포인트인지를 구분한 다음, 3D 포인트 클라우드 데이터와 매칭을 수행할 수 있다. 패치를 구성하는 포인트들이 에지 포인트인지 일반 포인트인지를 구분하는 방법은, 3D 포인트 클라우드 데이터의 각각의 포인트들이 에지 포인트인지 일반 포인트인지를 구분하는 방법과 동일하다. 또한, 도 4와 관련된 설명에서와 같이, 패치를 저장할 때, 해당 패치를 구성하는 포인트들이 에지 포인트인지 일반 포인트인지 구별하여 저장하면, 위치 추정 과정에서, 패치를 구성하는 포인트들인지 에지 포인트인지를 구분하는 단계가 생략되므로, 처리 시간을 단축할 수 있다.
도 6a는 위치 추정 장치가 획득한 3D 포인트 클라우드 데이터 및 미리 등록된 패치의 일 예를 나타내는 도면이다.
도 6a에서, 도면 부호 610은 3D 포인트 클라우드 데이터를 2차원 형식으로 간략하게 나타낸 것이고, 도면 부호 620은 미리 등록된 패치를 마찬가지로 간략화하여 나타낸 것이다. 3D 포인트 클라우드 데이터(610)에서 포인트들(611, 612, 613)은 에지 포인트를 나타내고, 나머지 포인트들은 일반 포인트를 나타낸다. 패치(620)에서 포인트(621)는 에지 포인트를 나타내고, 나머지 포인트들은 일반 포인트를 나타낸다.
도 6b는 일반 ICP를 이용한 패치 추적 과정의 일 예를 나타내는 도면이다.
일반 ICP에서는 일반 포인트와 에지 포인트의 구별 없이 획득된 3D 포인트 클라우드 데이터와 미리 등록된 3D 포인트 클라우드 데이터의 매칭이 이루어진다. 따라서, 일반 ICP를 일 실시예에 따른 3D 포인트 클라우드 데이터와 패치간에 적용하게 되면, 도 6b에서 단계 1에서와 같이, 획득된 3D 포인트 클라우드 데이터와 미리 등록된 3D 포인트 클라우드 데이터 간에, 포인트들의 거리가 가장 가깝게 되는 위치로 매칭이 이루어진다. 따라서, 단계 2에서와 같은 잘못된 매칭 결과가 생성될 수 있다. 이와 같은, 잘못된 매칭 결과는 카메라의 방향에 따라서, 3D 포인트 클라우드 데이터가 일부 가려짐(occulusion)이 발생될 수 있기 때문이다.
도 6c는 일 실시예에 따른 에지 기반 ICP를 이용한 패치 추적 과정의 일 예를 나타내는 도면이다.
에지 기반 ICP를 적용하면, 획득된 3D 포인트 클라우드 데이터의 포인트들 및 패치를 구성하는 포인트들의 각각의 위치에서 법선 벡터가 계산되고, 법선 벡터를 이용하여 획득된 3D 포인트 클라우드 데이터 및 패치를 구성하는 포인트들 각각이 에지를 형성하는 에지 포인트들 및 에지를 형성하지 않는 일반 포인트들로 구분된다. 위치 추정부(144)는 패치의 에지 포인트는 3D 포인트 클라우드 데이터의 에지 포인트와 매칭시키고, 패치의 일반 포인트는 에지 포인트와 일반 포인트 구별 없이 3D 포인트 클라우드 데이터와 매칭시킨다.
따라서, 도 6c의 단계 1에서와 같이, 우선 에지 포인트들이 가장 가깝게 되도록 매칭시키고, 단계 2에서와 같이, 일반 포인트들이 가장 가깝게 되도록 매칭시킨다. 그 결과로, 단계 3에서와 같이, 에지 포인트가 일치되는 매칭 결과가 생성될 수 있다. 이와 같이, 에지 기반 ICP 알고리즘을 적용하면, 일반적인 ICP 알고리즘에 비하여, 포인트 매칭시 더욱 정확한 매칭 결과를 얻을 수 있다. 따라서, 위치 추정의 정확도를 유지하면서, 위치 추정에 필요한 데이터 계산량을 감소시켜서, 위치 추정에 소요되는 시간을 감소시킬 수 있다.
본 발명의 일 양상은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있다. 상기의 프로그램을 구현하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 디스크 등을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드로 저장되고 실행될 수 있다.
이상의 설명은 본 발명의 일 실시예에 불과할 뿐, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 본질적 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현할 수 있을 것이다. 따라서, 본 발명의 범위는 전술한 실시예에 한정되지 않고 특허 청구범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.

Claims (14)

  1. 이동 로봇의 위치 추정 장치로서,
    3D 포인트 클라우드 데이터를 획득하는 거리 데이터 획득부;
    이전에 획득된 3D 포인트 클라우드 데이터로부터 추출된 특징점 주변의 포인트들을 포함하는 복수 개의 패치를 저장하는 저장부; 및
    상기 획득된 3D 포인트 클라우드 데이터로부터 상기 복수 개의 패치를 추적하여, 상기 이동 로봇의 위치를 추정하는 위치 추정부를 포함하는 위치 추정 장치.
  2. 제1항에 있어서,
    이전에 획득된 3D 포인트 클라우드 데이터로부터 적어도 하나의 특징점을 추출하고, 추출된 특징점 주변의 포인트들을 포함하는 패치를 생성하고, 생성된 패치를 상기 저장부에 저장하는 패치 생성부를 더 포함하는 위치 추정 장치.
  3. 제2항에 있어서,
    상기 패치 생성부는, 상기 이전에 획득된 3D 포인트 클라우드 데이터 각각에 대한 법선 벡터를 계산하고, 상기 각각의 법선 벡터를 구성하는 3차원 공간 좌표 (x, y, z)를 각각 RGB 값으로 설정하여, 상기 각각의 법선 벡터를 RGB 영상으로 변환하고, 상기 변환된 RGB 영상을 그레이 영상으로 변환하고, 상기 그레이 영상에서 코너 추출 알고리즘을 이용하여 코너점을 추출하고, 상기 추출된 코너점 중에서 특징점을 추출하고, 추출된 특징점 주변의 포인트들을 포함하는 패치를 생성하는 위치 추정 장치.
  4. 제2항에 있어서,
    상기 패치 생성부는, 상기 패치를 각각의 패치의 특징점의 위치 정보와 함께 저장하는 위치 추정 장치.
  5. 제2항에 있어서,
    상기 패치 생성부는, 상기 패치를 구성하는 포인트들이 각각 에지를 형성하는 에지 포인트인지 에지를 형성하지 않는 일반 포인트인지를 구분하여 상기 저장부에 저장하는 위치 추정 장치.
  6. 제5항에 있어서,
    상기 위치 추정부는,
    상기 3D 포인트 클라우드 데이터의 각각의 포인트들에서 법선 벡터를 계산하고, 상기 법선 벡터를 이용하여, 상기 각각의 포인트들이 각각 에지를 형성하는 에지 포인트인지 에지를 형성하지 않는 일반 포인트인지를 구분하고, 상기 패치의 에지 포인트는 상기 3D 포인트 클라우드 데이터의 에지 포인트와 매칭시키고, 상기 패치의 일반 포인트는 에지 포인트와 일반 포인트 구별 없이 상기 3D 포인트 클라우드 데이터와 매칭시키는 에지 기반 ICP 기반 알고리즘을 이용하여 상기 3D 포인트 클라우드 데이터로부터 상기 패치를 추적하는 위치 추정 장치.
  7. 제6항에 있어서,
    상기 위치 추정부는,
    상기 패치의 에지 포인트들은 가장 가까운 상기 3D 포인트 클라우드 데이터의 에지 포인트와 매칭시키고, 상기 패치의 일반 포인트는 가장 가까운 상기 3D 포인트 클라우드 데이터의 포인트와 매칭시키는 위치 추정 장치.
  8. 이동 로봇의 위치 추정 방법으로서,
    3D 포인트 클라우드 데이터를 획득하는 단계; 및
    이전에 획득된 3D 포인트 클라우드 데이터로부터 추출된 특징점 주변의 포인트들을 포함하는 복수 개의 패치를, 상기 획득된 3D 포인트 클라우드 데이터로부터 추적하여 이동 로봇 위치를 추정하는 단계를 포함하는 위치 추정 방법.
  9. 제8항에 있어서,
    상기 복수 개의 3D 클라우드 패치를 생성하는 단계를 더 포함하고,
    상기 생성하는 단계는,
    이전에 획득된 3D 포인트 클라우드 데이터로부터 적어도 하나의 특징점을 추출하는 단계;
    상기 추출된 특징점 주변의 포인트들을 포함하는 패치를 생성하는 단계; 및
    상기 생성된 패치를 저장하는 단계를 포함하는 위치 추정 방법.
  10. 제9항에 있어서,
    상기 복수 개의 3D 클라우드 패치를 생성하는 단계는,
    상기 이전에 획득된 3D 포인트 클라우드 데이터에 대한 법선 벡터를 각각 계산하는 단계;
    상기 법선 벡터를 구성하는 3차원 공간 좌표 (x, y, z)를 각각 RGB 값으로 설정하여, 상기 각각의 법선 벡터를 RGB 영상으로 변환하는 단계;
    상기 변환된 RGB 영상을 그레이 영상으로 변환하는 단계;
    상기 그레이 영상에서 코너 추출 알고리즘을 이용하여 코너점을 추출하는 단계; 및
    상기 추출된 코너점 중에서 특징점을 추출하는 단계를 포함하는 위치 추정 방법.
  11. 제9항에 있어서,
    상기 생성된 패치를 저장하는 단계는, 상기 패치를 각각의 패치의 특징점의 위치 정보와 함께 저장하는 위치 추정 방법.
  12. 제9항에 있어서,
    상기 생성된 패치를 저장하는 단계는, 상기 패치로부터 에지를 형성하는 에지 포인트들 및 에지를 형성하지 않는 일반 포인트들을 구별하여 저장하는 단계를 포함하는 위치 추정 방법.
  13. 제12항에 있어서,
    상기 위치를 추정하는 단계는,
    상기 3D 포인트 클라우드 데이터의 각각의 포인트에서 법선 벡터를 계산하는 단계;
    상기 법선 벡터를 이용하여 상기 3D 포인트 클라우드 데이터의 각각의 포인트들이 에지를 형성하는 에지 포인트인지 에지를 형성하지 않는 일반 포인트인지 구분하는 단계; 및
    상기 패치의 에지 포인트는 상기 3D 포인트 클라우드 데이터의 에지 포인트와 매칭시키고, 상기 패치의 일반 포인트는 에지 포인트와 일반 포인트 구별 없이 상기 3D 포인트 클라우드 데이터와 매칭시키는 에지 기반 ICP 기반 알고리즘을 이용하여 상기 3D 포인트 클라우드 데이터로부터 상기 패치를 추적하는 단계를 포함하는 위치 추정 방법.
  14. 제13항에 있어서,
    상기 패치를 추적하는 단계는,
    상기 패치의 에지 포인트를 가장 가까운 상기 3D 포인트 클라우드 데이터의 에지 포인트와 매칭시키는 단계; 및
    상기 패치의 일반 포인트를 가장 가까운 상기 3D 포인트 클라우드 데이터의 포인트와 매칭시키는 단계를 포함하는 위치 추정 방법.
KR1020100016812A 2010-02-24 2010-02-24 이동 로봇의 위치 추정 장치 및 방법 KR20110097140A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020100016812A KR20110097140A (ko) 2010-02-24 2010-02-24 이동 로봇의 위치 추정 장치 및 방법
US12/929,414 US20110205338A1 (en) 2010-02-24 2011-01-21 Apparatus for estimating position of mobile robot and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100016812A KR20110097140A (ko) 2010-02-24 2010-02-24 이동 로봇의 위치 추정 장치 및 방법

Publications (1)

Publication Number Publication Date
KR20110097140A true KR20110097140A (ko) 2011-08-31

Family

ID=44476170

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100016812A KR20110097140A (ko) 2010-02-24 2010-02-24 이동 로봇의 위치 추정 장치 및 방법

Country Status (2)

Country Link
US (1) US20110205338A1 (ko)
KR (1) KR20110097140A (ko)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101325926B1 (ko) * 2012-05-22 2013-11-07 동국대학교 산학협력단 실시간 3d 데이터 송수신을 위한 3d 데이터 처리 장치 및 방법
KR101379732B1 (ko) * 2012-04-09 2014-04-03 전자부품연구원 곤돌라 로봇의 위치 측정 장치 및 방법
KR101404655B1 (ko) * 2014-04-18 2014-06-09 국방과학연구소 레이저 레이더의 3차원 원시 데이터의 고유값 비율을 이용한 송전선 추출 방법
WO2014175592A1 (en) * 2013-04-23 2014-10-30 Samsung Electronics Co., Ltd. Moving robot, user terminal apparatus and control method thereof
US8903161B2 (en) 2011-12-23 2014-12-02 Samsung Electronics Co., Ltd. Apparatus for estimating robot position and method thereof
KR101490055B1 (ko) * 2013-10-30 2015-02-06 한국과학기술원 이동 로봇의 위치와 지도를 추정하는 방법 및 이를 수행하는 장치들
KR20150024349A (ko) * 2012-06-29 2015-03-06 미쓰비시덴키 가부시키가이샤 데이터를 위치 맞춤하는 방법
US9420265B2 (en) 2012-06-29 2016-08-16 Mitsubishi Electric Research Laboratories, Inc. Tracking poses of 3D camera using points and planes
KR20180061949A (ko) * 2016-11-30 2018-06-08 주식회사 유진로봇 다채널 라이더 기반 이동로봇의 장애물 검출 장치 및 방법, 및 이를 구비한 이동로봇
KR101961171B1 (ko) * 2017-10-13 2019-03-22 한국과학기술연구원 실내 환경에서 이동하는 로봇의 전역적 자기 위치 추정 시스템 및 이를 이용한 전역적 자기 위치 추정 방법

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011083374A1 (en) * 2010-01-08 2011-07-14 Koninklijke Philips Electronics N.V. Uncalibrated visual servoing using real-time velocity optimization
EP2591444A1 (en) * 2010-07-06 2013-05-15 LTU Technologies Method and apparatus for obtaining a symmetry invariant descriptor from a visual patch of an image
US9582707B2 (en) 2011-05-17 2017-02-28 Qualcomm Incorporated Head pose estimation using RGBD camera
GB201116960D0 (en) 2011-09-30 2011-11-16 Bae Systems Plc Monocular camera localisation using prior point clouds
GB201116958D0 (en) 2011-09-30 2011-11-16 Bae Systems Plc Use of synthetic overhead images for vehicle localisation
GB201116959D0 (en) 2011-09-30 2011-11-16 Bae Systems Plc Vehicle localisation with 2d laser scanner and 3d prior scans
JP6429772B2 (ja) 2012-07-04 2018-11-28 クレアフォーム・インコーポレイテッドCreaform Inc. 3d走査および位置決めシステム
JP6267700B2 (ja) * 2012-07-18 2018-01-24 クレアフォーム・インコーポレイテッドCreaform Inc. 3d走査および位置決めのインターフェース
US9305364B2 (en) * 2013-02-19 2016-04-05 Caterpillar Inc. Motion estimation systems and methods
KR102238693B1 (ko) * 2014-06-20 2021-04-09 삼성전자주식회사 포인트 클라우드에서 특징 영역을 추출하는 방법 및 장치
KR101679741B1 (ko) * 2015-05-06 2016-11-28 고려대학교 산학협력단 외곽 공간 특징 정보 추출 방법
US9710714B2 (en) * 2015-08-03 2017-07-18 Nokia Technologies Oy Fusion of RGB images and LiDAR data for lane classification
EP3185171B1 (en) * 2015-12-24 2020-03-04 Dassault Systèmes 3d object localization with descriptor
EP3185172B1 (en) * 2015-12-24 2020-02-12 Dassault Systèmes 3d object localization with quantization of the point pair descriptors
CN105761245B (zh) * 2016-01-29 2018-03-06 速感科技(北京)有限公司 一种基于视觉特征点的自动跟踪方法及装置
US10417533B2 (en) * 2016-08-09 2019-09-17 Cognex Corporation Selection of balanced-probe sites for 3-D alignment algorithms
EP3444783A1 (en) * 2017-08-17 2019-02-20 ABB Schweiz AG Robotic systems and methods for operating a robot
WO2019040997A1 (en) * 2017-09-04 2019-03-07 Commonwealth Scientific And Industrial Research Organisation METHOD AND SYSTEM FOR USE IN REALIZING LOCATION
CN110049323B (zh) * 2018-01-17 2021-09-07 华为技术有限公司 编码方法、解码方法和装置
US10964053B2 (en) * 2018-07-02 2021-03-30 Microsoft Technology Licensing, Llc Device pose estimation using 3D line clouds
CN110944187B (zh) 2018-09-19 2022-05-10 华为技术有限公司 点云编码方法和编码器
WO2020057338A1 (zh) * 2018-09-19 2020-03-26 华为技术有限公司 点云编码方法和编码器
WO2020060267A1 (en) * 2018-09-20 2020-03-26 Samsung Electronics Co., Ltd. Cleaning robot and method for performing task thereof
CN110971898B (zh) * 2018-09-30 2022-04-22 华为技术有限公司 点云编解码方法和编解码器
CN109540142B (zh) * 2018-11-27 2021-04-06 达闼科技(北京)有限公司 一种机器人定位导航的方法、装置、计算设备
US11818361B2 (en) * 2019-03-14 2023-11-14 Nippon Telegraph And Telephone Corporation Data compression apparatus, data compression method, and program
WO2020187191A1 (zh) * 2019-03-19 2020-09-24 华为技术有限公司 点云编解码方法及编解码器
TWI675000B (zh) * 2019-03-22 2019-10-21 所羅門股份有限公司 物件運送方法及系統
CN112017239B (zh) * 2019-05-31 2022-12-20 北京市商汤科技开发有限公司 确定目标对象朝向方法、智能驾驶控制方法和装置及设备
CN116985141B (zh) * 2023-09-22 2023-11-24 深圳市协和传动器材有限公司 一种基于深度学习的工业机器人智能控制方法及系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3512992B2 (ja) * 1997-01-07 2004-03-31 株式会社東芝 画像処理装置および画像処理方法
US7831094B2 (en) * 2004-04-27 2010-11-09 Honda Motor Co., Ltd. Simultaneous localization and mapping using multiple view feature descriptors
US7616782B2 (en) * 2004-05-07 2009-11-10 Intelliview Technologies Inc. Mesh based frame processing and applications
KR100834761B1 (ko) * 2005-11-23 2008-06-05 삼성전자주식회사 이동 로봇의 자기 위치 인식 방법 및 장치
US8174568B2 (en) * 2006-12-01 2012-05-08 Sri International Unified framework for precise vision-aided navigation
JP4645601B2 (ja) * 2007-02-13 2011-03-09 トヨタ自動車株式会社 環境地図の生成方法及び移動ロボット
KR100926783B1 (ko) * 2008-02-15 2009-11-13 한국과학기술연구원 물체인식 및 인식된 물체를 포함하는 주변 환경 정보를바탕으로 한 로봇의 자기 위치 추정 방법
US20090262974A1 (en) * 2008-04-18 2009-10-22 Erik Lithopoulos System and method for obtaining georeferenced mapping data
CA2787646C (en) * 2010-02-05 2016-12-13 Trimble Navigation Limited Systems and methods for processing mapping and modeling data

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8903161B2 (en) 2011-12-23 2014-12-02 Samsung Electronics Co., Ltd. Apparatus for estimating robot position and method thereof
KR101379732B1 (ko) * 2012-04-09 2014-04-03 전자부품연구원 곤돌라 로봇의 위치 측정 장치 및 방법
KR101325926B1 (ko) * 2012-05-22 2013-11-07 동국대학교 산학협력단 실시간 3d 데이터 송수신을 위한 3d 데이터 처리 장치 및 방법
KR20150024349A (ko) * 2012-06-29 2015-03-06 미쓰비시덴키 가부시키가이샤 데이터를 위치 맞춤하는 방법
US9420265B2 (en) 2012-06-29 2016-08-16 Mitsubishi Electric Research Laboratories, Inc. Tracking poses of 3D camera using points and planes
WO2014175592A1 (en) * 2013-04-23 2014-10-30 Samsung Electronics Co., Ltd. Moving robot, user terminal apparatus and control method thereof
US9983592B2 (en) 2013-04-23 2018-05-29 Samsung Electronics Co., Ltd. Moving robot, user terminal apparatus and control method thereof
KR101490055B1 (ko) * 2013-10-30 2015-02-06 한국과학기술원 이동 로봇의 위치와 지도를 추정하는 방법 및 이를 수행하는 장치들
KR101404655B1 (ko) * 2014-04-18 2014-06-09 국방과학연구소 레이저 레이더의 3차원 원시 데이터의 고유값 비율을 이용한 송전선 추출 방법
KR20180061949A (ko) * 2016-11-30 2018-06-08 주식회사 유진로봇 다채널 라이더 기반 이동로봇의 장애물 검출 장치 및 방법, 및 이를 구비한 이동로봇
KR101878827B1 (ko) * 2016-11-30 2018-07-17 주식회사 유진로봇 다채널 라이더 기반 이동로봇의 장애물 검출 장치 및 방법, 및 이를 구비한 이동로봇
KR101961171B1 (ko) * 2017-10-13 2019-03-22 한국과학기술연구원 실내 환경에서 이동하는 로봇의 전역적 자기 위치 추정 시스템 및 이를 이용한 전역적 자기 위치 추정 방법

Also Published As

Publication number Publication date
US20110205338A1 (en) 2011-08-25

Similar Documents

Publication Publication Date Title
KR20110097140A (ko) 이동 로봇의 위치 추정 장치 및 방법
KR101776622B1 (ko) 다이렉트 트래킹을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US8265425B2 (en) Rectangular table detection using hybrid RGB and depth camera sensors
US9386209B2 (en) Method and apparatus for estimating position
Zhang et al. Visual-lidar odometry and mapping: Low-drift, robust, and fast
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
CN106959691B (zh) 可移动电子设备和即时定位与地图构建方法
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
KR101782057B1 (ko) 지도 생성 장치 및 방법
KR101784183B1 (ko) ADoG 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US9020301B2 (en) Method and system for three dimensional mapping of an environment
Acharya et al. BIM-Tracker: A model-based visual tracking approach for indoor localisation using a 3D building model
Dube et al. Real-time plane extraction from depth images with the randomized hough transform
KR20100005488A (ko) 이동 로봇의 지도 구성 장치 및 방법
KR101658578B1 (ko) 복합 센서의 캘리브레이션 장치 및 방법
Fiala et al. Visual odometry using 3-dimensional video input
KR102547274B1 (ko) 이동 로봇 및 이의 위치 인식 방법
Huang et al. Mobile robot localization using ceiling landmarks and images captured from an rgb-d camera
JP5819257B2 (ja) 移動体位置推定方法及び移動体
KR100784125B1 (ko) 단일 카메라를 이용한 이동 로봇의 랜드 마크의 좌표 추출방법
Spampinato et al. An embedded stereo vision module for industrial vehicles automation
Cucchiara et al. Efficient Stereo Vision for Obstacle Detection and AGV Navigation.
Li-Chee-Ming et al. Augmenting visp’s 3d model-based tracker with rgb-d slam for 3d pose estimation in indoor environments
KR100703882B1 (ko) 단일 카메라 기반 포즈인식이 가능한 이동로봇 및 그 방법
Baligh Jahromi et al. Layout slam with model based loop closure for 3d indoor corridor reconstruction

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid