KR100493159B1 - 이동체의 효율적 자기 위치 인식을 위한 랜드마크 및 이를이용한 자기 위치 인식 장치 및 방법 - Google Patents

이동체의 효율적 자기 위치 인식을 위한 랜드마크 및 이를이용한 자기 위치 인식 장치 및 방법 Download PDF

Info

Publication number
KR100493159B1
KR100493159B1 KR10-2002-0059778A KR20020059778A KR100493159B1 KR 100493159 B1 KR100493159 B1 KR 100493159B1 KR 20020059778 A KR20020059778 A KR 20020059778A KR 100493159 B1 KR100493159 B1 KR 100493159B1
Authority
KR
South Korea
Prior art keywords
landmark
outline
information
moving object
image
Prior art date
Application number
KR10-2002-0059778A
Other languages
English (en)
Other versions
KR20040029493A (ko
Inventor
노경식
손영
박기철
곽주영
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR10-2002-0059778A priority Critical patent/KR100493159B1/ko
Priority to US10/428,791 priority patent/US7333631B2/en
Publication of KR20040029493A publication Critical patent/KR20040029493A/ko
Application granted granted Critical
Publication of KR100493159B1 publication Critical patent/KR100493159B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/11Technique with transformation invariance effect

Abstract

이동체의 효율적 자기 위치 인식을 위한 랜드마크 및 이를 이용한 자기 위치 인식 장치 및 방법이 개시된다. 상기 자기 위치 인식 방법은, (a) 카메라로부터 입력된 랜드마크 영상으로부터 제 1 외곽선 정보, 제 2 외곽선 정보, 및 형상 정보를 추출하는 단계; (b) 상기 형상 정보로부터 투사불변량을 계산하여 해시 테이블에 저장하는 단계; (c) 상기 (b) 단계에서 계산된 상기 투사불변량 값과, 소정의 데이터 저장 영역에 해시 테이블 형태로 저장되어 있는 기준 랜드마크 영상들의 투사불변량 값을 비교하여, 상기 랜드마크가 상기 복수 개의 기준 랜드마크들 중 어느 랜드마크와 일치하는지를 판별하는 단계; 및 (d) 상기 제 1 및 제 2 외곽선 정보에 응답해서, 상기 랜드마크와 이동체간의 거리 및 방위 정보를 분석하는 단계를 포함한다.

Description

이동체의 효율적 자기 위치 인식을 위한 랜드마크 및 이를 이용한 자기 위치 인식 장치 및 방법 {Landmark, apparatus and method for determining position of autonomous vehicles effectively}
본 발명은 자동화 시스템(automation system), 지능적 차량 시스템(intelligent vehicle system) 등과 같이 영상을 이용한 응용 분야에 대한 영상의 인식 및 추적에 관한 것으로, 특히 이동 로봇(mobile robot)과 같은 이동체의 효율적인 자기 위치 인식을 위한 랜드마크(landmark) 및 이를 이용한 자기 위치 인식 장치 및 방법에 관한 것이다.
최근, 로봇에 대한 관심이 증가됨에 따라 다양한 종류의 로봇이 제안되고 있으며, 현재 이에 대한 연구가 활발히 진행되고 있다. 이러한 로봇들은 다양한 응용을 위하여 제작되고 있는데, 이동 로봇(mobile robots)과 같은 이동체(autonomous vehicles)를 조종(navigate)하기 위해서는 이동과 관련된 4가지 기능이 갖추어져야만 한다.
그 첫 번째 기능은 지도 구축(map building) 기능이고, 두 번째 기능은 자기 위치 인식(self-localization, 또는 positioning) 기능이다. 그리고, 세 번째 기능은 장애물 회피(obstacle avoidance) 기능이고, 네 번째 기능은 경로 설정(path planning) 기능이다.
먼저, 지도구축 기능은 주어진 공간, 즉 작업 공간(working environment)에 대한 지도를 구축하는 기능으로써, 이동체에게 주어질 작업을 계획하는 데에 있어 필수적이라 할 수 있다. 자기 위치 인식 기능은 주어진 명령, 예를 들어 "현재의 위치에서 새로운 공간으로 이동하라"는 명령을 수행하기 위하여 현재의 위치를 파악하는 기능을 의미한다. 장애물 회피 기능은 예정된 작업의 수행시 예기치 못한 장애물이 발생했을 때 이를 감지하고 회피하는 기능이다. 그리고, 경로 설정 기능은 처음 상태로부터 최종 목적 상태까지 진행하기 위한 계획을 세우는 기능이다.
이 중에서도 특히 이동체를 보다 용이하게 조종하기 위해서는 이동체에게 정확한 위치와, 방위(orientation) 정보를 제공하는 것이 보다 유리하다. 이동체에게 이 같은 정보를 제공하기 위해 사용되고 있는 방법으로는 거리와 방향을 이용한 추측항법(dead reckoning), 가속도계와 자이로 센서를 이용한 관성항법(inertial navigation), 및 위성기반 위치인식(satellite-based positioning) 방법 등이 있다. 그러나, 이들 방법들은 각각 나름대로의 단점을 가지고 있다. 예를 들어, 추측항법은 이동체의 벗어남(slipping)에 의한 오차의 누적에 의해서 정확도가 떨어지는 단점이 있고, 관성항법은 적분에 의한 오차의 누적에 의해서 정확도가 떨어지는 단점이 있다. 그리고, 위성기반 위치인식 방법은 위성과의 확실한 통신 경로를 요구할 뿐만 아니라, 궤도 수정을 위해 필요로 하는 정확한 위치 정보를 제공하지 못하는 단점이 있다.
이 외에도, 작업 환경 내에 이미 알고 있는 위치에 배치된 랜드마크(landmarks)를 사용하여 이동체에게 위치 및 방위 정보를 제공하는 자기위치 인식 방법이 사용되고 있다.
랜드마크는 이동체에 의해 운반되는 비전 시스템(vision system)에 의해 판독되고 처리된다. 비전 시스템에 의해 랜드마크가 검출되고 인식되면, 그 결과에 의해서 랜드마크가 가지고 있는 고유의 위치가 결정되고, 이를 통해 이동체의 위치가 인식된다.
그러나, 현재 랜드마크를 이용하는 방법들은 몇 가지 문제점을 가지고 있다. 특히, 작업 환경이 어지럽게 흩어져 있거나 고르지 않은 밝기를 가지고 있거나, 또는 랜드마크의 일부분이 폐색(occluded)된 경우, 랜드마크들을 검출하고 인식하는 데 오류가 발생하게 되어, 결정된 위치에 오차가 존재하는 문제점이 있다. 뿐만 아니라, 취득된 랜드마크 영상을 통해서 영상 면의 X축 및 Y축의 위치 정보와, 카메라와 랜드마크간에 이루고 있는 각도 정보를 알아내는 것이 어려운 문제점이 있다.
본 발명이 이루고자 하는 기술적 과제는, 이동체가 주어진 공간 내에서 자기 위치를 효율적으로 인식할 수 있는 랜드마크 및 이를 이용한 자기위치 인식 장치 및 방법을 제공하는 데 있다.
상기의 과제를 이루기 위하여 본 발명에 의한 랜드마크는, 제 1 및 제 2 외곽선 영역, 및 형상 영역을 포함한다. 제 1 외곽선 영역은 이동체의 자기위치 인식시 영상 면의 X 축 및 Y 축을 구별하는데 사용된다. 제 2 외곽선 영역은 상기 영상의 취득시 카메라와 랜드마크간의 틀어진 정도를 파악하는데 사용된다. 그리고, 형상 영역은 각 랜드마크를 구분하는데 사용된다.
상기의 과제를 이루기 위하여 본 발명에 의한 자기 위치 인식 장치는, 특징 데이터 추출부, 투사불변량 계산부, 데이터 저장부, 해시 테이블 검색부, 및 거리/방위정보 분석부를 포함한다. 특징 데이터 추출부는 카메라를 통해 입력된 랜드마크 영상으로부터 제 1 외곽선 정보, 제 2 외곽선 정보 및 형상 정보를 추출한다. 투사불변량 계산부는 상기 형상 정보로부터 투사불변량을 계산한다. 데이터 저장부는 상기 계산된 투사불변량 값과, 복수 개의 기준이 되는 랜드마크들에 대한 투사불변량 값들을 해시 테이블 형태로 저장한다. 해시 테이블 검색부는 상기 계산된 투사불변량 값과, 상기 기준이 되는 복수 개의 랜드마크 영상들에 대한 투사불변량 값을 비교하여, 상기 랜드마크가 어느 랜드마크와 일치하는지를 판별한다. 그리고, 거리/방위정보 분석부는 상기 제 1 및 제 2 외곽선 정보에 응답해서, 상기 랜드마크와 상기 이동체간의 거리 및 방위 정보를 분석한다.
상기의 과제를 이루기 위하여 본 발명에 의한 자기 위치 인식 기능을 가진 이동체는, 카메라로부터 입력되는 랜드마크 영상을 소정의 영상 포맷으로 캡쳐하는 영상 취득부; 상기 영상 취득부에서 캡쳐된 상기 랜드마크 영상에 응답해서 자기위치 인식 기능 및 이동체를 운용하기 위한 전반적인 제어를 수행하는 메인 프로서; 및 상기 주 제어부의 제어에 응답해서 상기 이동체의 이동을 제어하는 이동 제어부를 포함한다. 상기 메인 프로서는, 상기 랜드마크 영상으로부터 제 1 외곽선 정보, 제 2 외곽선 정보 및 형상 정보를 추출하는 특징 데이터 추출부; 상기 형상 정보로부터 투사불변량을 계산하는 투사불변량 계산부; 상기 계산된 투사불변량 값과, 복수 개의 기준이 되는 랜드마크들에 대한 투사불변량 값들을 해시 테이블 형태로 저장하는 데이터 저장부; 상기 계산된 투사불변량 값과, 상기 기준이 되는 복수 개의 랜드마크 영상들에 대한 투사불변량 값을 비교하여, 상기 랜드마크가 어느 랜드마크와 일치하는지를 판별하는 해시 테이블 검색부; 및 상기 제 1 및 제 2 외곽선 정보에 응답해서, 상기 랜드마크와 상기 이동체간의 거리 및 방위 정보를 분석하는 거리/방위정보 분석부를 포함한다.
상기의 과제를 이루기 위하여 본 발명에 의한 자기 위치 인식 방법은, (a) 카메라로부터 입력된 랜드마크 영상으로부터 제 1 외곽선 정보, 제 2 외곽선 정보, 및 형상 정보를 추출하는 단계; (b) 상기 형상 정보로부터 투사불변량을 계산하여 해시 테이블에 저장하는 단계; (c) 상기 (b) 단계에서 계산된 상기 투사불변량 값과, 소정의 데이터 저장 영역에 해시 테이블 형태로 저장되어 있는 기준 랜드마크 영상들의 투사불변량 값을 비교하여, 상기 랜드마크가 상기 복수 개의 기준 랜드마크들 중 어느 랜드마크와 일치하는지를 판별하는 단계; 및 (d) 상기 제 1 및 제 2 외곽선 정보에 응답해서, 상기 랜드마크와 이동체간의 거리 및 방위 정보를 분석하는 단계를 포함한다.
이하에서, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세히 설명한다.
도 1은 본 발명의 바람직한 실시예에 따른 랜드마크(10)의 구성을 보여주는 도면이고, 도 2는 본 발명에 따른 랜드마크의 다양한 구성 예(10a-10d)를 보여주는 도면이다.
먼저 도 1을 참조하면, 본 발명에 따른 랜드마크(10)는 제 1 외곽선 영역(11), 컬러 영역(12), 제 2 외곽선 영역(13), 및 형상 영역(14)으로 구분된다. 제 1 외곽선 영역(11)은 랜드마크의 외곽에 X 축 및 Y 축이 서로 직교하는 사각형으로 구성되어, 이동체의 자기위치 인식시 영상 면의 X 축 및 Y 축을 구별하기 위한 지표로 사용된다. 제 2 외곽선 영역(13)은 소정의 반지름을 갖는 정 원형으로 구성되어, 랜드마크(10)의 카메라 투영시 발생되는 원의 찌그러짐 현상(즉, 정원이 타원 형태로 보여지는 현상)을 분석하여 카메라와 대상 물체간의 틀어진 정도를 파악하는 데 사용된다. 컬러 영역(12)은 제 1 및 제 2 외곽선 영역 사이의 영역으로, 각 랜드마크마다 소정의 컬러로 표시되어, 각 랜드마크를 보다 쉽고 빠르게 구분할 수 있도록 한다. 그리고, 형상 영역(14)은 각 랜드마크별로 각기 다른 고유의 형상을 나타내어, 각 랜드마크를 구분하는 데 사용된다. 여기서, 형상 영역(14) 내에 그려진 각각의 객체는 단순한 기하학적 문양이나 기호 혹은 도형일 수도 있으나, 본 발명에 따른 자기 위치 인식 장치 및 방법은 간단한 모양의 형상은 물론 복잡한 모양의 형상을 가진 랜드마크도 정확하게 인식할 수 있기 때문에, 랜드마크의 일 예로서 복잡한 모양의 형상을 가진 랜드마크를 사용한다.
이어서, 도 2를 참조하면 다양한 종류의 랜드마크들(10a-10d)을 볼 수 있다. 예를 들면, 각각의 랜드마크(10a-10d)는 각기 다른 색을 가지는 컬러 영역(12a-12d)과 각기 다른 객체(예를 들면, 나비, 곰, 새, 개구리 등)가 그려져 있는 형상 영역(14a-14d)을 포함한다. 예를 들어, 주어진 작업 공간이 집안인 경우, 나비가 그려져 있는 제 1 랜드마크(10a)는 주방을 나타내고, 곰이 그려져 있는 제 2 랜드마크(10b)는 창고를 나타내고, 새가 그려져 있는 제 3 랜드마크(10c)는 거실을 나타내며, 개구리가 그려져 있는 제 4 랜드마크(10a)는 침실을 나타낸다고 할 때, 이동체는 제 1 내지 제 4 랜드마크(10a-10d)를 인식함에 의해서 현재 자신이 위치하고 있는 집안 내에서의 위치를 인식할 수 있게 된다. 또한, 이동체(100)에 구비된 카메라에 의해 취득된 각각의 랜드마크(10a-10d) 영상의 제 1 및 제 2 외곽선(11a-11d, 13a-13d)의 방향 및 왜곡된 정도에 따라서 이동체(100)에 대한 보다 정확한 위치 정보를 인식할 수 있게 된다. 이 때, 본 발명에 따른 자기위치 인식 장치 및 방법은 위치 정보의 추출시 주변의 환경이나 노이즈 등에 영향을 받지 않는 투사불변형 정보(projection invariant information)를 사용하므로, 이동체(100)에 의해 취득된 랜드마크 영상에 왜곡이 발생하였다 하더라도, 정확한 위치 추정을 수행할 수 있다.
도 3은 본 발명의 바람직한 실시예에 따른 자기 위치 인식 기능이 구비된 이동체(100)의 일 예를 보여주는 블록도이다. 도 3을 참조하면, 본 발명에 따른 이동체(100)는 카메라(110), 영상 취득부(120), 주 제어부(130), 및 이동 제어부(140)를 포함한다.
카메라(110)는 표준 CCD(charge-coupled device) 카메라일 수도 있고, 인터넷 서버와 카메라가 결합된 웹 카메라(web camera)일 수도 있다. 웹 카메라는 일반 CCD 카메라에 비해 왜곡(distortion) 현상이 더 발생하는 단점이 있으나, 값이 저렴하여 대중화하기 용이한 장점을 가지고 있다. 본 발명에 따른 이동체(100)는, 랜드마크의 인식시 주변의 환경이나 노이즈 등에 영향을 받지 않는 투사불변형 정보를 사용하기 때문에, 자기 위치 인식시 상기 카메라(110)를 고가의 CCD 카메라 대신에 저가의 웹 카메라를 사용하더라도 좋은 인식 결과를 가질 수 있다. 따라서, 이동체의 자기 위치 인식 기능을 저렴한 비용으로 수행할 수 있다.
영상 취득부(120)는 카메라(110)에 연결되어, 카메라(110)로부터 입력되는 영상을 소정의 영상 포맷으로 캡쳐하는 역할을 수행한다. 영상 취득부(120)에 의해 취득된 영상은 주 제어부(130)로 입력되어, 이동체(100)의 위치 인식에 사용된다.
주 제어부(130)는, 이동체(100)를 운용하기 위한 전반적인 제어를 수행하는 부분으로서, 상기 이동체(100)의 효율적인 제어를 수행하기 위해 자기 위치 인식 기능을 수행한다. 이를 위해 주 제어부(130)는 특징 데이터 추출부(131), 투사불변량 계산부(132), 데이터 저장부(133), 해시 테이블 검색부(134), 및 거리/방위정보 분석부(135)를 포함한다.
특징 데이터 추출부(131)는, 영상 취득부(120)를 통해 취득된 랜드마크 영상으로부터 제 1 외곽선 영역, 제 2 외곽선 영역, 및 형상 영역을 구분하고, 이들로부터 제 1 외곽선 정보, 제 2 외곽선 정보, 및 형상 정보를 자기위치 인식을 위한 특징 데이터로서 추출한다. 투사불변량 계산부(132)는 상기 형상 정보로부터 투사불변량을 계산하여 데이터 저장부(133)에 해시 테이블 형태로 저장한다. 투사불변량은 랜드마크 영상 취득시 여러 가지 요인들로 인해 랜드마크 영상의 형태가 변화하더라도 이것에 영향을 받지 않고 항상 일정한 값을 갖는 특징을 갖는다. 데이터 저장부(133)에는 투사불변량 계산부(132)로부터 계산된 해당 랜드마크의 투사불변량 값 뿐만 아니라, 상기 투사불변량과 비교될 기준 데이터로서 복수 개의 랜드마크들에 대한 투사불변량 값들이 해시 테이블 형태로 저장된다. 해시 테이블 검색부(134)는 카메라에 의해 취득된 랜드마크 영상의 투사불변량 값과, 기준 데이터로 데이터 저장부(133)의 일 영역에 해시 테이블 형태로 저장되어 있는 기준 랜드마크 영상들의 투사불변량 값들을 비교하여, 상기 랜드마크가 상기 복수 개의 기준 랜드마크들 중 어느 랜드마크와 일치하는지를 판별한다. 거리/방위정보 분석부(135)는 특징 데이터 추출부(131)로부터 추출된 제 1 및 제 2 외곽선 정보에 응답해서, 해당 랜드마크와 이동체(100)간의 거리 및 방위 정보를 분석한다.
그리고, 이동 제어부(140)는 주 제어부(130)의 제어에 의해 이동체(100)의 이동을 제어하는 기능을 수행한다.
도 4는 도 3에 도시된 카메라(110)의 외관을 보여주는 도면이고, 도 5는 도 4에 도시된 카메라에 대한 핀홀 카메라 모델(pin-hall camera model)을 보여주는 도면이다.
도 4를 참조하면, 카메라(110)는 크게 본체(111), CCD 어레이(112), 렌즈(114)로 구성된다. 렌즈(114)는 사람 눈의 수정체에 해당되는 역할을 수행한다. CCD 어레이(112)는 카메라의 렌즈(114)를 통해 투영된 영상이 맺히는 영상면(image plane)으로서, 사람 눈의 망막에 해당되는 역할을 수행한다. 렌즈(114)의 초점을 무한대로 맞추었을 때 렌즈(114)의 중심에서 CCD 어레이(112)까지의 거리를 초점거리(focal length)라 하는데, 초점 거리에 따라서 화상이 달리 보이는 특징이 있다. 아래에서 상세히 설명되겠지만, 초점거리는 카메라와 피사체(예를 들면, 랜드마크)간의 거리를 측정하는 데 있어 중요한 파라미터로 사용된다.
도 5에는 도 4에 도시된 카메라(110)의 각 부분들이 핀홀 카메라 모델에 의해 모델링된 결과가 도시되어 있다. 핀홀 카메라 모델에서 영상에 대한 투사변환(projective transformation) 식은 다음과 같이 표시된다.
여기서, (u,v,1)는 영상면에서 정의된 점(q)의 좌표이고, (X, Y, Z, 1)는 물체 좌표계에서 대응되는 점(P)의 좌표이고, tij는 물체면과 영상면 사이의 변형 매트릭스의 ij번째 요소를 각각 나타낸다.
이 때, 대상 물체가 2차원 평면인 경우(즉, Z=0), [수학식 1]은 다음과 같이 변형된다.
[수학식 1] 및 [수학식 2]에서 알 수 있는 바와 같이, 대상 물체로부터 영상을 취득하는 과정은 비선형적인 특성을 가짐을 알 수 있다. 그러나, 본 발명에 따른 자기위치 인식 장치 빛 방법은, 영상을 취득하는 과정에서 나타나는 비선형적인 특성에 영향을 받지 않을 뿐만 아니라, 노이즈 또는 영상의 경사각도의 변화에도 건실한 특성을 가진다.
도 6은 도 3에 도시된 주 제어부(130)에서 수행되는 자기위치 인식 방법을 보여주는 흐름도이다. 도 6을 참조하면, 본 발명에 따른 자기위치 인식 방법은 먼저 카메라(110)에 의해 취득된 랜드마크 영상으로부터 랜드마크 인식에 필요한 특징 데이터를 추출해 낸다(1310 단계). 그리고, 추출된 랜드마크 영상의 특징 데이터와, 소정의 데이터 저장 영역에 미리 정의되어 있는 기준 랜드마크 영상의 특징 데이터를 비교해서, 카메라(110)에 의해 취득된 랜드마크 영상이 미리 설정되어 있는 복수 개의 랜드마크들 중 어느 랜드마크에 해당되는지를 인식한다(1320 단계). 상기 랜드마크 영상의 특징 데이터는 빠른 검색을 수행하기 위해 테이블(Hash table) 형태로 저장된다.
1320 단계에서 수행된 랜드마크의 인식에 의해서 이동체(100)에 대한 개략적인 위치가 확인되고 나면, 랜드마크와 이동체(100)간의 거리 및 방위 정보가 분석되어, 이동체(100)의 상세 위치가 파악된다(1350 단계). 이어서, 1350 단계에서 계산된 영상의 X 및 Y축 상의 거리 값을 실제 공간상의 물리적인 거리 값으로 변환하는 캘리브레이션(calibration)이 수행된다(1360 단계).
1310 단계에서 수행되는 랜드마크의 특징 추출 단계는 다음과 같다.
도 7은 카메라(110)에 의해 취득된 랜드마크 영상(13000)으로부터 자기위치 인식에 사용될 특징 데이터가 추출되는 과정을 보여주는 도면이다. 도 6 및 도 7을 참조하면, 먼저 카메라(110)에 의해 취득된 랜드마크 영상(13000)으로부터 사각형 모양의 제 1 외곽선(11)이 추출된다(1311 단계). 이어서, 랜드마크 영상(13000)으로부터 원형(또는 타원) 모양의 제 2 외곽선(13)이 추출된다(1312 단계). 그리고 나서, 랜드마크 영상(13000)으로부터 형상 데이터(14)가 추출된다(1313 단계).
1311 단계에서 추출된 사각형 모양의 제 1 외곽선(11)은 취득된 영상의 X 축 및 Y 축을 구별하는 데 사용된다. 제 2 외곽선(13)은 랜드마크의 카메라 투영시 발생되는 원의 찌그러짐 현상을 분석하여 카메라와 대상 물체간에 이루는 각도를 파악하는 데 사용된다.
1350 단계에서는, 이와 같은 제 1 외곽선(11) 및 제 2 외곽선(13) 정보를 분석하여 이동체(100)에 대한 상세 위치 정보를 파악한다. 이에 대한 내용은 아래의 도 12를 참조하여 상세히 설명될 것이다.
1313 단계에서 취득된 랜드마크의 형상 정보는 1320 단계에서 해당 랜드마크가 어떤 랜드마크인지를 인식하는 데 사용된다. 이를 위해 1313 단계에서는, 취득된 랜드마크의 형상 정보로부터 투사불변량(projective invariant)을 계산하여 해시 테이블 형태로 저장한다(1322 단계). 이 때, 소정의 데이터 저장 영역에는 이미 각각의 랜드마크에 대한 투사불변량 값들이 해시 테이블 형태로 저장되어 있는데, 이를 카메라에 의해 취득된 랜드마크의 투사불변량 값과 비교함으로써 해당 랜드마크가 어떤 랜드마크인지를 인식하게 된다. 즉, 1322 단계에서 구해진 투사불변량 값은, 기준 데이터로 저장되어 있는 각 랜드마크별 투사불변량 값들에 대한 해시 테이블 검색에 사용되어, 해당 랜드마크가 어느 랜드마크에 해당되는지를 인식하게 된다(1324 단계).
1324 단계에서의 인식 결과, 해당 랜드마크가 집안의 여러 위치들 중 거실을 의미하는 경우, 해당 이동체(100)는 거실에 위치해 있는 것으로 개략적으로 인식된다. 이 때, 이동체(100)의 거실 내에서의 상세 위치 정보는 앞에서 설명한 제 1 외곽선(11) 및 제 2 외곽선(13) 정보의 분석에 의해 구해지게 된다.
도 8은 도 6의 1322 단계에서 수행되는 투사불변량 계산 방법을 설명하기 위한 도면이고, 도 9는 도 8에 도시된 랜드마크 형상에 대한 투사불변량 계산 결과를 보여주는 도면이다.
먼저, 본 발명에 따른 랜드마크 현상 인식의 기본 요소로 사용되는 투사불변량(I)은 다음과 같이 표시된다.
여기서, P는 물체점이고, q는 이에 대응되는 영상점이다(도 5 참조). [수학식 3]에 사용된 det(·)은 아래의 [수학식 4]와 같이 정의된다.
[수학식 3] 및 [수학식 4]와 같이 표시되는 투사불변량은 [수학식 2]와 같은 비선형 변형시에도 변하지 않는 정보로서, 카메라에 의해 취득된 영상의 형태가 변화하더라도 궁극적으로 변하지 않는 정보를 의미한다.
도 8을 참조하여 카메라에 의해 취득된 랜드마크 형상으로부터 투사불변량을 구하는 과정을 살펴보면 다음과 같다. 먼저, 도 8에 도시된 랜드마크 형상에 대해 외곽선을 추출하고, 추출된 외곽선을 5 개의 구간으로 균등 분할한다. 그리고, 5등분된 각 구간을 구성하는 각각의 점들(X1(1), X1(k), X2(1), X2(k), X3(1), X3(k), X4(1), X4(k), X5(1), X5(k))의 좌표를 구한 후, [수학식 3] 및 [수학식 4]에 의거하여 투사불변량을 계산한다. 투사불변량의 계산시 상기 점들(X1(1), X1(k), X2 (1), X2(k), X3(1), X3(k), X4(1), X4(k), X5(1), X5(k))은 랜드마크 형상의 외곽선을 따라 외곽선 길이의 1/N배 만큼씩 이동해 가면서 각 점들이 최초의 위치에 도달할 때까지 반복하여 [수학식 3]에 대입된다. 이를 수학식으로 나타내면 다음과 같다.
여기서,
,
,
,
,
이고, 1≤k ≤N이며, X(k) 및 Y(k)는 각각 랜드마크 형상 외곽선의 X축 및 Y축 좌표함수를 각각 의미한다.
상기와 같은 방법에 의해서 도 8의 형상에 대해 구해진 투사불변량은 도 9의 그래프와 같다. 도 9에 도시된 투사불변량 값은, 카메라에 의해 취득된 랜드마크 영상의 형태가 변형되더라도 고유의 투사 불변량 값을 유지하는 특성을 가진다. 따라서, 이 같은 투사불변량 값을 랜드마크 인식에 사용하게 되면, 핀홀 카메라 모델과 같은 비선형적인 특징을 가지는 랜드마크 영상의 경우에도 정확한 자기위치 인식을 수행할 수 있게 된다.
도 10은 랜드마크의 인식을 수행하기 위해서, 각 랜드마크별 투사불변량 값을 해시 테이블에 기준 값으로서 구축해 놓은 예를 보여주는 도면이고, 도 11은 카메라로부터 취득된 랜드마크의 투사불변량 값을 해시 테이블에 구축해 놓은 예를 보여주는 도면이다.
해싱(hashing)이란 키 값을 비교하면서 검색을 하는 것이 아니라, 키 값으로부터 자료가 저장되어있는 주소를 직접 계산해서 액세스하는 방법이다. 해시 테이블은 키 값으로부터 자료가 저장되어 있는 주소를 산출해 낼 수 있는 해싱함수(hashing function)에 의해서 n 개의 테이블로 구성된다.
도 10을 참조하면, 랜드마크의 형상 정보로부터 얻어진 기준 랜드마크의 투사불변량이 으로 표시될 때, 첫 번째 해시 테이블에는 에 해당되는 값들이 저장되고, 두 번째 해시 테이블에는 에 해당되는 값들이 저장된다. 그리고, n번째 해시 테이블에는 에 해당되는 값들이 저장된다.
이어서 도 11을 참조하면, 카메라에 의해 취득된 랜드마크의 형상 정보로부터 얻어진 투사불변량이 으로 표시될 때, 첫 번째 해시 테이블에는 h(I(1))에 해당되는 값들이 저장되고, 두 번째 해시 테이블에는 h(I(2))에 해당되는 값들이 저장된다. 그리고, n번째 해시 테이블에는 h(I(n))에 해당되는 값들이 저장된다. 도 10 및 도 11에서, h(·)는 해시 테이블에서 자료를 보관하는 데 사용되는 버켓(bucket)의 주소를 의미하는 해싱 함수를 나타낸다.
도 10 및 도 11에 도시된 바와 같이, 기준이 되는 랜드마크의 투사불변량 값과 카메라에 의해 취득된 랜드마크의 투사불변량 값이 각각 저장되고 나면, 카메라에 의해 취득된 랜드마크의 투사불변량 값을 인덱싱(indexing)함으로써, 각 랜드마크별 투사불변량 값들 중 어느 것이 카메라에 의해 취득된 랜드마크와 가장 유사한가를 인식하게 된다. 인덱싱 결과, 가장 많은 보팅(voting) 결과가 나타난 랜드마크를 카메라에 의해 취득된 랜드마크와 동일한 영상으로 인식하게 된다. 이와 같은 랜드마크의 인식이 수행되고 나면, 해당 랜드마크와 이동체(100) 사이의 거리 및 방위 정보가 인식된다. 이에 대한 상세 설명은 다음과 같다.
도 12는 카메라에 의해 투영된 랜드마크 영상으로부터 추출된 제 2 외곽선(즉, 타원) 데이터로부터 랜드마크와 이동체(100)간의 거리 정보 및 방위 정보를 추출하는 과정을 설명하기 위한 도면이다.
도 12에는 카메라에 의해 취득된 랜드마크 영상으로부터 취득된 타원 형상의 제 2 외곽선(23a-23c)의 예가 도시되어 있다. 도 12를 참조하면, 랜드마크의 제 2 외곽선(즉, 타원)은 카메라가 가지고 있는 비선형성 때문에 정원형(23c), 타원형(23b), 또는 소정의 각도만큼 기울어진 타원형(23a) 등으로 나타날 수 있다.
이와 같은 원형 또는 타원형의 도형은 두 변수 x, y를 갖는 이차곡선의 방정식으로 표현될 수 있는데, 이 같은 도형을 원추 곡선(Conic Section)이라 한다.
정원 및 타원을 포함하는 원추 곡선을 음함수 방정식(implicit equation)으로 나타내면 [수학식 6]과 같고, 카메라에 투영된 원추 곡선(즉, 타원 형태의 제 2 외곽선)을 벡터 형식으로 나타내면 [수학식 7]과 같다.
여기서, f는 카메라의 초점 길이(focal length)를 의미하고, k는 비-제로 임의상수(arbitrary non-zero constant)를 의미한다.
[수학식 6] 및 [수학식 7]과 같이 표시되는 원추 곡선이 임의의 축에 대하여 회전하게 되면, 임의의 Cubic 식(Q)과 회전된 원추곡선에 대한 Cubic 식(Q') 사이의 관계는 다음과 같이 표현된다.
여기서, R은 회전 벡터(rotation vector)를 의미한다.
[수학식 8]에 표시된 임의의 Cubic 식(Q)과 회전된 원추곡선에 대한 Cubic 식(Q') 사이의 관계에 의하면, 이동체(100)에 의한 랜드마크 영상 취득시 랜드마크와 이동체(100)간의 3차원적 정보(예를 들면, 랜드마크와 이동체(100)간의 거리 정보 및 방위 정보)를 추출할 수 있게 된다.
예를 들어, 랜드마크의 제 2 외곽선(23a-23c)이 소정의 각도만큼 기울어진 타원형(23a)으로 나타날 경우, 상기 타원(23a)에 대한 Cubic 식은 앞에서 설명된 [수학식 7]과 같다. 이 때, 상기 타원형(23a)을 도 12의 23b와 같이 표준 위치(standard position)에 위치한 타원으로 변형시키게 되면, [수학식 7]과 같이 표시된 상기 타원(23a)에 대한 Cubic 식(Q)은 다음과 같이 변형된다.
이 때, 두 Cubic 식들간의 관계식은 [수학식 10]과 같다.
여기서, U=[U1, U2, U3]은 Conic Q의 고유 값(eigen value)인 에 대한 고유 벡터(eigen vector)로 구성된 행렬을 나타낸다.
이어서, 도 12의 23b와 같은 형태의 타원을 도 12의 23c와 같은 형태의 정원으로 변형시킬 때의 Cubic 식은 [수학식 11]과 같고, 원래 취득된 영상의 Cubic 식(Q)과 최종적으로 변환된 Cubic 식(Q'')간의 관계식은 [수학식 12]와 같다.
여기서, R은 x' 축에 대한 회전 변환 행렬(rotation transformation matrix)을 의미한다.
앞에서 설명한 바와 같이, 카메라에 의해 취득된 랜드마크로부터 추출된 원추곡선(즉, 제 2 외곽선)에 대한 Cubic 식의 변환에 의하면, 원래 취득된 영상으로부터 추출된 Cubic 식과, 변형된 Cubic 식들(Q', Q'')간의 관계식으로부터 랜드마크와 이동체(100)간의 방위 정보, 및 랜드마크와 이동체(100)간의 거리 정보가 구해지게 된다. 랜드마크와 이동체(100)간의 거리 정보는, 변형 후 구해진 원(도 12의 23c)이 놓여진 영상면 상의 법선 벡터(normal vector ; n')와 원의 중심까지의 벡터(ct'), 및 법선 거리(normal distance ; d')를 이용하여 구해지게 된다. 이들에 의해 구해지는 타원(23a)에 대한 법선 벡터(n)와 원의 중심까지의 벡터(ct), 및 법선 거리(d) 각각은 다음과 같이 표시된다.
n = U Rn'
ct = U Rct'
여기서, n'=(0 0 1)T이고, ct' = (0 -dc/f d)T이며, 이다. 그리고, 이고, 이다. 이 중 는 정원(23c)과 타원(23b)의 중심 좌표 값의 차이를 보상해 주기 위한 값으로서, 최종적으로 변환된 정원(23c)으로부터 원래 취득된 타원(23a) 형상에 이르기까지 각 수학식을 거꾸로 역 추적해 나가게 되면, 카메라에 의해 취득된 랜드마크(20a)와 이동체(100)간의 거리 정보를 구할 수 있게 된다.
이상에서, 본 발명의 실시예로서 이동 로봇과 같은 이동류에 대한 자기 위치 인식에 대해 구체적으로 예시되었으나, 그밖에도 자동화 시스템(automation system), 지능적 차량 시스템(intelligent vehicle system) 등과 같이 영상을 이용한 응용 분야에 대한 영상의 인식 및 추적에도 본 발명을 적용할 수 있다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드로 저장되고 실행될 수 있다.
이상에 설명한 바와 같이, 본 발명에 의한 랜드마크 및 이를 이용한 자기 위치 인식 장치 및 방법에 의하면, 카메라의 비선형적인 특성에 영향을 받지 않고 정확한 자기위치 인식을 수행할 수 있다.
도 1은 본 발명의 바람직한 실시예에 따른 랜드마크의 구성을 보여주는 도면이다.
도 2는 본 발명에 따른 랜드마크의 다양한 구성 예를 보여주는 도면이다.
도 3은 본 발명의 바람직한 실시예에 따른 자기 위치 인식 기능이 구비된 이동체의 일 예를 보여주는 블록도이다.
도 4는 도 3에 도시된 카메라의 외관을 보여주는 도면이다.
도 5는 도 4에 도시된 카메라에 대한 핀홀 카메라 모델(pin-hall camera model)을 보여주는 도면이다.
도 6은 도 3에 도시된 주 제어부에서 수행되는 자기위치 인식 방법을 보여주는 흐름도이다.
도 7은 카메라에 의해 취득된 랜드마크 영상으로부터 자기위치 인식에 사용될 특징 데이터가 추출되는 과정을 보여주는 도면이다.
도 8은 도 6의 1322 단계에서 수행되는 투사불변량 계산 방법을 설명하기 위한 도면이다.
도 9는 도 8에 도시된 랜드마크 형상에 대한 투사불변량 계산 결과를 보여주는 도면이다.
도 10은 랜드마크의 인식을 수행하기 위해서, 각 랜드마크별 투사불변량 값을 해시 테이블에 기준 값으로서 구축해 놓은 예를 보여주는 도면이다.
도 11은 랜드마크의 인식을 수행하기 위해서, 카메라로부터 취득된 랜드마크의 투사불변량 값을 해시 테이블에 구축해 놓은 예를 보여주는 도면이다.
도 12는 카메라에 의해 투영된 랜드마크 영상으로부터 추출된 제 2 외곽선(즉, 타원) 데이터로부터 랜드마크와 이동체간의 거리 정보 및 방위 정보를 추출하는 과정을 설명하기 위한 도면이다.
< 도면의 주요 부분에 대한 부호의 설명 >
10 : 랜드마크 100 : 이동체
110 : 카메라 120 : 영상 취득부
130 : 주 제어부 140 : 이동 제어부

Claims (26)

  1. 이동체의 자기위치 인식시 영상 면의 X 축 및 Y 축을 구별하기 위한 제 1 외곽선 영역;
    상기 영상의 취득시 카메라와 랜드마크간의 틀어진 정도를 파악하기 위한 제 2 외곽선 영역; 및
    각 랜드마크를 구분하기 위한 고유의 형상을 나타내는 형상 영역을 포함하는 것을 특징으로 하는 랜드마크.
  2. 제 1 항에 있어서,
    상기 제 1 외곽선 영역은 상기 X 축 및 Y 축이 서로 직교하는 사각형으로 구성되는 것을 특징으로 하는 랜드마크.
  3. 제 1 항에 있어서,
    상기 제 2 외곽선 영역은 소정의 반지름을 갖는 정 원형으로 구성되는 것을 특징으로 하는 랜드마크.
  4. 제 1 항에 있어서,
    상기 랜드마크는 상기 제 1 및 제 2 외곽선 영역 사이에 소정의 컬러로 채워진 컬러 영역을 더 포함하는 것을 특징으로 하는 랜드마크.
  5. 카메라를 통해 입력된 랜드마크 영상으로부터 제 1 외곽선 정보, 제 2 외곽선 정보 및 형상 정보를 추출하는 특징 데이터 추출부;
    상기 형상 정보로부터 투사불변량을 계산하는 투사불변량 계산부;
    상기 계산된 투사불변량 값과, 복수 개의 기준이 되는 랜드마크들에 대한 투사불변량 값들을 해시 테이블 형태로 저장하는 데이터 저장부;
    상기 계산된 투사불변량 값과, 상기 기준이 되는 복수 개의 랜드마크 영상들에 대한 투사불변량 값을 비교하여, 상기 랜드마크가 어느 랜드마크와 일치하는지를 판별하는 해시 테이블 검색부; 및
    상기 제 1 및 제 2 외곽선 정보에 응답해서, 상기 랜드마크와 상기 이동체간의 거리 및 방위 정보를 분석하는 거리/방위정보 분석부를 포함하는 것을 특징으로 하는 이동체의 자기 위치 인식 장치.
  6. 제 5 항에 있어서, 상기 랜드마크는,
    상기 이동체의 자기위치 인식시 상기 영상 면의 X 축 및 Y 축을 구별하기 위한 상기 제 1 외곽선 정보를 포함하는 제 1 외곽선 영역;
    상기 영상의 취득시 상기 카메라와 상기 랜드마크간의 틀어진 정도를 파악하기 위한 상기 제 2 외곽선 정보를 포함하는 제 2 외곽선 영역; 및
    각 랜드마크를 구분하기 위한 고유의 상기 형상 정보를 포함하는 형상 영역을 포함하는 것을 특징으로 하는 이동체의 자기 위치 인식 장치.
  7. 제 6 항에 있어서,
    상기 제 1 외곽선 영역은 상기 X 축 및 Y 축이 서로 직교하는 사각형으로 구성되는 것을 특징으로 하는 이동체의 자기 위치 인식 장치.
  8. 제 6 항에 있어서,
    상기 제 2 외곽선 영역은 소정의 반지름을 갖는 정 원형으로 구성되는 것을 특징으로 하는 이동체의 자기 위치 인식 장치.
  9. 제 5 항에 있어서,
    상기 투사불변량은 상기 카메라를 통해 입력된 상기 랜드마크 영상의 형태 변화에 영향을 받지 않고 항상 일정한 값을 갖는 것을 특징으로 하는 이동체의 자기 위치 인식 장치.
  10. 제 9 항에 있어서,
    상기 투사불변량은, P가 물체점이고, q가 상기 물체점 P에 대응되는 영상점일 때
    이며,
    상기 det(·)는
    인 것을 특징으로 하는 이동체의 자기 위치 인식 장치.
  11. 제 5 항에 있어서,
    상기 투사불변량 계산부는 상기 랜드마크 형상의 외곽선을 n 개의 구간으로 분할한 후, 상기 각 구간을 구성하는 각각의 점들에 대한 좌표를 구하고, 상기 좌표가 각 구간의 최초의 위치에 도달할 때까지 상기 좌표를 상기 외곽선 길이의 1/N배 만큼씩 이동해 가면서 상기 좌표에 대한 투사불변량을 반복적으로 계산하는 것을 특징으로 하는 이동체의 자기 위치 인식 장치.
  12. 제 11 항에 있어서,
    상기 각 구간에 대한 투사불변량은, 1≤k ≤N이고, X(k) 및 Y(k)는 각각 랜드마크 형상 외곽선의 X축 및 Y축 좌표함수를 각각 의미할 때,
    ,
    ,
    ,
    ,
    이고,
    인 것을 특징으로 하는 이동체의 자기 위치 인식 장치.
  13. 제 5 항에 있어서,
    상기 거리/방위정보 분석부는, 상기 제 2 외곽선의 형태가 타원형으로 나타나는 경우, 상기 타원에 대한 원추 곡선(Cubic)식을 정원에 대한 원추 곡선식으로 변환하고, 상기 두 원추 곡선식간의 관계식으로부터 상기 랜드마크와 상기 이동체간의 방위 정보, 및 상기 랜드마크와 상기 이동체간의 거리 정보를 구하는 것을 특징으로 하는 이동체의 자기 위치 인식 장치.
  14. 제 13 항에 있어서,
    상기 랜드마크와 상기 이동체간의 거리 정보는, 변형된 상기 정원에 대한 영상면 상의 법선 벡터가 n'=(0 0 1)T이고, 상기 정원의 중심까지의 벡터가 ct' = (0 -dc/f d)T이고, 상기 정원의 중심과 상기 랜드마크 영상으로부터 추출된 상기 원추 곡선의 중심 좌표 값의 차이가 (여기서, , )일 때,
    원래 취득된 상기 타원의 법선 벡터는 n = U Rn'이고, 상기 타원의 중심까지의 벡터는 ct = U Rct'이며, 상기 타원의 법선 거리는 인 것을 특징으로 하는 이동체의 자기 위치 인식 장치.
  15. 카메라로부터 입력되는 랜드마크 영상을 소정의 영상 포맷으로 캡쳐하는 영상 취득부;
    상기 영상 취득부에서 캡쳐된 상기 랜드마크 영상에 응답해서 자기위치 인식 기능 및 이동체를 운용하기 위한 전반적인 제어를 수행하는 메인 프로서; 및
    상기 주 제어부의 제어에 응답해서 상기 이동체의 이동을 제어하는 이동 제어부를 포함하며,
    상기 메인 프로서는,
    상기 랜드마크 영상으로부터 제 1 외곽선 정보, 제 2 외곽선 정보 및 형상 정보를 추출하는 특징 데이터 추출부;
    상기 형상 정보로부터 투사불변량을 계산하는 투사불변량 계산부;
    상기 계산된 투사불변량 값과, 복수 개의 기준이 되는 랜드마크들에 대한 투사불변량 값들을 해시 테이블 형태로 저장하는 데이터 저장부;
    상기 계산된 투사불변량 값과, 상기 기준이 되는 복수 개의 랜드마크 영상들에 대한 투사불변량 값을 비교하여, 상기 랜드마크가 어느 랜드마크와 일치하는지를 판별하는 해시 테이블 검색부; 및
    상기 제 1 및 제 2 외곽선 정보에 응답해서, 상기 랜드마크와 상기 이동체간의 거리 및 방위 정보를 분석하는 거리/방위정보 분석부를 포함하는 것을 특징으로 하는 자기 위치 인식 기능을 가진 이동체.
  16. (a) 카메라로부터 입력된 랜드마크 영상으로부터 제 1 외곽선 정보, 제 2 외곽선 정보, 및 형상 정보를 추출하는 단계;
    (b) 상기 형상 정보로부터 투사불변량을 계산하여 해시 테이블에 저장하는 단계;
    (c) 상기 (b) 단계에서 계산된 상기 투사불변량 값과, 소정의 데이터 저장 영역에 해시 테이블 형태로 저장되어 있는 기준 랜드마크 영상들의 투사불변량 값을 비교하여, 상기 랜드마크가 상기 복수 개의 기준 랜드마크들 중 어느 랜드마크와 일치하는지를 판별하는 단계; 및
    (d) 상기 제 1 및 제 2 외곽선 정보에 응답해서, 상기 랜드마크와 이동체간의 거리 및 방위 정보를 분석하는 단계를 포함하는 것을 특징으로 하는 이동체의 자기 위치 인식 방법.
  17. 제 16 항에 있어서, 상기 랜드마크는,
    상기 이동체의 자기위치 인식시 상기 영상 면의 X 축 및 Y 축을 구별하기 위한 상기 제 1 외곽선 정보를 포함하는 제 1 외곽선 영역;
    상기 영상의 취득시 상기 카메라와 상기 랜드마크간의 틀어진 정도를 파악하기 위한 상기 제 2 외곽선 정보를 포함하는 제 2 외곽선 영역; 및
    각 랜드마크를 구분하기 위한 고유의 상기 형상 정보를 포함하는 형상 영역을 포함하는 것을 특징으로 하는 이동체의 자기 위치 인식 방법.
  18. 제 17 항에 있어서,
    상기 제 1 외곽선 영역은 상기 X 축 및 Y 축이 서로 직교하는 사각형으로 구성되는 것을 특징으로 하는 이동체의 자기 위치 인식 방법.
  19. 제 17 항에 있어서,
    상기 제 2 외곽선 영역은 소정의 반지름을 갖는 정 원형으로 구성되는 것을 특징으로 하는 이동체의 자기 위치 인식 방법.
  20. 제 16 항에 있어서,
    상기 투사불변량은 상기 카메라를 통해 입력된 상기 랜드마크 영상의 형태 변화에 영향을 받지 않고 항상 일정한 값을 갖는 것을 특징으로 하는 이동체의 자기 위치 인식 방법.
  21. 제 20 항에 있어서,
    상기 투사불변량은, P가 물체점이고, q가 상기 물체점 P에 대응되는 영상점일 때
    이며,
    상기 det(·)는
    인 것을 특징으로 하는 이동체의 자기 위치 인식 방법.
  22. 제 16 항에 있어서, 상기 (b) 단계는,
    (b-1) 상기 랜드마크 형상의 외곽선을 n 개의 구간으로 분할하는 단계;
    (b-2) 상기 각 구간을 구성하는 각각의 점들에 대한 좌표를 구하는 단계; 및
    (b-3) 상기 좌표가 각 구간의 최초의 위치에 도달할 때까지 상기 좌표를 상기 외곽선 길이의 1/N배 만큼씩 이동해 가면서 상기 좌표에 대한 투사불변량을 반복적으로 계산하는 단계를 포함하는 것을 특징으로 하는 이동체의 자기 위치 인식 방법.
  23. 제 22 항에 있어서,
    상기 (b-3) 단계에서 계산되는 상기 각 구간별 투사불변량은, 1≤k ≤N이고, X(k) 및 Y(k)는 각각 랜드마크 형상 외곽선의 X축 및 Y축 좌표함수를 각각 의미할 때,
    ,
    ,
    ,
    ,
    이고,
    인 것을 특징으로 하는 이동체의 자기 위치 인식 방법.
  24. 제 16 항에 있어서, 상기 (d) 단계는,
    (d-1) 상기 제 2 외곽선의 형태가 타원형으로 나타나는 경우, 상기 타원에 대한 원추 곡선(Cubic)식을 정원에 대한 원추 곡선식으로 변환하는 단계; 및
    (d-2) 상기 타원에 대한 원추 곡선식과, 변형된 상기 정원에 대한 원추 곡선식간의 관계식으로부터 상기 랜드마크와 상기 이동체간의 방위 정보, 및 상기 랜드마크와 상기 이동체간의 거리 정보를 구하는 단계를 포함하는 것을 특징으로 하는 이동체의 자기 위치 인식 방법.
  25. 제 24 항에 있어서,
    상기 랜드마크와 상기 이동체간의 거리 정보는, 변형된 상기 정원에 대한 영상면 상의 법선 벡터가 n'=(0 0 1)T이고, 상기 정원의 중심까지의 벡터가 ct' = (0 -dc/f d)T이고, 상기 정원의 중심과 상기 랜드마크 영상으로부터 추출된 상기 원추 곡선의 중심 좌표 값의 차이가 (여기서, , )일 때,
    원래 취득된 상기 타원의 법선 벡터는 n = U Rn'이고, 상기 타원의 중심까지의 벡터는 ct = U Rct'이며, 상기 타원의 법선 거리는 인 것을 특징으로 하는 이동체의 자기 위치 인식 방법.
  26. 제 16 항 내지 제 25 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
KR10-2002-0059778A 2002-10-01 2002-10-01 이동체의 효율적 자기 위치 인식을 위한 랜드마크 및 이를이용한 자기 위치 인식 장치 및 방법 KR100493159B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR10-2002-0059778A KR100493159B1 (ko) 2002-10-01 2002-10-01 이동체의 효율적 자기 위치 인식을 위한 랜드마크 및 이를이용한 자기 위치 인식 장치 및 방법
US10/428,791 US7333631B2 (en) 2002-10-01 2003-05-05 Landmark, apparatus, and method for effectively determining position of autonomous vehicles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0059778A KR100493159B1 (ko) 2002-10-01 2002-10-01 이동체의 효율적 자기 위치 인식을 위한 랜드마크 및 이를이용한 자기 위치 인식 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20040029493A KR20040029493A (ko) 2004-04-08
KR100493159B1 true KR100493159B1 (ko) 2005-06-02

Family

ID=32026111

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0059778A KR100493159B1 (ko) 2002-10-01 2002-10-01 이동체의 효율적 자기 위치 인식을 위한 랜드마크 및 이를이용한 자기 위치 인식 장치 및 방법

Country Status (2)

Country Link
US (1) US7333631B2 (ko)
KR (1) KR100493159B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101044434B1 (ko) 2009-10-30 2011-06-27 (주)휴엔텍 위치 인식 시스템 및 그 방법

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3968501B2 (ja) * 2001-11-30 2007-08-29 ソニー株式会社 ロボットの自己位置同定システム及び自己位置同定方法
ATE535312T1 (de) * 2003-08-21 2011-12-15 Bae Systems Plc Verbesserungen von spritzbeschichtung oder diese betreffend
KR100697810B1 (ko) * 2004-06-04 2007-03-20 주식회사 코맥스 랜드마크를 이용한 이동체의 자기위치 인식시스템 및 그방법
KR100763234B1 (ko) * 2004-06-11 2007-10-04 삼성전자주식회사 주행 상태를 감지하는 시스템 및 방법
JP3937414B2 (ja) * 2004-08-11 2007-06-27 本田技研工業株式会社 平面検出装置及び検出方法
US7623685B2 (en) * 2004-08-20 2009-11-24 The Regents Of The University Of Colorado Biometric signatures and identification through the use of projective invariants
JP2006220521A (ja) * 2005-02-10 2006-08-24 Hitachi Ltd 自己位置計測装置及び自己位置計測方法を実行するためのプログラム
KR100616774B1 (ko) * 2005-08-01 2006-08-28 한국생산기술연구원 무선통신을 이용한 이동체의 위치인식시스템 및위치인식방법
JP4916707B2 (ja) * 2005-11-14 2012-04-18 富士フイルム株式会社 撮影位置施設検索システム及び方法
EP2267568B1 (en) * 2005-12-02 2014-09-24 iRobot Corporation Autonomous coverage robot navigation system
WO2007113956A1 (ja) * 2006-03-31 2007-10-11 Murata Kikai Kabushiki Kaisha 移動体位置の推定装置と推定方法及び推定プログラム
WO2007119186A2 (en) * 2006-04-13 2007-10-25 Koninklijke Philips Electronics N.V. Object recognition
JP4267005B2 (ja) * 2006-07-03 2009-05-27 ファナック株式会社 計測装置及びキャリブレーション方法
JP5112666B2 (ja) * 2006-09-11 2013-01-09 株式会社日立製作所 移動装置
US7974460B2 (en) * 2007-02-06 2011-07-05 Honeywell International Inc. Method and system for three-dimensional obstacle mapping for navigation of autonomous vehicles
JP5107154B2 (ja) * 2008-06-23 2012-12-26 アイドゲノッシッシェ テヒニッシェ ホッホシューレ チューリッヒ 運動推定装置
KR101503904B1 (ko) 2008-07-07 2015-03-19 삼성전자 주식회사 이동 로봇의 지도 구성 장치 및 방법
TW201005673A (en) * 2008-07-18 2010-02-01 Ind Tech Res Inst Example-based two-dimensional to three-dimensional image conversion method, computer readable medium therefor, and system
US20100076710A1 (en) 2008-09-19 2010-03-25 Caterpillar Inc. Machine sensor calibration system
CA2897462A1 (en) * 2009-02-11 2010-05-04 Certusview Technologies, Llc Management system, and associated methods and apparatus, for providing automatic assessment of a locate operation
US20100215216A1 (en) * 2009-02-25 2010-08-26 Samsung Electronics Co., Ltd. Localization system and method
KR101314588B1 (ko) * 2009-10-26 2013-10-07 한국전자통신연구원 인공 표식물의 지도 작성 방법 및 장치와 이를 이용한 이동체 위치 측정 방법 및 장치
KR101105737B1 (ko) * 2009-12-11 2012-01-17 충북대학교 산학협력단 이동로봇의 위치인식 장치 및 방법
US20110153338A1 (en) * 2009-12-17 2011-06-23 Noel Wayne Anderson System and method for deploying portable landmarks
US8224516B2 (en) 2009-12-17 2012-07-17 Deere & Company System and method for area coverage using sector decomposition
US8635015B2 (en) 2009-12-17 2014-01-21 Deere & Company Enhanced visual landmark for localization
US9098905B2 (en) * 2010-03-12 2015-08-04 Google Inc. System and method for determining position of a device
US9146559B2 (en) * 2011-03-18 2015-09-29 The Raymond Corporation System and method for gathering video data related to operation of an autonomous industrial vehicle
ES2650607T3 (es) * 2011-04-21 2018-01-19 Konecranes Global Corporation Técnicas para posicionar un vehículo
JP5658372B2 (ja) * 2011-08-29 2015-01-21 株式会社日立製作所 監視装置、監視システム及び監視方法
KR101703177B1 (ko) * 2011-12-14 2017-02-07 한국전자통신연구원 차량 위치 인식 장치 및 방법
US8996036B2 (en) 2012-02-09 2015-03-31 Southwest Research Institute Autonomous location of objects in a mobile reference frame
US8725413B2 (en) 2012-06-29 2014-05-13 Southwest Research Institute Location and motion estimation using ground imaging sensor
US9218529B2 (en) 2012-09-11 2015-12-22 Southwest Research Institute 3-D imaging sensor based location estimation
US9070202B2 (en) * 2013-03-14 2015-06-30 Nec Laboratories America, Inc. Moving object localization in 3D using a single camera
JP6361213B2 (ja) * 2014-03-26 2018-07-25 セイコーエプソン株式会社 ロボット制御装置、ロボット、ロボットシステム、教示方法、及びプログラム
KR101610502B1 (ko) * 2014-09-02 2016-04-07 현대자동차주식회사 자율주행차량의 주행환경 인식장치 및 방법
KR102398330B1 (ko) * 2015-06-12 2022-05-16 엘지전자 주식회사 이동 로봇 및 그 제어방법
WO2017132636A1 (en) * 2016-01-29 2017-08-03 Pointivo, Inc. Systems and methods for extracting information about objects from scene information
US9727945B1 (en) 2016-08-30 2017-08-08 Alex Simon Blaivas Construction and evolution of invariants to rotational and translational transformations for electronic visual image recognition
US9858638B1 (en) 2016-08-30 2018-01-02 Alex Simon Blaivas Construction and evolution of invariants to rotational and translational transformations for electronic visual image recognition
JP6778063B2 (ja) * 2016-09-07 2020-10-28 株式会社Soken 運転支援装置、運転支援方法
US10803420B2 (en) 2016-09-30 2020-10-13 Staples, Inc. Hybrid modular storage fetching system
US10589931B2 (en) 2016-09-30 2020-03-17 Staples, Inc. Hybrid modular storage fetching system
US10683171B2 (en) 2016-09-30 2020-06-16 Staples, Inc. Hybrid modular storage fetching system
WO2018143620A2 (en) 2017-02-03 2018-08-09 Samsung Electronics Co., Ltd. Robot cleaner and method of controlling the same
JP2018124980A (ja) * 2017-02-03 2018-08-09 三星電子株式会社Samsung Electronics Co.,Ltd. 自走式移動体及び移動体の移動制御方法
US11590997B1 (en) 2018-08-07 2023-02-28 Staples, Inc. Autonomous shopping cart
US11084410B1 (en) 2018-08-07 2021-08-10 Staples, Inc. Automated guided vehicle for transporting shelving units
US11630447B1 (en) 2018-08-10 2023-04-18 Staples, Inc. Automated guided vehicle for transporting objects
WO2020117766A1 (en) 2018-12-03 2020-06-11 Sharkninja Operating Llc Optical indicium for communicating information to autonomous devices
US11180069B2 (en) 2018-12-31 2021-11-23 Staples, Inc. Automated loading of delivery vehicles using automated guided vehicles
US11119487B2 (en) 2018-12-31 2021-09-14 Staples, Inc. Automated preparation of deliveries in delivery vehicles using automated guided vehicles
US11124401B1 (en) 2019-03-31 2021-09-21 Staples, Inc. Automated loading of delivery vehicles
CN110597263B (zh) * 2019-09-25 2021-11-26 福州大学 一种无人餐厅自动送餐路径规划方法
US20210118180A1 (en) * 2020-12-23 2021-04-22 Intel Corporation Methods and apparatus to calibrate a multiple camera system based on a human pose
KR102621089B1 (ko) * 2022-01-12 2024-01-08 네이버랩스 주식회사 시각적 측위방법,이를 이용하는 제어서버 및 건물

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5525883A (en) * 1994-07-08 1996-06-11 Sara Avitzour Mobile robot location determination employing error-correcting distributed landmarks
JPH09218712A (ja) * 1996-02-08 1997-08-19 Murata Mach Ltd 無人車の誘導システム
JPH10134186A (ja) * 1996-10-30 1998-05-22 Technol Res Assoc Of Medical & Welfare Apparatus 特徴領域抽出方法および装置
JP2000337887A (ja) * 1999-05-25 2000-12-08 Mitsubishi Electric Corp 移動体の自己位置標定装置
JP2001118187A (ja) * 1999-10-19 2001-04-27 Olympus Optical Co Ltd 情報表示部材及びそれを用いた位置検出方法
JP2001142532A (ja) * 1999-11-12 2001-05-25 Nippon Signal Co Ltd:The 移動体の位置検出装置
KR20020038295A (ko) * 2000-11-17 2002-05-23 이충전 모빌로봇
JP2002149240A (ja) * 2000-11-16 2002-05-24 Sony Corp 移動ロボットのためのランドマーク

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62247410A (ja) * 1985-12-04 1987-10-28 Aisin Seiki Co Ltd 電気装置の付勢制御装置
US5240344A (en) * 1990-10-19 1993-08-31 Green William P Road or street lane markers
US5559695A (en) * 1994-12-27 1996-09-24 Hughes Aircraft Company Apparatus and method for self-calibrating visual time-to-contact sensor
JP3833786B2 (ja) * 1997-08-04 2006-10-18 富士重工業株式会社 移動体の3次元自己位置認識装置
FR2770317B1 (fr) * 1997-10-24 2000-12-08 Commissariat Energie Atomique Procede d'etalonnage de la position et de l'orientation d'origine d'une ou plusieurs cameras mobiles et son application a la mesure de position tridimentionnelle d'objets fixes

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5525883A (en) * 1994-07-08 1996-06-11 Sara Avitzour Mobile robot location determination employing error-correcting distributed landmarks
JPH09218712A (ja) * 1996-02-08 1997-08-19 Murata Mach Ltd 無人車の誘導システム
JPH10134186A (ja) * 1996-10-30 1998-05-22 Technol Res Assoc Of Medical & Welfare Apparatus 特徴領域抽出方法および装置
JP2000337887A (ja) * 1999-05-25 2000-12-08 Mitsubishi Electric Corp 移動体の自己位置標定装置
JP2001118187A (ja) * 1999-10-19 2001-04-27 Olympus Optical Co Ltd 情報表示部材及びそれを用いた位置検出方法
JP2001142532A (ja) * 1999-11-12 2001-05-25 Nippon Signal Co Ltd:The 移動体の位置検出装置
JP2002149240A (ja) * 2000-11-16 2002-05-24 Sony Corp 移動ロボットのためのランドマーク
KR20020038295A (ko) * 2000-11-17 2002-05-23 이충전 모빌로봇

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101044434B1 (ko) 2009-10-30 2011-06-27 (주)휴엔텍 위치 인식 시스템 및 그 방법

Also Published As

Publication number Publication date
US20040062419A1 (en) 2004-04-01
US7333631B2 (en) 2008-02-19
KR20040029493A (ko) 2004-04-08

Similar Documents

Publication Publication Date Title
KR100493159B1 (ko) 이동체의 효율적 자기 위치 인식을 위한 랜드마크 및 이를이용한 자기 위치 인식 장치 및 방법
US8229619B2 (en) Method of constructing artificial mark for autonomous driving, apparatus and method of determining position of intelligent system using artificial mark and intelligent system employing the same
CN108801268B (zh) 目标对象的定位方法、装置及机器人
Liu et al. Visual homing from scale with an uncalibrated omnidirectional camera
KR100656859B1 (ko) 초음파 센서와 비젼 센서를 기반으로 하는 이동로봇의 동시위치인식 및 지도형성 방법
Liu et al. Scale-only visual homing from an omnidirectional camera
Schleicher et al. Real-time hierarchical stereo Visual SLAM in large-scale environments
Iocchi et al. Self-localization in the RoboCup environment
KR102075844B1 (ko) 다종 센서 기반의 위치인식 결과들을 혼합한 위치 측위 시스템 및 방법
Ferguson et al. A 2d-3d object detection system for updating building information models with mobile robots
Ruan et al. Feature-based autonomous target recognition and grasping of industrial robots
CN113739786A (zh) 一种面向四足机器人的室内环境感知方法、装置及设备
Zingaretti et al. Appearance based robotics
Aggarwal Machine vision based SelfPosition estimation of mobile robots
Mount et al. Automatic coverage selection for surface-based visual localization
Denuelle et al. Bio-inspired visual guidance: From insect homing to UAS navigation
KR100647285B1 (ko) 인공마크를 이용한 지능형 시스템의 자기위치인식장치 및방법과 이를 이용한 지능형 시스템
JP2018194366A (ja) 位置推定装置、方法、及びプログラム
Amorós et al. Topological Map Building and Path Estimation Using Global-appearance Image Descriptors.
Lee et al. High-order moment models of landmark distribution for local homing navigation
Hu et al. Accurate fiducial mapping for pose estimation using manifold optimization
CN111283730A (zh) 基于点线特征机器人初始位姿获取方法及开机自定位方法
Li et al. CAD-vision-range-based self-localization for mobile robot using one landmark
Marie et al. Scale space and free space topology analysis for omnidirectional images
Yoo et al. Commonsense-Aware Object Value Graph for Object Goal Navigation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20080312

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee