KR100884904B1 - 평행 투영 모델을 이용한 자기위치 인식 방법 - Google Patents

평행 투영 모델을 이용한 자기위치 인식 방법 Download PDF

Info

Publication number
KR100884904B1
KR100884904B1 KR1020070092775A KR20070092775A KR100884904B1 KR 100884904 B1 KR100884904 B1 KR 100884904B1 KR 1020070092775 A KR1020070092775 A KR 1020070092775A KR 20070092775 A KR20070092775 A KR 20070092775A KR 100884904 B1 KR100884904 B1 KR 100884904B1
Authority
KR
South Korea
Prior art keywords
plane
orientation
distance
image
error
Prior art date
Application number
KR1020070092775A
Other languages
English (en)
Inventor
남윤영
경연태
조승한
홍상진
조위덕
Original Assignee
아주대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아주대학교산학협력단 filed Critical 아주대학교산학협력단
Priority to KR1020070092775A priority Critical patent/KR100884904B1/ko
Priority to PCT/KR2007/005274 priority patent/WO2009035183A1/en
Priority to US12/675,344 priority patent/US8432442B2/en
Priority to JP2010524765A priority patent/JP4996745B2/ja
Application granted granted Critical
Publication of KR100884904B1 publication Critical patent/KR100884904B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)

Abstract

평행 투영 모델을 이용한 자기위치 인식 방법이 개시된다. 본 발명의 실시예에 따른 자기 위치 인식 방법은 적어도 두 개의 기준 객체들의 영상을 획득하여, 영상획득기기의 자기 위치를 인식하며, 이미지 평면, 적어도 두 개의 기준 객체 평면들, 및 상기 이미지 평면과 상기 기준 객체 평면들 사이에 위치하는 적어도 두 개의 가상 가시 평면들을 설정하는 단계, 상기 기준 객체들을 대응하는 상기 가상 가시 평면으로 투영하는 단계, 상기 영상획득기기의 시야 축과 상기 기준 객체들 간의 거리와, 상기 시야 축과 상기 기준 객체들에 대응하는 상기 이미지 평면상의 이미지들 간의 거리를 계산하는 단계, 상기 영상 획득 기기의 방위와 줌 팩터, 및 상기 기준 객체들의 좌표를 이용하여, 상기 자기 위치를 인식하는 단계를 포함한다. 이 때 상기 줌 팩터는 상기 기준 객체 평면의 길이와, 상기 기준 객체 평면과 가상 가시 평면 간의 거리의 비이고, 상기 이미지 평면, 상기 가상 가시 평면, 및 상기 기준 객체 평면은 상기 시야 축에 수직이다.

Description

평행 투영 모델을 이용한 자기위치 인식 방법{Method for self localization using parallel projection model}
본 발명은 자기 위치 인식에 관한 것으로서, 특히 내비게이션 애플리케이션들에서, 모바일 센서용 평행 투영 모델(parallel projection model)을 이용하여 자기 위치를 인식하는 방법에 관한 것이다.
1. 배경기술
일반적으로 자기 위치 인식 가시 정보는 광도측정법(photometry)과 관련이 있다. 자기 위치 인식의 통상적인 프로세스는 두 가지 프로세스들을 포함한다. 첫 번째 프로세스는, 이미지로부터 특징들을 추출하는 것이고, 두 번째 프로세스는 위치 인식을 위해 이들 추출된 정보를 이용하는 것이다. 객체 상에 위치된 알려진 특징 포인트들의 2차원 이미지에 기초하여 카메라와 관련된 객체의 3차원 위치와 방 위를 결정하는 일반적인 방법이 [11]에 개시되어 있다. 보이는 객체들의 4 일치(four correspondence of scene objects)에 대한 n-포인트 원근법(PnP: perspective n-point) 문제들이 [6]에서 다루어졌다.
자기 위치 인식은 로봇 내비게이션을 위한 알고리즘에 적용하는 것에 초점이 맞추어져 발전해 왔다. 로봇이 하나의 이미지 내에서 단일 랜드마크 뷰를 갖는 그의 절대 위치를 결정할 수 있도록 하는 가시 위치 인식을 위한 간단한 방법이 [8]에 개시되어 있다. 이 알고리즘에서 이미지 평면은 광축과 수직이며, 초점거리라 불리는 거리 f 에서 광축과 정렬된다. 랜드마크 모델을 트래킹하기 위해서, 경도 강하(gradient descent)를 이용하여 Lucas-Kanade 광학 플로우 알고리즘(Lucas-Kanade optical flow algorithm)이 적용된다. 이 알고리즘은 실내 환경에서 믿을만한 실시간 성능을 갖는다. 그러나 이 접근 방법은, 핀홀(pinhole) 카메라 모델에서는, 단지 하나의 일치(correspondence)만 성립되는 한계가 있다.
전방에서 획득된 이미지와 내비게이션 하는 동안 획득된 이미지를 비교하는 방법에 기초하는 다른 위치 인식 알고리즘이 [1]에 개시되어 있다. 이 방법에서는, 이미지들의 모양과 좌표가 빠른 검색과 비교에 효과적인 포맷으로 메모리에 저장된다. 이 알고리즘은 랜드마크의 모양에 제한이 있으며, 열린 영역에서는 적합하지 않다. 평면 랜드마크들이 실내 환경에서 모바일 로봇의 가시 위치 인식에 사용되는 유사한 방법이 [10]에 개시되어 있다.
[7]에서는, 객체 인식 애플리케이션에서 이미지 특징 생성을 위해 개발된 크기 불변 특징 변환(SIFT: scale invariant feature transform)이 로봇 위치 인식을 위해 사용된다. SIFT의 변하지 않는 특징은 세 이미지들에 의해 획득되며, 스테레오 정합되어 이후 로봇과 관계된 3차원 세계 좌표를 계산하는데 사용될 랜드마크를 선택한다. 이 알고리즘은 고가의 계산력을 필요로 하는 세 대의 카메라를 사용한다.
2. 문제점 정리
도 1은 좌표가 모바일 센서에 미리 알려진 다중 기준 객체들을 갖는 모바일 센서의 자기 위치 인식의 문제점을 설명하기 위한 도면이다. 본 명세서에서, ‘모바일 센서’는 가시 센서(visual sensor)를 갖는 모바일 로봇으로 정의된다. 모바일 센서는 기준 객체들을 식별할 수 있고, 그 좌표는 (예를 들어, 데이터베이스에 저장되어) 알려진 것으로 가정한다. 본 명세서는, 자기 위치 인식의 문제점과 각 객체들을 인식하는 방법에 대해서는 고려되지 않으며, 자기 위치 인식에 대해서만 한정된다. 모바일 센서는 스스로 내비게이션 하며, 가시 이미지는 주기적으로 획득된다. 획득된 이미지 데이터에 기초하여, 자기 위치 인식은 모바일 센서의 좌표와 위치 모두를 결정하는 것을 포함한다.
본 명세서에서는, 원점은 임의로 선택되나 기준 포인트들의 좌표와 모바일 센서들을 나타내는데 사용되는 지구 좌표 시스템이 이용된다. 그 목적은 모바일 센서의 위치를 결정하기 위해서 투영된(projected) 기준 포인트들을 사용하는 것이다. 본 명세서에서는, 제안되는 방법의 두 가지 측면에 초점이 맞추어진다. 첫 번 째 측면은 자기 위치 인식의 정확도를 유지하는 것이고, 두 번째 측면은 계산 효율을 유지하는 것이다.
본 발명의 방법은 통상적인 디지털 이미지 장치에 의해 획득된 이미지 데이터를 이용하기 때문에, 몇 가지의 에러 소스들이 발생할 수 있다. 제안되는 접근 방법들은 기준 객체의 투영 이미지인 픽셀들의 영역으로부터 선택되는 포인트들에 의존하기 때문에, 객체 이미지의 영역으로부터 하나의 포인트를 선택하는 이미지 프로세싱으로부터의 고유한 에러들이 발생할 수 있다. 이러한 에러는 모바일 센서로부터 기준 객체들까지의 거리, 기준 객체들 간의 거리 등과 같은 많은 요인들에 따라 변할 수 있다. 또한 기준 포인트들까지의 거리가 알려지지 않은 경우, 이미지 장치의 렌즈의 비선형성에 의해 투영된 포인트의 천이(shifting)가 발생할 수도 있다. 또한 보상이 이루어지지 않는 경우, 이러한 천이는 자기 위치 인식의 충실도에 영향을 미친다.
모바일 센서는 그 위치와 방위가 연속적으로 변하기 때문에, 이에 따라 기준 포인트들 또한 바뀔 수 있다. 사용할 수 있는 기준 포인트들을 효율적으로 사용함으로써, 자기 위치 인식 방법은 계산에 있어서 효율적이어야 한다. 본 명세서에서 후술되는 바와 같이, 기준 포인트들을 선택하는 것은, 자기 위치 인식의 에러들에 영향을 미친다. 셋 이상의 기준 포인트들이 동시에 모바일 센서의 가시 영역 내에 있는 경우, 모바일 센서는 이러한 에러를 최소화하는 방식으로 기준 객체들을 자유롭게 선택할 수 있다.
따라서 다중 기준 객체들은, 각각의 모바일 센서의 자기 위치 인식을 이용할 수 있도록, 전략적으로 분산되어야 하며, 기준 포인트들의 위치 사이의 관계를 이용하여, 계산에 있어서 효율적이고도 반복적인 알고리즘이 제안될 필요가 있다.
본 발명이 이루고자하는 기술적 과제는 내비게이션 애플리케이션들에서 모바일 센서용 평행 투영 모델을 이용하여 자기 위치를 인식하는 방법을 제공하는데 있다.
상기 다른 기술적 과제를 달성하기 위한 본 발명의 실시예에 따른 자기 위치 인식 방법은 적어도 두 개의 기준 객체들의 영상을 획득하여, 영상획득기기의 자기 위치를 인식하며, 이미지 평면, 적어도 두 개의 기준 객체 평면들, 및 상기 이미지 평면과 상기 기준 객체 평면들 사이에 위치하는 적어도 두 개의 가상 가시 평면들을 설정하는 단계, 상기 기준 객체들을 대응하는 상기 가상 가시 평면으로 투영하는 단계, 상기 영상획득기기의 시야 축과 상기 기준 객체들 간의 거리와, 상기 시야 축과 상기 기준 객체들에 대응하는 상기 이미지 평면상의 이미지들 간의 거리를 계산하는 단계, 상기 영상 획득 기기의 방위와 줌 팩터, 및 상기 기준 객체들의 좌표를 이용하여, 상기 자기 위치를 인식하는 단계를 포함한다. 이 때 상기 줌 팩터는 상기 기준 객체 평면의 길이와, 상기 기준 객체 평면과 가상 가시 평면 간의 거 리의 비이고, 상기 이미지 평면, 상기 가상 가시 평면, 및 상기 기준 객체 평면은 상기 시야 축에 수직이다.
한편 본 발명의 실시예에 따른 자기 위치 인식 방법은 보정 테이블을 이용하여, 상기 위치를 보상하는 단계를 더 포함할 수 있으며, 이 때 상기 위치를 보상하는 단계는, 무한 거리에 대응하는 줌 팩터를 이용하여 상기 위치와 상기 방위를 추정하는 단계, 상기 추정된 위치와 방위에 따라 상기 기준 객체 평면들과, 대응하는 가상 가시 평면과의 거리를 계산하는 단계, 및 상기 보정 테이블로부터 선택되는 거리를 이용한 줌 팩터들을 이용하여 상기 위치와 상기 방위를 재계산하는 단계를 포함한다.
상기 기술적 과제를 달성하기 위한 본 발명의 다른 실시예에 따른 자기 위치 인식 방법은, 적어도 세 개의 기준 객체들의 영상을 획득하여, 영상획득기기의 자기 위치를 인식하며, 이미지 평면, 적어도 세 개의 기준 객체 평면들, 및 상기 이미지 평면과 상기 기준 객체 평면들 사이에 위치하는 적어도 세 개의 가상 가시 평면들을 설정하는 단계, 상기 기준 객체들을 대응하는 상기 가상 가시 평면으로 투영하는 단계, 상기 영상획득기기의 시야 축과 상기 기준 객체들 간의 거리와, 상기 시야 축과 상기 기준객체들에 대응하는 상기 이미지 평면상의 이미지들 간의 거리를 계산하는 단계, 상기 기준 포인트들 중 2 쌍을 이용하여, 에러 거리가 최소화되도록 초기 방위를 선택하고, 상기 초기 방위와 상기 에러 거리를 이용하여 상기 영상획득기기의 방위를 반복적으로 계산하는 방식으로, 상기 영상획득장치의 방위를 계산하는 단계, 상기 방위와 줌 팩터, 및 상기 기준 객체들의 좌표를 이용하여, 상 기 자기 위치를 인식하는 단계를 포함한다. 이 때 상기 줌 팩터는 상기 기준 객체 평면의 길이와, 상기 기준 객체 평면과 가상 가시 평면 간의 거리의 비이고, 상기 이미지 평면, 상기 가상 가시 평면, 및 상기 기준 객체 평면은 상기 시야 축에 수직이다.
한편 상기 영상획득기기의 방위를 계산하는 단계는, 상기 기준 포인트들 중 2 쌍을 이용하여, 상기 에러 거리가 최소가 되는 방위를 초기 방위로 선택하는 단계, 상기 초기 방위에 대응하는 에러 거리와, 상기 초기 방위보다 90도 큰 방위에 대응하는 에러 거리 중 더 작은 에러 거리를 초기 에러 거리로 선택하는 단계, 상기 초기 방위에서 미세 방위를 감산하여 근접 방위를 계산하고, 상기 근접 방위에 대응하는 근접 에러 거리를 계산하며, 상기 초기 에러 거리와 상기 근접 방위에 대응하는 에러 거리 간의 차이와 상기 미세 방위 간의 비를 이용하여 상기 초기 방위에 대응하는 위치에서의 경사를 계산하는 단계, 상기 경사가 양수이면 반복의 방향을 부의 방향으로, 상기 근접 에러 거리를 현재의 에러 거리로 설정하고, 상기 경사가 양수가 아니면 상기 반복의 방향을 정의 방향으로 설정하는 단계, 상기 경사의 절대값을 초기 경사로, 상기 현재 에러 거리와 현재 경사의 비를 다음 미세 방위로, 반복의 방향과 미세 방위의 곱을 현재 방위에 더한 값을 다음 방위로, 그리고 현재 방위에 대응하는 에러 거리를 현재 에러 거리로 설정하는 단계, 상기 미세 방위가 소정의 임계 방위 이하가 될 때 까지 상기 설정하는 단계를 반복하고, 현재 에러 거리와 현재 에러 거리와 이전 에러 거리의 합과의 비와 현재 미세 방위의 곱을 다음 방위로 반복적으로 계산하는 단계, 및 상기 미세 방위가 소정의 임계 방위 이하인 경우, 상기 반복적으로 계산된 이전 방위를 상기 영상획득기기의 방위로 결정하는 단계를 포함한다.
한편 본 발명의 다른 실시예에 따른 자기 위치 인식 방법은 보정 테이블을 이용하여, 상기 위치를 보상하는 단계를 더 포함할 수 있으며, 이 때 상기 위치를 보상하는 단계는, 무한 거리에 대응하는 줌 팩터를 이용하여 상기 위치와 상기 방위를 추정하는 단계, 상기 추정된 위치와 방위에 따라 상기 기준 객체 평면들과, 대응하는 가상 가시 평면과의 거리를 계산하는 단계, 및 상기 보정 테이블로부터 선택되는 거리를 이용한 줌 팩터들을 이용하여 상기 위치와 상기 방위를 재계산하는 단계를 포함한다.
상술한 바와 같이 본 발명의 실시예에 따른 자기 위치 인식 방법은, 단일 영상획득장치에 의해 획득되는 단일 영상들을 이용하여 자기 위치를 인식할 수 있으므로, 위치 인식을 위한 구성을 간소화할 수 있으며, 비용을 절감할 수 있는 효과가 있다.
또한 본 발명의 실시예에 따른 자기 위치 인식 방법은 간단한 계산으로 반복적으로 수행하여 영상획득장치의 방위를 계산하므로, 방위를 알아내는데 필요한 계산량을 크게 줄일 수 있는 장점이 있다.
또한 본 발명의 실시예에 따른 자기 위치 인식 방법은 영상획득장치의 비선형성에 의한 왜곡을 보상하므로, 자기 위치를 더욱 정확하게 인식할 수 있는 장점 이 있다.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 도면에 기재된 내용을 참조하여야 한다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
1. 개요
본 발명은 내비게이션 애플리케이션들에서, 모바일 센서용 평행 투영 모델(parallel projection model)을 이용하여 자기 위치를 인식하는 새로운 기법에 관한 것이다.
본 발명의 실시예에 따른 알고리즘은 가시(visual) 이미지 상에 투영된 기준들(projected references)을 이용하여 모바일 센서의 좌표와 방위를 측정한다. 본 발명에서 제안되는 방법은, 렌즈 시야(view) 왜곡의 비선형성을 고려하여, 보정(calibration) 테이블을 이용하여 왜곡을 보상한다. 본 발명에서 제안되는 방법은, 계산해야 하는 양이 적으면서도 아주 정확한 반복 과정을 이용하여 좌표와 방 위를 결정한다.
본 발명에서 제안되는 방법에 의해, 좌표와 방위 측정값들에서의 다양한 오차 원인들이 식별되며, 알고리즘의 정적인 감도 분석과 모바일 센서의 동적인 행동 모두가 나타난다. 이 알고리즘은 모바일 로봇 내비게이션뿐만 아니라 정확한 자기 위치 인식이 필요한 위치 제어 애플리케이션에 이용될 수 있다.
자기 위치 인식은 모바일 로봇(또는 모바일 센서) 내비게이션 애플리케이션들에 있어 중요한 동작이다. 일반적으로 두 가지 접근이 가능하다. 한 가지 접근 방법은 모바일 센서에 의해 내부적인 움직임 히스토리를 유지하는 방법이다. 그러나 이 방법에서는, 내비게이션을 하는 동안 에러가 축적되어 위치와 방위가 정확하게 트래킹(tracking) 될 수 없다.
다른 한 가지 접근 방법은 주기적으로 외부의 정보를 이용하는 방법이다. 이 방법에서는 위치 인식을 위해 범위 측정기(range finder)와 음파 탐지기(sonar)가 사용되는데, 레이더나 음파탐지기 전파가 사람들에 의해 자주 방해를 받으므로, 센서들이 쉽게 혼동되는 역동적인 환경에서는 범위 측정기와 음파 탐지기가 적합하지 않다. 또한 범위 측정기와 음파 탐지기는 제한된 동작 범위 때문에 넓은 영역에서의 위치 인식에는 적합하지 않다.
또한 음파 탐지기와 같은 능동형 센서는, 환경의 변경을 필요로 하는 비콘 타입 랜드마크들(beacon type landmarks)을 필요로 하므로, 특히 바깥 환경에서는 실용적이지 못하다. 또한 몇몇 모바일 센서들 간의 간섭은 센서들의 위치를 적절히 인식하지 못하게 한다.
이에 대해, 가시 정보 기반 위치 인식 접근 방법들(visual information based localization approach)은 환경의 변화를 필요로 하지 않는다. 가시 정보 기반 위치 인식은 동적인 환경에서 더욱 효과적이며 신뢰할 수 있는 방법이다. 가시 기반 위치 인식(visual based localization)은 인공적인 랜드마크 또는 자연적인 랜드마크 모두에 기초할 수 있다.
로봇의 좌표는 지역적(local)이고 위상적인(topological) 정보에 기초하거나 또는 글로벌 기준 시스템(global reference system)에 기초할 수도 있다. 후자의 경우, 랜드마크들 또는 기준 객체들의 글로벌 좌표는, 내비게이션 할 때 모바일 로봇에 의해 학습된다.
본 명세서에서는, 통상적인 디지털 이미지 장치로부터 획득된 단일 가시 이미지를 이용하여 자기 위치를 인식하는 방법이 제안된다. 여기서, 랜드마크들이나 기준 객체들은, 통상적인 이미지 프로세싱에 의해 신뢰할 수 있을 정도로 식별되고 추출될 수 있다. 몇몇 기준 포인트들(points)은, 평행 투영 모델이 이러한 포인트들을 해석하여 일련의 알려진 지리적 관계들을 형성할 수 있는, 랜드마크들로부터 유도될 수 있다. 이러한 관계들을 이용하여, 모바일 센서의 좌표나 방위가 효과적으로 결정될 수 있다. 평행 투영 모델은 계산의 복잡합을 간단하게 하며, 광학 렌즈 왜곡에 기인하는 비선형성을 보상한다. 제안된 방법은 좌표와 방위들을 반복적으로 결정한다. 이들 좌표들이 알려지거나 이들 아이덴티티들이 신뢰할 수 있을 정도로 식별될 수 있는 한, 이 방법은 인공적이거나 또는 자연적인 기준들을 이용하여 넓은 범위에서 이용될 수 있다.
2. 가시 이미지들의 특성화
A. 평행 투영 모델의 기본 개념
본 섹션에서는, 평행 투영 모델(parallel projection model)이 소개된다. 카메라 장치 상에 투영된 이미지에 대한 프로세스를 간소화하기 위해서, 도 2에 도시된 바와 같이, 객체 평면(object plane), 가상 가시 평면(virtual viewable plane), 그리고 실제 카메라 평면(actual camera plane)의 세 개의 평면들이 정의된다. 모바일 센서의 가시 평면에 있는 객체 P 는 객체 평면으로 간주된다.
통상적인 카메라의 모델과 달리, 평행 투영 모델에서 객체 P 는 가상 가시 평면상으로 평행하게 투영되며, 투영된 포인트는 pp 로 표시된다. 가상 가시 평면은 거리 dp 를 유지하면서 객체 평면과 평행하다. Lc 는 객체 평면의 길이를 표시하고, 이는 거리 에서의 가시 영역의 길이이다. Ls 는 투영된 이미지의 측정이 이루어지는 실제 카메라 평면의 길이를 표시한다. 가상 가시 평면과 실제 카메라 평면상에 투영된 객체의 위치들은 각각 upp 와 up 로 표시된다.
평행 투영 모델에서, 객체 평면상에 위치하는 실제 객체는 가상 가시 평면을 통해 실제 카메라 평면으로 투영된다. 따라서 식 (1) 에서 공식화되는 바와 같이, upp 는, 가상 가시 평면과 실제 카메라 평면의 길이의 비를 이용하여 Lc, Ls, 그리고 up 로서 표시된다.
Figure 112007066242438-pat00001
(1)
일단 Lc 와 dp 간의 비가 알려지면, 실제 객체의 위치는 upp 와 dp 로부터 얻을 수 있다. 이 비는 이미지 장치의 특성인 줌 팩터(zoom factor) z 로 정의된다.
Figure 112007066242438-pat00002
(2)
도 3은 가상 가시 평면 상에서 주밍 효과들을 설명하기 위한 도면이다. 비록 실제 카메라 평면상의 up1 과 up2 의 위치가 다른 줌 팩터들 z1 가 z2 와 다르더라도, 가상 가시 평면상의 upp1 과 upp2 의 위치는 동일하게 유지된다. 식 (1) 로부터, upp1 은 up1(Lc1=Ls) 으로 표시되고, upp2 는 up2(Lc2=Ls) 로 표시된다. upp1 과 upp2 의 위치가 동일하므로, up1 은 up2(Lc2=Lc1) 로 표시될 수 있다. 또한 식 (2) 로부터, z1 = dp= Lc1 이고 z1 = dp = Lc1 이므로, 하나의 줌 팩터를 가지며 실제 카메라 평면상에 투영된 객체는 다른 줌 팩터를 갖는 위치로 표시될 수 있다.
Figure 112007066242438-pat00003
(3)
도 4는, 다른 객체 평면상의, 즉 다른 거리에서, 두 객체들 P1 과 P2 가 실제 이미지 평면상에서 하나의 포인트로 보이는 경우를 나타내는 도면이다. 객체들은 두 개의 다른 가상 가시 평면들 상에서 upp1 과 upp2 로 투영되나, 실제 카메라 평면상에서는 동일한 포인트에서 만나는 것으로 간주된다. 식 (1) 로부터, upp1 은 up(Lc1=Ls) 로 표시되고, upp2 는 up(Lc2=Ls) 로 표시된다. 이 경우, 다음 조건이 만족되어야 한다.
Figure 112007066242438-pat00004
(4)
여기에서는, 식 (2) 로부터, 줌 팩터의 정의, Lc1 = d1 = z, 그리고 Lc2 = d2 = z 가 사용되었다.
B. 다른 평면들 상의 기준 포인트들의 관계
가시 센서(visual sensor)의 파라미터들인, z 와 Ls 가 주어졌을 때, 가상 가시 평면상에 투영된 기준 포인트와, 각 평면의 원점(origin)까지의 거리를 갖는 실제 카메라 평면상의 한 포인트 간의 관계가 유도될 수 있다. 각 평면의 원점은, 평면과, 평면의 수직 라인간의 교차점으로 정의되며, 또한 모바일 센서의 위치를 가로지르는 시야 축(view axis) 된다. 특히 실제 카메라 평면의 원점은, 회전(panning)의 축이다. 도 5에서, 실제 카메라 평면상의 원점은 Oc 로 표시되며, 가상 가시 평면들의 원점들은 각각 Ov1 과 Ov2 로 표시된다. 비록 평면들이 가시 센서(visual sensor)의 회전에 따라 회전하지는 않는다고 하더라도, 각 평면상위 거리에 기초한 관계는 변화하지 않고 유지된다. p1 과 p2 가 각 가상 평면상의 시야 축(view axis)까지의 거리를 표시할 때, i1 과 i2는 실제 이미지 평면상에서의 대응하는 측정값을 나타내며, (1) 과 (2)를 이용하여 다음 식이 유도될 수 있다.
Figure 112007066242438-pat00005
(5)
여기서 z1 과 z2 는, 각 기준 포인트에 대한 실제 카메라 평면으로부터 객체 평면까지의 거리 D1 과 D2 에 대응하는 모바일 센서의 줌 팩터들이다. Ls 는 i1 과 i2 가 측정되는 이미지의 크기이다.
실제로, 이미지 장치 상에 투영된 포인트의 위치는, 에지 검출 및/또는 특징 추출과 같은 타깃(target) 객체들에 대한 이미지 프로세싱으로부터 획득될 수 있다. 따라서 이미지 장치 상에 투영된 포인트는 종종 어떤 불확실성을 포함하기도 한다. 다음 섹션들에서는, 이러한 불확실성이 자기 위치 인식 알고리즘에 어떻게 영향을 미치는지에 대해 자세하게 논의될 것이다.
3. 자기 위치 인식 알고리즘
A. 방위가 알려진 경우의 자기 위치 인식
본 섹션에서는, 두 개의 기준 포인트들의 좌표가 알려지고, 가시 센서의 방위의 각도가 알려진 경우, 자기 위치를 인식하는 방법이 설명된다. 이하의 설명에서, θ 는 카메라 평면과 범용(global) x 축 사이의 각도로 정의된다. u 는 카메라 평면 방향의 단위 벡터로 정의되고, n 은, 가시 센서가 만나는 방위인, 시야 축 방향을 따르는 단위 벡터로 정의된다. 따라서 θ 는 x 축과 u 사이의 각도이다. 다음 식들을 이용하여, 식 (5) 의 p1, p2, D1, 그리고 D2 값들을 얻을 수 있다. 이전 섹 션에서, i1 과 i2 는 카메라 평면상의 시야 축까지의 거리로 설명하였으나, 지금부터 i1 과 i2 는, 투영된 기준 포인트들이 시야 축의 왼쪽 편에 있는 경우, 음의 값들을 갖게 된다. p1 과 p2 가 시야 축의 왼쪽 편에 있는 경우 p1 과 p2 가 음의 값을 갖도록 함으로써, 이전 섹션에서 설명되었던 거리 관계는 변경되지는 않는다.
p1 과 p2 에 대해서는, 다음 식과 같다.
Figure 112007066242438-pat00006
(6)
D1 과 D2 에 대해서는, 다음 식과 같다.
Figure 112007066242438-pat00007
(7)
여기서
Figure 112007066242438-pat00008
Figure 112007066242438-pat00009
는 각 기준 포인트에 대한 모바일 센서, Oc 의 위치로부터의 벡터들이다. 위의 두 세트의 식들에서,
Figure 112007066242438-pat00010
Figure 112007066242438-pat00011
는 u 와 n 컴포넌트들로 간단하게 분해된다. 이에 따라, 식 (5) 로부터 다음 식을 얻을 수 있다.
Figure 112007066242438-pat00012
(8)
또는,
Figure 112007066242438-pat00013
(9)
도트 프로덕트(dot product)의 첫 번째 텀들,
Figure 112007066242438-pat00014
Figure 112007066242438-pat00015
는 범용 x-y 좌표 시스템에서 그들의 x 와 y 컴포넌트로, 다음의 식과 같이 표현될 수 있다.
Figure 112007066242438-pat00016
(10)
여기서, P1x 와 P2X 는 각각 P1 과 P2 의 x 컴포넌트들이고, P1y 와 P2y 는 각각 P1 과 P2 의 y 컴포넌트들이다.
도트 프로덕트의 두 번째 텀들의 x 와 y 컴포넌트들은 다음 식과 같이 표현될 수 있다.
Figure 112007066242438-pat00017
(11)
이에 따라, 식 (9) 는 다음 식과 동일하다.
Figure 112007066242438-pat00018
xc 와 xy 에 대한 최종 식들을 간소화하기 위해서, 매개 변수들이 도입된다. 매개 변수들은 다음과 같다.
Figure 112007066242438-pat00019
따라서 다음 식과 같이 표현되는 모바일 센서의 좌표를 얻을 수 있다.
Figure 112007066242438-pat00020
(12)
기준 객체가 카메라 평면상으로 투영되기 때문에, 기준 객체들의 좌표는 기준 객체들의 중심에 대응된다. 이에 따라, 식 (12) 를 이용하여, 모바일 센서의 좌표를 얻을 수 있다. 그러나 실제로 기준 포인트들의 좌표가 미리 알려진다고 하더라도, 이미지 상에서의 i1 과 i2 측정은 진정한 기준 포인트들에 대응되지 않을 수도 있다. 이러한 불확실성을 일으킬 수 있는 원인들은, 이미지 평면들의 픽셀 해상 도(pixel resolution)뿐만 아니라 검출된 기준 모양의 중심을 잘못 결정하는 것으로부터 기인할 수도 있다. 이러한 불확실성은, 완벽한 렌즈 시야 특성을 갖는데도 불구하고, 분명히 나타난다. 다음 섹션에서는 카메라 렌즈의 비선형성의 효과에 대해 설명한다.
B. 방위 결정
따라서 지금까지는, 방위가 주어진 경우 모바일 센서의 위치를 결정하는 것에 대해 고려하였다. 그러나 모바일 센서의 방위를 결정하는 것뿐만 아니라 그 위치를 결정하는 것도 필요하다. 위치와 방위 모두를 동시에 결정하는 것은 제 3의 기준 포인트를 필요로 한다. 평행 투영 모델로부터, 식 (5) 를 이용하여, 카메라 평면 중심과 기준 포인트를 가로지르는 라인의 각도를 얻을 수 있으며, 이 각도는 라인과 카메라 평면 사이에 형성된다. 두 개의 기준 포인트들을 가지고, 카메라 평면에 대한 알려진 각도를 갖는 2 개의 라인들을 얻을 수 있으며, 각각의 기준 포인트는 그들 중 하나 상에 있음을 알고 있다. 이 라인들 상에 있는 꼭지점들로서 두 개의 기준 포인트들을 갖는 라인 세그먼트의 위치를 정하는 수 없이 많은 방법들이 있기 때문에, 두 개의 기준 포인트들을 가지고서는 모바일 센서의 위치와 방위를 결정할 수 없다. 하나의 기준 포인트를 더 가지면, 이 문제는 알려진 각도를 갖는 세 개의 라인들 상으로의 알려진 길이를 갖는 삼각형의 세 꼭지점들의 위치를 정하는 것이 된다. ± 180도의 범위로 모바일 센서의 방위를 한정하면, 이러한 방법에서는 삼각형의 위치를 정하는 유일한 한 방법이 있다. 이상의 설명으로부터, 기준 포인트들의 일반적인 방위가 알려진 경우 모바일 센서의 방위와 위치 인식을 모두 결정하는 데에는 세 개의 기준 포인트들이면 충분하다는 결론이 얻어질 수 있으며, 이하의 설명에서도 이러한 결론이 그대로 적용된다.
식 (14) 를 이용하여 세 개의 연립방정식들을 풀어봄으로써 해법을 찾을 수 있으나, 그 비선형성 때문에 모바일 로봇과 같은 자원 제한적인 장치들에 구현되기 위해서는 상당히 복잡한 계산을 필요로 한다. 그 대신, 그 해법이 식 (14) 에 주어지며, 단지 2 개의 연립방정식을 푸는 것을 포함하는 효율적인 반복 알고리즘이 제안된다. 이러한 반복적인 접근 방법에서, 모바일 센서의 방위가 결정된다. 일단 방위가 찾아지면, 식 (14) 를 이용하여 모바일 센서의 위치를 얻을 수 있다.
주어진 방위 각, θ 에서, 식 (14) 를 이용하여, 세 개중 2 개의 기준 포인트들 2 쌍을 이용하여 두 세트의 좌표들, (xc1, yc1) 과 (xc2, yc2) 을 얻을 수 있다. 자기 위치 인식을 위해 세 개의 기준 포인트들, P1, P2, 및 P3에서 선택될 때, P1 과 P2 를 이용하여 다음 식을 얻을 수 있으며,
Figure 112007066242438-pat00021
(13)
다른 쌍 P2 와 P3 를 이용하여 다음 식을 얻을 수 있다.
Figure 112007066242438-pat00022
(14)
효율적인 반복 전략을 개발하기 위해서, 방위의 각도가 변하는 동안 두 좌표들의 차이들, dcx = xc1 - xc2 및 dcy = yc1 - yc2 의 행동을 조사한다. 에러 거리를 다음 식과 같이 정의한다.
Figure 112007066242438-pat00023
(15)
여기서, θ 는 모바일 센서의 방위의 각도이다. 도 6은, θ 가 ± 0 도부터 ± 180 도까지 변하는 것에 따른 이 함수의 동작을 보여주는 도면이다. 도 6은 모바일 센서의 실제 방위가 ± 80 도일 때, 이 각도에서 에러 거리(θ)가 0으로 되는 경우를 보여주는 도면이다. 이 각도를 해법 포인트(solution point)라 한다. 이 포인트 주면에서, 이 함수는 대칭이며, ± 180 도의 주기를 갖는 것을 알 수 있다.
해법 포인트로부터 ± 45 도의 범위 내에서 반복을 시작하고, 경사의 아래를 따라 간다면, 해법을 찾는 것이 보장된다. 이 범위 내에서 이러한 초기 반복 포인트, i0 를 찾기 위해서, ± 90 도의 간격을 갖는 두 각도를 임의로 선택한다. 이들 중 하나는 해법 포인트로부터 ± 45 도의 범위 이내일 것이고, 다른 하나는 범위 밖일 것이기 때문에, 초기 반복 각도, θ0 로서, 단순히 더 작은 에러 거리(θ)가 나오는 각도를 선택한다.
일단 초기 포인트가 선택되면, θ 와 에러 거리(θ)에 의해 결정되는 초기 반복 포인트, i0 를 얻을 수 있다. 이 포인트에서 경사를 측정하기 위해서, ± 0 과 같이, θ0 에서 아주 가깝도록 선택되는 θ1 을 이용하여 다른 에러 거리 함수가 추정된다. 이렇게 추정된 경사를 slope0 라 하며, 초기 반복 변수들의 관계는 다음 식과 같다.
Figure 112007066242438-pat00024
(16)
여기서, En = error distance(θn) 이다.
추정된 경사의 부호에 따라, 반복의 방위, dir 을 선택한다. slope0 > 0 라면, dir0 = -1 로 설정하고, θ0 를 θ-1 로, E0 를 E-1 로 교환한다. 그렇지 않다면, dir0 = 1 이다.
먼저, 초기 포인트에서의 경사가 선형이라고 가정함으로써, 경사 라인이 x 축과 교차하는 곳에서의 다음 각도를 선택한다. 해법 포인트에 접근할수록 경사는 증가하기 때문에, 다음 반복 단계는 해법 포인트와 아주 근접하기는 하나 오버슈트할 것이다. 도 6에 도시된 바와 같이, θ1에서 추정된 에러 거리 함수는 해법 포인트의 다른 편에 있다.
두 번째 단계로부터, 경사를 이용하는 대신, 이전의 두 개의 각도와 그들에 의해 추정된 에러 거리에 기초하여 다음 반복 단계의 각도를 선택한다. 이 경우, 도 7에 도시된 2 개의 삼각형들이 근사적으로 해법 포인트에 비교적 가깝기 때문에, 다음 단계의 각도는 다음 방정식들에 의해 추정된다.
Figure 112007066242438-pat00025
(17)
로부터, 다음 반복 각도는 다음 식과 같이 계산된다.
Figure 112007066242438-pat00026
(18)
추정된 방위의 변화, Δθ 가 임계값, ε 보다 작아질 때까지, 반복이 계속된다. 그렇지 않은 경우, 방위, dir = dir * -1 로 바꾸고 계속한다. 알고리즘 1은 알고리즘에 대한 의사 코드(pseudo code)이다. 도 8은, 알고리즘이 매우 빠르게 수렴하는 것을 보여주는 도면이다. 도 8은, ± 10 도, ± 40 도, 그리고 ± 80 도의 세 개의 초기 추정 각도가 사용될 때, 반복 알고리즘이 적용되는 경우를 보여주는 도면이다. 각 반복 단계에서의 에러 거리(θ)의 값이 도시되어 있다. 이 때 반복은 두 개의 초기 반복 위치들에서 시작되는 것을 알 수 있다(즉 도면에 도시된 바와 같이, 반복은 -1 인덱스에서 시작한다).
Figure 112007066242438-pat00027
도 9는 위치 인식에 있어서 방위 오차의 중요성을 설명하기 위한 도면이다. 도시된 것들은 몇몇 위치 에러들에 대한 변위 에러를 나타낸다. 본 명세서에서, 변위 에러는 다음 식과 같이 정의된다.
Figure 112007066242438-pat00028
(19)
여기서, (xc,true, yc,true) 는 실제 좌표이고, (xc,est, yc,est) 는 추정된 좌표이다. 결과들은 ΔP 와 Dmax 의 함수로 도시되어 있으며, 여기서 ΔP 는 기준 포인트들 간의 (투영된 평면과 평행) 간격(separation)을 나타내고, Dmax 는 기준 포인트들의 (투영된 평면과 수직) 최대 거리를 나타낸다. 변위는 방위가 결정된 후에 계산되기 때문에, 각도 결정은 매우 중요한 문제이다. 따라서 방위 계산이 정확하지 않다면, 위치 인식은 좌표들을 성공적으로 추정하지 못할 수도 있다.
C. 렌즈 왜곡
도 10은, 점선과 실선이 각각 줌 팩터
Figure 112007066242438-pat00029
Figure 112007066242438-pat00030
를 갖는 이상적인 가시 각도와 실제 가시 각도를 나타내는 경우, 렌즈 왜곡에 의해 야기되는 실제(비이상적인) 주밍(zooming) 모델을 나타내는 도면이다. 따라서 렌즈 시야가 이상적이고 선형인 경우에는, z1 = z2 이다. 그러나 대부분의 실제 렌즈 시야는 비선형 줌 팩터를 갖는다.
도 11은 렌즈로부터의 거리의 함수인 주밍 비선형성을 나타내는 도면이다. 점선은 (예를 들어 무한 거리 모델로 가정된) 이상적인 줌 팩터이고, 실선은 실제 측정된(비이상적인) 줌 팩터인 경우, 도 11은 통상적인 상업 렌즈(예를 들어, Tamron SP AF 17-50mm Zoom Lens)에서 획득된 주밍 팩터를 보여준다. [표 1]은 보정된(calibrated) 줌 팩터들을 나타낸다. 이 때 줌 팩터들은 이미징 장치로부터의 거리뿐만 아니라 렌즈의 축으로부터의 거리에도 의존함을 알 수 있다.
[표 1]
Figure 112007066242438-pat00031
비이상적인 렌즈의 비선형 왜곡은 평행 투영 모델에서 스케일에 영향을 미친다. 모바일 센서와 기준들 간의 거리들이 알려져 있지 않기 때문에, 거리가 큰 경우의 값에 대응하는 z 값을 이용하여 모바일 센서의 좌표를 계산할 수 있다(즉 z 값이 특정 값으로 수렴한다). 일단 좌표의 초기 값이 얻어지면, 비 선형성을 보상하여 모바일 센서의 최종 좌표를 얻기 위해서 z 의 특정 값들을 이용한다(즉 하나는 첫 번째 기준에 대해, 다른 하나는 두 번째 기준에 대해). 알고리즘 2는 이 과정을 기술하고 있다.
Figure 112007066242438-pat00032
도 12는 좌표 결정에 있어서 비선형 효과를 설명하기 위한 도면이다. 도면에 서, 방위는 0 이 되도록 선택된다(즉 시야 축은 x 축과 수직이다). 카메라는 범용 좌표 (0, 0)에 대해 (4.8m, 3.0m)에 위치하고, 첫 번째 기준 P1 은 (4.5m, 4.5m) 에 위치하고, 그리고 두 번째 기준 P2 는 (5.1m, 5.1m) 에 위치한다. 도 10에 도시된 바와 같이, 이러한 좌표들은 카메라 근처에서의 혹독한 비선형성을 나타내기 위해 사용된다. 렌즈는 17mm 줌 범위에서 설정된다. Ls 의 값은 18.4cm 이다(x 방향으로의 이미지 크기). 첫 번째 기준 i1 의 투영된 위치는 이미지 중심으로부터 3.85cm 이고, 두 번째 기준 i2 는 이미지 중심으로부터 2.45cm 이다. 이러한 위치들은 이미지중심에 대한 기준 객체들의 중심으로부터의 위치이다. 기준 객체들 둘 모두는 각각 Δi1 = 0:0087 과 Δi2 = 0:0065 에 대응하는 유한한 폭 0.16cm 와 0.12cm 를 갖는다. 본 명세서에서, Δi 는 전체 이미지 크기에 대한 불확정 범위 또는 측정 에러로 정의된다(예를 들어, 위의 예에서는 18.4cm). 기준 포인트들의 중심은 이미지로부터 결정되기 때문에, 가능한 측정 에러들은 Δi 내에 있을 것이다. 첫 번째 기준 z1 에 대응하는 실제 줌 팩터는 0.8238 이고, 두 번째 기준 z2 에 대응하는 줌 팩터는 0.8119 이다. 초기 추정에서, 0.8 의 초기 거리에 대응하는 줌 팩터가 사용된다. 보상 없이 추정된 좌표는, 모바일 센서의 위치로부터 (4.8017m, 3.03815m) 3.87cm 벗어난, (4.8017m, 3.03815m) 이다. 특정한 줌 설정에서, 카메라에 대한 이러한 실험적인 줌 팩터에 대해, 표 1에 측정되어 도표화되어 있다. 표에서, 행의 엔트리는 모바일 센서로부터 기준 포인트까지의 거리에 대응하고, 열의 엔트리는 시야 축으로부터 기준 포인트까지의 수평 거리에 대응한다.
D. 기준 측정 불확실성의 효과들
이전의 섹션에서 간단하게 논의된 바와 같이, 측정 에러는 피할 수 없는 요소이다. 또한 측정 에러는 방위를 포함한 위치 인식의 정확도에 직접적으로 영향을 미친다.
기준 객체는 종종 이미지 상의 영역으로서 투영되기 때문에, 평행 투영 모델을 적용하기 위해서, 하나의 포인트가 그 영역으로부터 결정되어야 한다. 평행 투영 모델에서, 오직 결정된 포인트의 수평 컴포넌트를 취한다. 기준 객체의 좌표를 그 중심으로서 지시한다면, 카메라 평면상의 그 위치, i 를 투영된 영역의 중심으로서 선택할 수 있다. 그러나 기준 객체의모양이 대칭인 원형이 아니라면, i 를 결정하는데 있어 어느 정도의 에러는 항상 존재한다. 이러한 타입의 에러는 종종 투영된 기준들의 경계를 찾는 이미지 프로세싱에 의해 영향을 받는다. 가시 센서의 제한된 해상도에 기인하는 양자화 에러(quantization error)가 정확도에 영향을 미칠 수도 있으나, 이러한 에러가 에러의 가장 큰 원인은 아니다.
측정 에러의 다른 원인은 기준 객체가 중심 수평 라인에 투영되지 않을 때이다(예를 들어 도 12에 도시된 점선 참고). 이러한 원인은, 렌즈가 투영된 객체를 왜곡시키기 때문이다. 도면에서, 벽(wall)의 에지는 하나의 좌표 값들을 갖는다. 그러나 다중 기준 값들은 벽의 에지에 대해 획득될 수 있다. 예를 들어, hx 에서 측정되는 ix 와 hy에서 측정되는 iy 모두 동일한 좌표를 나타내어야 하나, 투영된 값들은 다르다. ix 와 iy 간의 차이는 위치 인식에서 Δi 로서 기여한다. 따라서 이미지 상에서 중심 수평 라인에 가까운 기준 객체들을 추출하는 것이 항상 더 좋은 방법이다.
i1 과 i2 를 잘못 결정하는 것에 기인하는 방위 에러들이 도 13에 도시되어 있다. 도 13의 (a)와 도 13의 (b)는 측정된 에러들의 2 개의 다른 값들에 대한 결과를 보여준다. 방위 에러의 평균은 5m 격자(grid) 상에 위치하는 기준 포인트들의 가능한 모든 조합들을 이용하여 측정된다. 각각의 기준 포인트는, 작은 양의 추가적인 랜덤 변화를 갖는 격자에서 50cm 간격으로 위치한다. i1 과 i2 의 편차에 기인하여, 측정된 방위는 모바일 센서의 진정한 방위와 다를 수 있다. 도면들은, Δi = 005 일 때보다 Δi = 0:03 일 때, 에러와 표준 편차의 모든 범위가 더 커지는 것을 보여준다. 또한 모바일 센서가 기준 포인트들에 더 가까워질 때이다. 실제 좌표들은 첫 번째 방위 계산에 의해 획득되기 때문에, 방위 에러는 매우 중요한 문제이다.
유사한 결과들이, 도 14에서 변위 에러(displacement error)들에 대해 획득된다. 유사하게, 도 14의 (a)와 도 14의 (b)는 측정 에러들의 2 개의 다른 값들에 대한 결과를 보여준다. 변위 에러는 두 개의 변수들, 즉 모바일 센서로부터 기준 포인트들까지의 최대 거리인 Dmax 와, 모바일 센서의 시야 축으로부터 측정된, 가장 멀리 떨어져 있는 2 개의 기준 포인트들 간의 거리인 ΔP 의 함수로서 작성될 수 있다. 도면에 도시된 바와 같이, 모든 에러 범위는 Δi 가 증가할수록 증가한다.
두 결과 모두, 모바일 센서로부터 기준 포인트들까지의 거리가 더 클 때, 그 리고 기준들이 서로 더 가까이 있을 때, 알고리즘이 에러보다 더 중요한 것을 보여준다. 도 13과 도 14로부터, 카메라 평면을 따라 기준 객체들 간의 거리가 더 커질 때 추정 에러가 더 작아지는 것을 알 수 있다. 본 발명의 반복 알고리즘은, 주어진 세 개의 기준 포인트들, R1, R2, 및 R3 에서의 세 개의 기준 객체들로부터 만들 수 있는 세 개의 쌍들 중 두 쌍의 기준 객체들을 이용하기 때문에, 에러를 최소화하기 위해서, 카메라 평면상에서 최대 거리를 제공하는 두 쌍을 선택할 수 있다. 이러한 선택 기준(criterion)은, 가시적인 셋 이상의 기준 객체들이 존재하고 자기 위치 인식을 위해서 그들 중 셋을 선택할 필요가 있을 때에도, 또한 적용될 수 있다.
4. 분석 및 시뮬레이션
A. 실험 환경 설정
도 15는 제안된 방법의 확인을 위한 실험 환경을 보여주는 도면이다. 모바일 센서는, P1 이 시작 위치일 때, P1, P2, … , P6 에 의해 지시되는 위치에 위치한다. 가시 센서의 방위는 90 도로 들고 있다. 몇몇 기준 위치들, R1, R2, … , R10 은 미리 명시되어 측정된다. 각각의 위치에서, 다음 위치로 이동하기 전에 모바일 센서는 제안된 알고리즘 3을 수행한다. 도면의 오른쪽 측면상의 테이블에, 모바일 센서의 위치와 기준 객체들의 위치가 나열되어 있다.
Figure 112007066242438-pat00033
여기서 두 가지 경우를 추정해 볼 수 있다. 첫 번째 경우는 방위가 알려져 있는 것으로 가정하고, 변위 에러들이 획득된다. 두 번째 경우는, 방위가 먼저 계산되고, 변위 에러들이 방위로부터 획득된다.
B. 방위가 알려진 경우의 자기 위치 인식의 성능
먼저 모바일 가시 센서가 그 방위를 아는 것으로 가정한다. 이 실험에서, 방위는 90 도로 고정된다. 따라서 위치 인식 성능은 오직 기준 포인트들의 선택과 측정 에러들에 의존한다.
도 16의 (a)와 도 16의 (b)는, 모바일 센서의 진정한 위치와, 알고리즘을 이용하여 획득된 그들의 추정된 궤도(trajectory)를, x-방향과 y-방향으로 구분하여 보여준다. 진정한 위치로부터의 편차는 모바일 센서의 추정된 위치에 대한 진정한 위치로부터의 거리 에러이다. 두 개의 추정된 위치들이 표시되며, 줌 팩터 보상의 효과를 보여준다. 보상되지 않은 추정에 대해서는, 줌 팩터들의 평균 값이 표 1에 나타나 있다. 도 16의 (a)에 도시된 바와 같이, x-방향에서의 변위 에러가 무시할 만한 반면, 도 16의 (b)에 도시된 바와 같이, y-방향에서의 변위 에러는, 보상되지 않은 추정은 진정한 위치로부터 0.5m 만큼이나 빗나가게 하는 것을 나타낸다. 이것으로부터, 주밍 팩터는 가시 센서로부터 기준 포인트들까지의 거리에 매우 민감하다는 것을 알 수 있다. 이는, 줌 팩터가 오직 y-방향 또는 모바일 센서로부터 기준 객체들까지의 거리를 따라 비선형 특성을 갖기 때문이다. 그러나 줌 팩터들이 알고리즘 내에서 보상되는 경우, y-방향에서의 거리 에러는 사라진다.
또한 기준 포인트들을 페어링(pairing)하는 효과는 측정 에러들, Δi 를 포함시켜 조사된다. 효과를 나타내기 위해서, 최대 간격 페어링(maximal separation pairing)으로부터의 결과와 최소 간격 페어링(minimal separation pairing)으로부터의 결과를 비교한다. Δi 의 값은 투영된 기준 포인트들인 i 들에 더해지거나 빼져서, 두 개의 기준 포인트들 간의 간격을 더 작게 만드는데, 이에 따라 위치 인식 에러는 최대화된다.
Δi 의 값들은 0.005, 0.01, 0.03 으로 선택된다. 이 값들은 투영된 객체들의 범위로부터 하나의 포인트를 선택해야만 하는 것에 의해 야기되는 주요한 측정 에러들이다.
도 17은 세 개의 다른 측정 에러들에 대한 시뮬레이션 결과를 나타내는 도면이다. 도시된 바와 같이, 최대 간격 페어링을 갖는 평균 변위 에러는, 최소 간격 페어링을 갖는 경우보다 낮다. 이 때, 기준 포인트들은 서로 가깝고 기준 포인트들을 식별하는 능력은 더 작기 때문에, P1 에 대해 추정된 좌표는 다른 좌표들보다 더 큰 것을 알 수 있다. 또한 그 결과들은, 기준 포인트들, ΔP 간의 거리가 더 작 아지게 되는 경우 위치 인식 에러가 더 커지는 도 14에서 도시된 찾아진 것들(findings)에 대응한다.
이전의 조사에서와 유사하게, 방위 에러들의 효과는 도 18에 도시되어 있다. 도면은, 방위 에러에 의해 변위 에러가 어떻게 영향을 받는지를 나타낸다. 이 때 시뮬레이션 결과들은, 방위가 알려져 있는 것으로 여전히 가정한다. 방위 에러는 단순히 알고리즘에 포함된다. 측정 에러 없이, 방위 에러는 변위 에러에 영항을 주지 않는다. 다음 섹션에서, 방위 결정에 측정에러가 포함되는 것에 대해 조사한다.
C. 방위가 알려지지 않은 경우의 자기 위치 인식의 성능
실제로, 모바일 센서는 방위뿐만 아니라 좌표들도 추정한다. 제안된 위치 인식 알고리즘은 기준 포인트들로부터 센서의 방위를 결정할 수 있다. 모바일 센서의 좌표는 추정된 방위로부터 결정되기 때문에, 방위를 추정하는데서 발생하는 에러를 최소화하는 것은 매우 중요한 문제이다.
도 19의 (a)와 도 19의 (b)는 각각 x-방향과 y-방향에서의 변위 에러를 나타낸다. 상술한 바와 같이, x-방향과 y-방향에서의 변위 에러는, 심지어 보상이 없는 경우에도, 무시할 정도이다. 또한 유사한 결과가 y-방향에서도 나타난다. 알려진 방위에 대해 얻어진 이전의 도면들과 두 도면들 간의 차이는, 방위가 결정된 후에 변위 에러가 계산된다는 것이다.
도 20은 모바일 센서의 좌표의 에러에 대한 Δi 의 효과를 보여준다. 이 시뮬레이션에서는, 기준 객체들 선택을 위해서 최대 간격 기준(maximal separation criterion)이 이용되었다. 모바일 센서가 기준 객체들보다 더 먼 경우에서의 도면에 도시된 바와 같이, 좌표 에러는 Δi 에 대해 더 민감하다. 이 실험 설정에서, 모바일 센서는 위치 P3 에서 선택된 기준 포인트들에 가장 가깝다. 도면에서, P3에서, 좌표 에러는 Δi 에 가장 덜 민감하다. 모바일 센서가, 기준 객체들까지의 거리가 가장 먼 지점인 P1 에 있는 경우, 좌표 에러는 Δi 에 매우 민감하다. 특히, 도 20의 (b)에 도시된 바와 같이, P1 에서 y-방향 에러는 y-방향 좌표 에러의 Δi 에 매우 민감한 것을 알 수 있다. 이는 촬영된 이미지가 어떠한 깊이 정보(depth information)도 포함하지 않기 때문이며, I 에 대한 변화는 y-방향으로 모바일 센서의 위치의 넓은 범위로 매핑 될 수 있다. 이미지의 실제 치수를 고려할 때, Δi 값으로서 0.03은 비현실적이다.
마지막으로, 도 21은 Δi 에 의해 야기되는 방위 에러를 보여준다. 도시를 위해 3 개의 Δi 값들이 사용된다. 여기서 거리 에러는 모바일 센서의 실제 위치로부터 추정된 위치까지의 거리로부터 계산된다. 도면에 도시된 바와 같이, 투영된 기준 포인트, Δi 의 불확실성은 좌표와 방위 에러에 동일한 정도로 동시에 영향을 미친다. 도시된 바와 같이, 모바일 센서가 기준 객체들로부터 멀어질수록 에러는 Δi 에 더 민감하다.
5. 결론
본 명세서에서, 내비게이션 응용들에서의 모바일 센서를 위한 평행 투영 모델을 이용하여 새로운 자기 위치 인식 방법이 제안되었다. 알고리즘은 단일 가시 이미지에 대해 투영된 기준들을 이용하여 모바일 센서의 좌표와 방위를 추정한다. 통상적인 렌즈의 비선형성과 왜곡은 렌즈 특성 보정 테이블(lens specific calibration table)을 이용하여 보상된다. 본 발명의 실시예에 따른 방법은, 단순한 반복 알고리즘을 이용하며, 이 알고리즘은 적은 계산임에도 매우 정확하다. 추정 정확도에 영향을 미치는 다양한 측정 에러 원인들도 나타난다. 로봇 내비게이션뿐만 아니라, 정확한 자기 위치 인식이 필요한 위치 인식 응용에 본 발명의 알고리즘이 이용될 수 있음을, 예를 통해 설명하였다.
한편, 상술한 본 발명의 실시예들은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 본 발명의 실시예에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다.
상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등) 및 캐리어 웨이브(예를 들면, 인터넷을 통한 전송)와 같은 저장매체를 포함한다.
이상에서와 같이 도면과 명세서에서 최적 실시예가 개시되었다. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사 용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 좌표가 모바일 센서에 미리 알려진 다중 기준 객체들을 갖는 모바일 센서의 자기 위치 인식의 문제점을 설명하기 위한 도면이다.
도 2는 카메라에서, 가시 센서 상에 투영된 실제 이미지와의 관계와 평행 투영 모델을 설명하기 위한 도면이다.
도 3은 가상 가시 평면상에서 주밍 효과들을 설명하기 위한 도면이다.
도 4는, 다른 객체 평면상의, 즉 다른 거리에서, 두 객체들 P1 과 P2 가 실제 이미지 평면상에서 하나의 포인트로 보이는 경우를 나타내는 도면이다.
도 5는 두 개의 기준 포인트들을 갖는 자기 위치 인식을 설명하기 위한 도면이다.
도 6은 방위 에러의 함수로서의 거리 에러 함수를 설명하기 위한 도면이다.
도 7은 반복 알고리즘의 수렴 단계들을 설명하기 위한 도면이다.
도 8은 반복의 횟수의 함수로서의 반복 알고리즘의 수렴을 설명하기 위한 도면이다.
도 9는 방위 에러의 함수로서의 변위 에러를 설명하기 위한 도면이다.
도 10은 렌즈 왜곡에 의해 야기되는 실제 주밍 모델을 설명하기 위한 도면이다.
도 11은 카메라로부터의 거리의 함수 상에 주밍 왜곡과 다양한 실제 주밍 팩 터들이 이용되는 것을 설명하기 위한 도면이다.
도 12는 추정 에러에 미치는 렌즈의 비선형 효과를 설명하기 위해 사용된 이미지이다.
도 13은 투영된 측정 에러의 함수로서의 방위 에러를 설명하기 위한 도면이다.
도 14는 투영된 측정 에러의 함수로서의 변위 에러를 설명하기 위한 도면이다.
도 15는 본 발명의 실시예에 따른 자기 위치 인식 방법을 실험하기 위한 환경을 설명하기 위한 도면이다.
도 16은 방위가 알려진 경우 각각의 모바일 센서 위치에서의 변위 에러를 설명하기 위한 도면으로, 보상된 좌표들과 보상되지 않은 좌표들 모두가 실제 좌표들과 비교된다.
도 17은 다른 측정 에러들에 대한 변위 에러를 설명하기 위한 도면이다.
도 18은 다른 방위 에러들에 대한 변위 에러를 설명하기 위한 도면이다.
도 19는 방위가 알려지지 않은 경우 각각의 모바일 센서 위치에서의 변위 에러를 설명하기 위한 도면이다.
도 20은 방위가 알려지지 않은 경우 다른 측정 에러들에 대한 변위 에러를 설명하기 위한 도면이다.
도 21은 측정 에러들의 함수로서의 변위 에러와 대응하는 방위 에러를 설명하기 위한 도면이다.

Claims (5)

  1. 적어도 두 개의 기준 객체들의 영상을 획득하여, 영상획득기기의 자기 위치를 인식하는 방법에 있어서,
    이미지 평면, 적어도 두 개의 기준 객체 평면들, 및 상기 이미지 평면과 상기 기준 객체 평면들 사이에 위치하는 적어도 두 개의 가상 가시 평면들을 설정하는 단계;
    상기 기준 객체들을 대응하는 상기 가상 가시 평면으로 투영하는 단계;
    상기 영상획득기기의 시야 축과 상기 기준 객체들 간의 거리와, 상기 시야 축과 상기 기준객체들에 대응하는 상기 이미지 평면상의 이미지들 간의 거리를 계산하는 단계;
    상기 영상 획득 기기의 방위와 줌 팩터, 및 상기 기준 객체들의 좌표를 이용하여, 상기 자기 위치를 인식하는 단계를 포함하며,
    상기 줌 팩터는 상기 기준 객체 평면의 길이와, 상기 기준 객체 평면과 가상 가시 평면 간의 거리의 비이고, 상기 이미지 평면, 상기 가상 가시 평면, 및 상기 기준 객체 평면은 상기 시야 축에 수직인 것을 특징으로 하는 자기 위치 인식 방법.
  2. 제 1 항에 있어서,
    보정 테이블을 이용하여, 상기 자기위치를 보상하는 단계를 더 포함하며,
    상기 위치를 보상하는 단계는,
    무한 거리에 대응하는 줌 팩터를 이용하여 상기 위치와 상기 방위를 추정하는 단계;
    상기 추정된 위치와 방위에 따라 상기 기준 객체 평면들과, 대응하는 가상 가시 평면과의 거리를 계산하는 단계; 및
    상기 보정 테이블로부터 선택되는 거리를 이용한 줌 팩터들을 이용하여 상기 위치와 상기 방위를 재계산하는 단계를 포함하는 것을 특징으로 하는 자기 위치 인식 방법.
  3. 삭제
  4. 삭제
  5. 삭제
KR1020070092775A 2007-09-12 2007-09-12 평행 투영 모델을 이용한 자기위치 인식 방법 KR100884904B1 (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020070092775A KR100884904B1 (ko) 2007-09-12 2007-09-12 평행 투영 모델을 이용한 자기위치 인식 방법
PCT/KR2007/005274 WO2009035183A1 (en) 2007-09-12 2007-10-25 Method for self localization using parallel projection model
US12/675,344 US8432442B2 (en) 2007-09-12 2007-10-25 Method for self localization using parallel projection model
JP2010524765A JP4996745B2 (ja) 2007-09-12 2007-10-25 平行投影モデルを利用した自己位置認識方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070092775A KR100884904B1 (ko) 2007-09-12 2007-09-12 평행 투영 모델을 이용한 자기위치 인식 방법

Publications (1)

Publication Number Publication Date
KR100884904B1 true KR100884904B1 (ko) 2009-02-19

Family

ID=40452168

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070092775A KR100884904B1 (ko) 2007-09-12 2007-09-12 평행 투영 모델을 이용한 자기위치 인식 방법

Country Status (4)

Country Link
US (1) US8432442B2 (ko)
JP (1) JP4996745B2 (ko)
KR (1) KR100884904B1 (ko)
WO (1) WO2009035183A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100927096B1 (ko) 2008-02-27 2009-11-13 아주대학교산학협력단 기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정방법
WO2020159076A1 (ko) * 2019-01-28 2020-08-06 에스케이텔레콤 주식회사 랜드마크 위치 추정 장치와 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독 가능한 기록매체

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2931277B1 (fr) * 2008-05-19 2010-12-31 Ecole Polytech Procede et dispositif de reconnaissance invariante-affine de formes
JP5294995B2 (ja) * 2009-06-03 2013-09-18 パナソニック株式会社 距離計測装置及び距離計測方法
AU2010290950B2 (en) * 2009-09-07 2015-02-05 Bae Systems Plc Path determination
JP5223062B2 (ja) * 2010-03-11 2013-06-26 株式会社ジオ技術研究所 3次元地図描画システム
US8768071B2 (en) 2011-08-02 2014-07-01 Toyota Motor Engineering & Manufacturing North America, Inc. Object category recognition methods and robots utilizing the same
TW201344510A (zh) * 2012-04-25 2013-11-01 Hon Hai Prec Ind Co Ltd 鐳射標注系統及標注方法
US9043181B2 (en) * 2012-06-05 2015-05-26 Freescale Semiconductor, Inc. Method for determining coordinates
US20140292998A1 (en) * 2013-04-02 2014-10-02 James Toga Managing Use of Resources in Mobile Devices
CN111724483B (zh) * 2020-04-16 2024-07-19 北京诺亦腾科技有限公司 一种图像移植方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060064908A (ko) * 2004-12-09 2006-06-14 한국전자통신연구원 Rfid 를 이용한 이동로봇 위치 인식 및 주행방법과,이를 적용한 이동로봇 시스템
KR100647285B1 (ko) 2003-08-20 2006-11-23 삼성전자주식회사 인공마크를 이용한 지능형 시스템의 자기위치인식장치 및방법과 이를 이용한 지능형 시스템
KR20070036357A (ko) * 2005-09-29 2007-04-03 전자부품연구원 단일 카메라 기반 포즈인식이 가능한 이동로봇 및 그 방법
KR20070054557A (ko) * 2005-11-23 2007-05-29 삼성전자주식회사 이동 로봇의 자기 위치 인식 방법 및 장치

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4672175B2 (ja) * 2000-05-26 2011-04-20 本田技研工業株式会社 位置検出装置、位置検出方法、及び位置検出プログラム
JP2002131016A (ja) * 2000-10-27 2002-05-09 Honda Motor Co Ltd 距離測定装置、及び距離測定方法
JP4268404B2 (ja) * 2002-12-13 2009-05-27 株式会社フジタ 移動体の自己位置計測方法
US7850912B2 (en) * 2003-05-14 2010-12-14 Dako Denmark A/S Method and apparatus for automated pre-treatment and processing of biological samples
JP3879848B2 (ja) * 2003-03-14 2007-02-14 松下電工株式会社 自律移動装置
JP4264380B2 (ja) * 2004-04-28 2009-05-13 三菱重工業株式会社 自己位置同定方法及び該装置
JP4262196B2 (ja) * 2004-12-14 2009-05-13 本田技研工業株式会社 自律移動ロボット
US7677816B2 (en) * 2004-12-21 2010-03-16 Panasonic Corporation Camera terminal and imaged area adjusting device
JP2006220521A (ja) * 2005-02-10 2006-08-24 Hitachi Ltd 自己位置計測装置及び自己位置計測方法を実行するためのプログラム
US8073564B2 (en) * 2006-07-05 2011-12-06 Battelle Energy Alliance, Llc Multi-robot control interface

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100647285B1 (ko) 2003-08-20 2006-11-23 삼성전자주식회사 인공마크를 이용한 지능형 시스템의 자기위치인식장치 및방법과 이를 이용한 지능형 시스템
KR20060064908A (ko) * 2004-12-09 2006-06-14 한국전자통신연구원 Rfid 를 이용한 이동로봇 위치 인식 및 주행방법과,이를 적용한 이동로봇 시스템
KR20070036357A (ko) * 2005-09-29 2007-04-03 전자부품연구원 단일 카메라 기반 포즈인식이 가능한 이동로봇 및 그 방법
KR20070054557A (ko) * 2005-11-23 2007-05-29 삼성전자주식회사 이동 로봇의 자기 위치 인식 방법 및 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100927096B1 (ko) 2008-02-27 2009-11-13 아주대학교산학협력단 기준 좌표상의 시각적 이미지를 이용한 객체 위치 측정방법
WO2020159076A1 (ko) * 2019-01-28 2020-08-06 에스케이텔레콤 주식회사 랜드마크 위치 추정 장치와 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨터 프로그램을 저장하는 컴퓨터 판독 가능한 기록매체
US11703344B2 (en) 2019-01-28 2023-07-18 Sk Telecom Co., Ltd. Landmark location estimation apparatus and method, and computer-readable recording medium storing computer program programmed to perform method

Also Published As

Publication number Publication date
WO2009035183A1 (en) 2009-03-19
US20100245564A1 (en) 2010-09-30
JP2010539581A (ja) 2010-12-16
US8432442B2 (en) 2013-04-30
JP4996745B2 (ja) 2012-08-08

Similar Documents

Publication Publication Date Title
KR100884904B1 (ko) 평행 투영 모델을 이용한 자기위치 인식 방법
US11830216B2 (en) Information processing apparatus, information processing method, and storage medium
Kümmerle et al. Large scale graph-based SLAM using aerial images as prior information
US9177384B2 (en) Sequential rolling bundle adjustment
Michot et al. Bi-objective bundle adjustment with application to multi-sensor slam
CN112184824A (zh) 一种相机外参标定方法、装置
Ding et al. A robust detection method of control points for calibration and measurement with defocused images
Dani et al. Image moments for higher-level feature based navigation
Lin et al. A sparse visual odometry technique based on pose adjustment with keyframe matching
Martins et al. Monocular camera calibration for autonomous driving—a comparative study
JP2014216813A (ja) カメラ姿勢推定装置及びそのプログラム
KR20230003803A (ko) 라이다 좌표계와 카메라 좌표계의 벡터 정합을 통한 자동 캘리브레이션 방법
Gaspar et al. New depth from focus filters in active monocular vision systems for indoor 3-D tracking
Thomas et al. A monocular SLAM method for satellite proximity operations
Bunschoten et al. 3D scene reconstruction from cylindrical panoramic images
CN114323038B (zh) 融合双目视觉和2d激光雷达的室外定位方法
Ruotsalainen et al. Overview of methods for visual-aided pedestrian navigation
Ölmez et al. Metric scale and angle estimation in monocular visual odometry with multiple distance sensors
Pagel Robust monocular egomotion estimation based on an iekf
Zhang et al. Registration uncertainty for robot self-localization in 3D
Alenya et al. Depth from the visual motion of a planar target induced by zooming
Das et al. Sensor fusion in autonomous vehicle using LiDAR and camera sensor with Odometry
Geng et al. Egomotion estimation and reconstruction with Kalman filters and GPS integration
Fursov et al. Visual Odometry of a UAV with Episodic Correction of Coordinates
Cho et al. Self Localization Method Using Parallel Projection Model for Mobile Sensor in Navigation Applications

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130111

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140103

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20141226

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20151224

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170102

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20190107

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20200102

Year of fee payment: 12