KR101081859B1 - 동적 환경에서의 위치 추정 방법 및 그 장치 - Google Patents

동적 환경에서의 위치 추정 방법 및 그 장치 Download PDF

Info

Publication number
KR101081859B1
KR101081859B1 KR1020080039506A KR20080039506A KR101081859B1 KR 101081859 B1 KR101081859 B1 KR 101081859B1 KR 1020080039506 A KR1020080039506 A KR 1020080039506A KR 20080039506 A KR20080039506 A KR 20080039506A KR 101081859 B1 KR101081859 B1 KR 101081859B1
Authority
KR
South Korea
Prior art keywords
dynamic environment
image
time
sensor model
robot
Prior art date
Application number
KR1020080039506A
Other languages
English (en)
Other versions
KR20090113663A (ko
Inventor
서일홍
박영빈
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020080039506A priority Critical patent/KR101081859B1/ko
Publication of KR20090113663A publication Critical patent/KR20090113663A/ko
Application granted granted Critical
Publication of KR101081859B1 publication Critical patent/KR101081859B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/02Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves
    • G01S5/0278Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using radio waves involving statistical or probabilistic considerations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/02Systems for determining distance or velocity not using reflection or reradiation using radio waves
    • G01S11/026Systems for determining distance or velocity not using reflection or reradiation using radio waves using moving transmitters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/003Maps

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

본 발명은 동적 환경에서의 위치 추정 방법 및 그 장치에 관한 것이다. 본 발명에 따른 동적 환경에서의 위치 추정 방법은 동적인 환경 변수를 고려하여 센서 모델을 생성하는 단계; 및 상기 생성한 센서 모델에 따라 확률에 기반하여 현재의 위치를 추정하는 단계를 포함한다. 여기서, 상기 센서 모델에서 관측값을 나타내는 확률밀도함수는 다음과 같이 정의된다:
Figure 112008030560512-pat00001
(여기서, t는 시간, zt는 t 시간에서의 관측값, st는 t 시간에서의 로봇의 위치를 나타내는 변수, dt는 t 시간에서의 동적 환경을 나타내는 변수임)
이에 따라, 동적인 환경을 고려하여 센서 모델링을 함으로써, 변화된 환경에서도 보다 정확하게 위치 추정을 할 수 있다.
동적 환경, 위치 추정, 로봇

Description

동적 환경에서의 위치 추정 방법 및 그 장치{LOCALIZATION METHOD IN A DINAMIC ENVIRONMENT AND APPARATUS THEREFOR}
본 발명은 동적 환경에서의 위치 추정 방법 및 그 장치에 관한 것이다.
현재 로봇기술은 가정용 청소 로봇, 교육용 로봇, 엔터테인먼트 로봇, 공공 서비스 로봇과 같이 다양한 분야에서 실제 사용 및 적용되고 있으며, 앞으로 통신, 서비스 등 광범위한 분야에서 그 수요가 폭발적으로 증가할 것으로 예상된다.
특히, 로봇의 위치 추정 분야는 로봇의 이동성을 극대화하기 위한 선결 기술로서 큰 의의를 갖는다. 로봇은 자기 위치를 추정함으로써 지도 구축, 경로 설정, 장애물 회피 등의 기능 수행을 용이하게 할 수 있다. 따라서, 이러한 로봇의 이동성 및 동작의 성능을 향상시키기 위해서는 자기 위치를 정확히 인식하는 것이 매우 중요하다고 볼 수 있다.
그러나, 대부분의 로봇 위치 추정에 관한 종래의 기술들은 동적인 사람의 움직임이나 조명의 변화가 없는 정적인 환경을 고려하여 개발되는 것이 일반적이다. 따라서, 맵을 만들었던 시점으로부터 환경이 다소 변경되었거나 다수의 사람이 로봇의 주변을 움직이는 경우, 로봇의 위치 추정의 정확성이 현저히 낮아지는 문제점이 발생한다.
최근에는 인공 지능 로봇 분야에서, 이러한 동적으로 변화하는 환경에 적응하는 환경 적응 로봇이 큰 이슈가 되고 있다. 이러한 환경 적응 로봇 분야는 동적으로 변화하고 인간 또는 다른 로봇과 공존하는 환경에서 로봇이 인지 또는 행동 선택을 적절히 할 수 있도록 하는 것을 목표로 한다.
그러나, 로봇의 위치 추정 분야에서는 동적인 환경 변화에 적응적인 로봇의 위치 추정을 위한 연구는 아직까지 활발히 진행되고 있지 않은 실정에 있다. 다만, 레이저 등의 거리 센서를 이용하여 지도를 작성할 때 동적인 사람의 움직임을 지도로부터 제거하는 방법이나, 토폴로지 지도를 만들 경우 사람의 움직임에 영향을 받지 않도록 하는 기술 등이 제안되고 있을 뿐이다.
따라서, 본 발명의 목적은 동적인 환경을 고려하여 센서 모델링을 함으로써, 동적 환경에서도 보다 정확하게 위치 추정을 할 수 있는 동적 환경에서의 위치 추정 방법 및 그 장치를 제공하는 것이다. 또한, 이미지로부터 다수의 특징량을 추출하고 이를 정합함으로써, 신뢰성을 더 높일 수 있는 동적 환경에서의 위치 추정 방법 및 그 장치를 제공하는 것이다. 더 나아가, 로봇의 능동적인 동작을 통해 시퀀 셜한 이미지를 입력받아 맵과 매칭함으로써 더욱 정확한 위치 추정을 할 수 있는 동적 환경에서의 위치 추정 방법 및 그 장치를 제공하는 것이다.
상기 목적은 본 발명에 따라, 동적 환경에서의 위치 추정 방법 있어서, 동적인 환경 변수를 고려하여 센서 모델을 생성하는 단계; 및 상기 생성한 센서 모델에 따라 확률에 기반하여 현재의 위치를 추정하는 단계를 포함하며, 상기 센서 모델에서 관측값을 나타내는 확률밀도함수는 다음과 같이 정의되는 것을 특징으로 하는 동적 환경에서의 위치 추정 방법:
Figure 112008030560512-pat00002
(여기서, t는 시간, zt는 t 시간에서의 관측값, st는 t 시간에서의 로봇의 위치를 나타내는 변수, dt는 t 시간에서의 동적 환경을 나타내는 변수임)
여기서, 상기 동적인 환경 변수는 사람이 영상에서 차지하는 비율, 영상 밝기의 차이 중 적어도 하나를 포함할 수 있다.
또한, 임의의 노드를 중심으로 하여 일정 각도로 회전하여 얻은 영상들로부터 맵을 형성하는 단계를 더 포함하고; 상기 현재의 위치를 추정하는 단계는 상기 맵의 영상과 현재 입력되는 영상으로부터 다수의 특징량을 추출하고, 상기 다수의 특징량을 정합하여 현재의 위치를 추정할 수 있다.
그리고, 상기 센서 모델에서 상기 관측값은 다음과 같이 정의되며:
Figure 112008030560512-pat00003
,
상기 관측값을 나타내는 상기 확률밀도함수는 다음과 같이 정의되는 것을 특징으로 하는 동적 환경에서의 위치 추정 방법:
Figure 112008030560512-pat00004
Figure 112008030560512-pat00005
(여기서, zi j는 i번째 노드에서 j번째 회전을 했을 때의 영상으로부터 만든 기준 모델과 현재 영상으로부터 추출된 비전 기반 특징량과의 정합 결과를 의미하며, vi j는 i번째 노드에서 j번째 회전한 영상을 나타냄)
여기서, 상기 맵을 형성하는 단계는, 상기 회전하여 얻은 영상들로부터 비젼 기반 특징량을 추출하여 전이 그래프를 생성하고, 상기 전이 그래프는 아래의 확률식으로 표현되는 것을 특징으로 하는 동적 환경에서의 위치 추정 방법:
Figure 112008030560512-pat00006
(여기서, ut는 로봇의 동작을 나타냄)
또한, 상기 현재의 위치를 추정하는 단계는 다음과 같은 식을 사용하여 이루어지는 것을 특징으로 하는 동적 환경에서의 위치 추정 방법:
Figure 112008030560512-pat00007
한편, 상기 목적은 본 발명에 따라, 위치 추정 장치에 있어서, 동적인 환경 변수를 고려하여 생성된 센서 모델; 및 상기 생성한 센서 모델에 따라 확률에 기반하여 현재의 위치를 추정하는 위치추정부를 포함하며, 상기 센서 모델에서 관측값을 나타내는 확률밀도함수는 다음과 같이 정의되는 것을 특징으로 하는 위치 추정 장치에 의해 달성될 수 있다:
Figure 112008030560512-pat00008
(여기서, t는 시간, zt는 t 시간에서의 관측값, st는 t 시간에서의 로봇의 위치를 나타내는 변수, dt는 t 시간에서의 동적 환경을 나타내는 변수임)
여기서, 임의의 노드를 중심으로 하여 일정 각도로 회전하여 얻은 영상들로부터 상기 센서모델에 기초하여 맵을 형성하는 맵 생성부를 더 포함하고; 상기 센서 모델에서 상기 관측값은 다음과 같이 정의되며:
Figure 112008030560512-pat00009
,
상기 관측값을 나타내는 상기 확률밀도함수는 다음과 같이 정의되는 것을 특징으로 하는 위치 추정 장치:
Figure 112008030560512-pat00010
Figure 112008030560512-pat00011
(여기서, zi j는 i번째 노드에서 j번째 회전을 했을 때의 영상으로부터 만든 기준 모델과 현재 영상으로부터 추출된 비전 기반 특징량과의 정합 결과를 의미하며, vi j는 i번째 노드에서 j번째 회전한 영상을 나타냄)
또한, 상기 맵 생성부는 상기 회전하여 얻은 영상들로부터 비젼 기반 특징량을 추출하여 전이 그래프를 생성하고, 상기 전이 그래프는 아래의 확률식으로 표현되며:
Figure 112008030560512-pat00012
(여기서, ut는 로봇의 동작을 나타냄),
상기 위치 추정부는 다음과 같은 식을 사용하여 위치 추정을 수행하는 것을 특징으로 하는 위치 추정 장치:
Figure 112008030560512-pat00013
이상 설명한 바와 같이, 본 발명에 따르면, 동적인 환경을 고려하여 센서 모델링을 함으로써, 동적인 환경에서도 보다 정확하게 위치 추정을 할 수 있는 동적 환경에서의 위치 추정 방법 및 그 장치가 제공된다. 또한, 이미지로부터 다수의 특징량을 추출하고 이를 정합함으로써, 신뢰성을 더 높일 수 있는 동적 환경에서의 위치 추정 방법 및 그 장치가 제공된다. 더 나아가, 로봇의 능동적인 동작을 통해 시퀀셜한 이미지를 입력받아 맵과 매칭함으로써 더욱 정확한 위치 추정을 할 수 있는 동적 환경에서의 위치 추정 방법 및 그 장치가 제공된다.
이하, 도면을 참조하여 본 발명의 구체적인 실시예들에 대해 설명하기로 한다.
본 발명에 따른 위치 추정은 절대 좌표를 기준으로 한 정확한 x,y,정확한 x,y,θ를 구하는 것이 아니라 로봇이 위치하고 있는 노드와 그 노드에서의 바라보고 있는 장면을 추정하는 것이다.
각 노드는 그 노드에서 일정 간격으로 회전하며 취득한 영상들로 이루어진다.
도 1은 노드 1에서 일정 간격으로 회전하며 취득한 뷰들의 연결 관계를 개략적으로 도시한 것이며, 도 2a 내지 도 2d는 일부 뷰들을 도시한 것이다. 도 1에 도 시된 바와 같이, 하나의 노드는 그 노드를 중심으로 일정한 각도로 회전할 때 취득될 수 있는 뷰들로 이루어진다. 오른쪽으로 회전함에 따라 얻을 수 있는 뷰들이 도 2a 내지 도 2d에 도시되어 있다. 로봇이 보고 있는 각 뷰들은 고유하며, 따라서 뷰를 찾게 되면 로봇의 위치를 찾게 되는 것이다.
이때, 노드 ni 는 다음과 같이 정의된다.
<정의 1>
Figure 112008030560512-pat00014
노드에서 바라본 뷰 vi j(즉, 노드에서 일정 간격으로 회전하며 취득한 영상)는 다음과 같이 정의된다.
<정의 2>
Figure 112008030560512-pat00015
i는 i번째 노드를 나타내고, j는 i번째 노드에서의 j번째 회전을 의미한다. 즉, vi j는 i번째 노드에서 j번째 회전했을 때의 뷰를 나타낸다. 예를 들어, v2 3 은 2번째 노드에서의 3번째 뷰를 의미한다.
본 발명은 동적인 환경 변수를 고려하여 센서 모델링을 수행한다. 관측값 z 를 나타내는 확률밀도함수는 아래의 확률식으로 나타낼 수 있다.
<식 1>
Figure 112008030560512-pat00016
<식 1>에서 알 수 있는 바와 같이, 위 확률밀도함수는 t시간의 로봇의 위치변수인 st뿐만 아니라 동적 환경변수인 dt의 영향을 받게 된다. 여기서, 동적 환경변수인 dt는 사람이 전체 영상에서 차지하고 있는 비율 또는 맵을 생성했을 시점의 영상의 평균 밝기와 로봇의 위치 추정 시점의 평균 밝기의 차이 등을 나타내는 변수일 수 있으며, 아래와 같이 표현될 수 있다.
Figure 112008030560512-pat00017
이렇게 동적인 환경 변수가 고려된 확률밀도함수 P(zt│st,dt)에서 관측값(measurement)은 다음과 같이 나타낼 수 있다.
<정의 3>
Figure 112008030560512-pat00018
여기서, zi j는 i번째 노드에서 j번째 회전했을 때의 영상으로부터 만든 기준 모델(reference model)과 현재 영상으로부터 추출된 비전 기반 특징량과의 정합 결과이다. 본 발명에서 z는 SIFT(Scale Invariant Feature Transform)와 HTD(Homeogenous Texture Descriptor) 두 가지를 사용한다.
SIFT는 다음과 같이 정의된다.
<정의 4>
Figure 112008030560512-pat00019
Figure 112008030560512-pat00020
HTD는 다음과 같이 정의된다.
<정의 5>
Figure 112008030560512-pat00021
Figure 112008030560512-pat00022
도 3a 및 도 3b는 동적 환경 변수가 고려되지 않은 종래의 SIFT 및 HTD Likihood 그래프이고, 도 4a 및 도 4b는 동적 환경 변수가 고려된 본 발명의 SIFT 및 HTD Likihood 그래프를 나타낸다.
도 3a와 도 3b에 해당하는 그래프의 함수 식은 각각 다음과 같다.
<식 2>
Figure 112008030560512-pat00023
<식 3>
Figure 112008030560512-pat00024
도 4a와 도 4b에 해당하는 그래프의 함수 식은 각각 다음과 같다.
<식 4>
Figure 112008030560512-pat00025
<식 5>
Figure 112008030560512-pat00026
도 3a 내지 4b 및 식 2 내지 5을 보아 알 수 있듯이, 종래에는 모델을 생성한 공간과 같은 공간에서 비전 기반 특징 간의 정합을 시도해도 일반적인 기준 임계치에 미치지 못하여 정합에 실패하는 경우가 발생할 수 있다. 그러나, 본 발명은 동적 환경을 고려하여 센서 모델링을 구축함으로써, 불확실성을 포함하는 모델을 생성하여 임계치에 미치지 못하는 정합 결과들을 로봇 위치 추정에 이용할 수 있다.
본 발명은 위 두 가지 특징량의 정합하여 사용한다. 예를 들어, 아래와 같은 수식을 통해 융합된다.
<식 6>
Figure 112008030560512-pat00027
Figure 112008030560512-pat00028
여기서, f는 각 비전 기반 특징량을 나타낸다.
<식 6>에서 알 수 있는 바와 같이, 본 발명은 비전 기반 특징량을 복수 개 산출하고 이를 융합하게 된다. 전술한 바와 같이, 동적인 환경 변수가 고려된 모델이기 때문에 동적 환경 변수로 인해 개별 비전 기반 특징들은 불확실성을 포함하게 된다. 따라서, 위와 같이 다수 특징의 정합 결과를 융합함으로써, 그 불확실성을 제거하게 된다. 이렇듯 본 발명은 다중 비전 기반 특징을 혼합하여 그 위치 추정의 신뢰성을 높일 수 있다.
한편, 본 발명은 로봇의 동작에 기반한 위치 추정을 제안한다.
도 5를 참조하면, 하나의 노드에 포함된 뷰간에 연결 관계는 특정 로봇 동작과 연결된 전이(transition) 그래프 형태로 나타내어진다. 로봇 동작에 기반한 전이 그래프는 임의의 노드를 중심으로 일정한 간격을 회전하며 얻은 영상으로부터 비전 기반 특징량을 추출하여 만들어진다.
도 5에서 Δv는 모델을 만들 때, 회전한 각도를 의미하며, K = 360/Δv - 1 을 나타낸다.
로봇 동작에 기반한 전이 그래프는 아래의 확률식으로 나타낼 수 있다.
<식 7>
Figure 112008030560512-pat00029
여기서, ut는 로봇의 동작을 나타낸다. 본 발명에서는 로봇의 회전동작을 의미한다.
위와 같은 본 발명의 동작 전이 모델에 대한 알고리즘의 일 예는 다음과 같다.
Figure 112008030560512-pat00030
Figure 112008030560512-pat00031
이와 같이, 본 발명은 능동적으로 위치 추정을 하기 위해, 로봇의 동작에 따른 전이 그래프를 이용함으로써 이전 위치에서 취한 로봇의 동작에 따라 현재 로봇이 어떤 위치에 있을지를 높은 확률로 추정할 수 있다.
또한, 전술한 바와 같이, 관측 정보들은 동적인 환경 변화로 인해 많은 불확실성을 포함하고 있으므로, 하나의 장면만으로 로봇 위치를 추정하는 것이 아니라, 로봇이 능동적으로 움직이면서 연속적인 여러 장면을 입력받아, 미리 제작한 로봇 전이 그래프와 비교함으로써 신뢰성을 높일 수 있다.
전술한 본 발명의 위치 추정 방법은 아래식과 같이 재귀적 베이지안 확률식의 수정된 형태로 표현할 수 있다.
<식 8>
Figure 112008030560512-pat00032
<식 8>에서 알 수 있듯이, 본 발명에 따른 위치 추정 방법은 동적인 환경 변화를 나타내는 dt와, 로봇의 능동적인 동작을 나타내는 ut변수를 고려한 수정된 재귀적 베이지안 확률식을 사용한다. 즉, 동적 환경 변화가 고려되고, 전이 그래프를 이용하여 하나의 장면이 아닌 로봇의 동작에 따라 연결된 장면으로 정확한 로봇의 위치를 추정할 수 있다.
또한, <식 8>을 다시 구체적으로 풀어쓰면 다음과 같은 식이 되며,
Figure 112008030560512-pat00033
빨간 박스로 표시된 부분은 <식 6>를 사용하게 된다.
이와 같이, <식 8>에서 <식 6>의 다중의 비전기반 특징량 정보를 융합하여 사용함으로써, 맵을 생성하던 시점의 환경과 로봇이 위치 추정을 하는 시점의 환경이 큰 변화가 있더라도 로봇이 신뢰할 수 있는 위치 추정을 수행할 수 있게 된다.
다음 식은 입력된 뷰로부터 현재 로봇의 위치를 결정하는 식이다.
<식 9>
Figure 112008030560512-pat00034
두 뷰들의 확률값의 차이가 일정 기준값(T)보다 크면 가장 큰 확률 값을 가진 뷰를 현재의 뷰 즉, 로봇의 위치로 결정한다.
도 6은 전술한 본 발명에 내용에 따라 동적 환경 변화에 기반하여 위치를 추정하는 위치 추정 장치를 개략적으로 도시한 것이다.
본 발명의 일 실시예에 따른 위치 추정 장치는 센서 모델(10), 맵 생성부(20), 및 위치 추정부(30)를 포함한다. 센서 모델, 전이 그래프 및 위치 추정에 대한 구체적인 내용은 앞에서 설명하였으므로, 구체적인 설명은 생략하기로 한다.
전술한 바와 같이, 본 발명에 따른 센서 모델(10)은 동적 환경 변수를 고려하여 만들어진다. 여기서, 센서 모델(10)은 일종의 동적 환경 변수를 고려한 센서 데이터 값들의 집합이라고 볼 수 있다.
맵 생성부(20)는 센서 모델에 기초하여 임의의 노드를 중심으로 하여 일정한 각도로 회전한 뷰들 간에 연결 관계를 로봇 동작과 연결된 전이(transition) 그래 프 형태로 나타낸다.
위치 추정부(30)는 센서 모델에 기초하여 현재 입력되는 영상과 맵 생성부에서 생성한 맵 즉, 전이 그래프와 매칭을 함으로써, 현재의 위치 즉, 어느 노드에서의 몇번째 뷰인지를 결정하게 된다.
전술한 바와 같이, 본 발명은 동적인 환경 변수를 고려하여 센서 모델링을 함으로써 적응적으로 위치 추정을 할 수 있으며, 또한 하나의 장면만을 비교하는 것이 아니라, 능동적으로 로봇이 움직이면서 시퀀셜한 이미지를 맵과 비교함으로써 위치 추정의 신뢰성을 더욱 높일 수 있다.
비록 본 발명의 몇몇 실시예들이 도시되고 설명되었지만, 본 발명이 속하는 기술분야의 통상의 지식을 가진 당업자라면 본 발명의 원칙이나 정신에서 벗어나지 않으면서 본 실시예를 변형할 수 있음을 알 수 있을 것이다. 발명의 범위는 첨부된 청구항과 그 균등물에 의해 정해질 것이다.
도 1은 노드 1에서 일정 간격으로 회전하며 취득한 뷰들의 연결 관계를 개략적으로 도시한 것이고,
도 2a 내지 도 2d는 도 1의 각각의 뷰들의 일부를 도시한 것이다
도 3a 및 도 3b는 동적 환경 변수가 고려되지 않은 종래의 SIFT 및 HTD Liklihood 그래프이고,
도 4a 및 도 4b는 동적 환경 변수가 고려된 본 발명의 SIFT 및 HTD Liklihood 그래프를 나타낸다.
도 5는 하나의 노드에 포함된 뷰들 간에 연결 관계를 도시한 특정 로봇 동작과 연결된 전이(transition) 그래프이다.
도 6은 본 발명의 일 실시예에 따른 위치 추정 장치의 개략적인 제어블록도이다.

Claims (9)

  1. 동적 환경에서의 위치 추정 방법 있어서,
    동적인 환경 변수를 고려하여 센서 모델을 생성하는 단계;
    임의의 노드를 중심으로 하여 일정 각도로 회전하여 얻은 영상들로부터 맵을 형성하는 단계; 및
    상기 생성한 센서 모델에 따라 확률에 기반하여 현재의 위치를 추정하는 단계로서, 상기 맵의 영상과 현재 입력되는 영상으로부터 다수의 특징량을 추출하고, 상기 다수의 특징량을 정합하여 현재의 위치를 추정하는 단계를 포함하며,
    상기 센서 모델에서 관측값을 나타내는 확률밀도함수는 다음과 같이 정의되는 것을 특징으로 하는 동적 환경에서의 위치 추정 방법:
    Figure 112011025072642-pat00058
    (여기서, t는 시간, zt는 t 시간에서의 관측값, st는 t 시간에서의 로봇의 위치를 나타내는 변수, dt는 t 시간에서의 동적 환경을 나타내는 변수임)
  2. 동적 환경에서의 위치 추정 방법 있어서,
    동적인 환경 변수를 고려하여 센서 모델을 생성하는 단계; 및
    상기 생성한 센서 모델에 따라 확률에 기반하여 현재의 위치를 추정하는 단계를 포함하며,
    동적인 환경 변수는 사람이 영상에서 차지하는 비율, 영상 밝기의 차이 중 적어도 하나를 포함하고;
    상기 센서 모델에서 관측값을 나타내는 확률밀도함수는 다음과 같이 정의되는 것을 특징으로 하는 동적 환경에서의 위치 추정 방법:
    Figure 112011025072642-pat00059
    (여기서, t는 시간, zt는 t 시간에서의 관측값, st는 t 시간에서의 로봇의 위치를 나타내는 변수, dt는 t 시간에서의 동적 환경을 나타내는 변수임)
  3. 제2항에 있어서,
    임의의 노드를 중심으로 하여 일정 각도로 회전하여 얻은 영상들로부터 맵을 형성하는 단계를 더 포함하고;
    상기 현재의 위치를 추정하는 단계는 상기 맵의 영상과 현재 입력되는 영상으로부터 다수의 특징량을 추출하고, 상기 다수의 특징량을 정합하여 현재의 위치를 추정하는 것을 특징으로 하는 동적 환경에서의 위치 추정 방법.
  4. 제1항 또는 제3항에 있어서,
    상기 센서 모델에서 상기 관측값은 다음과 같이 정의되며:
    Figure 112011025072642-pat00060
    ,
    상기 관측값을 나타내는 상기 확률밀도함수는 다음과 같이 정의되는 것을 특징으로 하는 동적 환경에서의 위치 추정 방법:
    Figure 112011025072642-pat00061
    Figure 112011025072642-pat00062
    (여기서, zi j는 i번째 노드에서 j번째 회전을 했을 때의 영상으로부터 만든 기준 모델과 현재 영상으로부터 추출된 비전 기반 특징량과의 정합 결과를 의미하며, vi j는 i번째 노드에서 j번째 회전한 영상을 나타냄)
  5. 제4항에 있어서,
    상기 맵을 형성하는 단계는, 상기 회전하여 얻은 영상들로부터 비젼 기반 특징량을 추출하여 전이 그래프를 생성하고, 상기 전이 그래프는 아래의 확률식으로 표현되는 것을 특징으로 하는 동적 환경에서의 위치 추정 방법:
    Figure 112011025072642-pat00063
    (여기서, ut는 로봇의 동작을 나타냄)
  6. 제5항에 있어서,
    상기 현재의 위치를 추정하는 단계는 다음과 같은 식을 사용하여 이루어지는 것을 특징으로 하는 동적 환경에서의 위치 추정 방법:
    Figure 112011025072642-pat00064
  7. 위치 추정 장치에 있어서,
    동적인 환경 변수를 고려하여 생성된 센서 모델;
    임의의 노드를 중심으로 하여 일정 각도로 회전하여 얻은 영상들로부터 상기 센서모델에 기초하여 맵을 형성하는 맵 생성부; 및
    상기 생성한 센서 모델에 따라 확률에 기반하여 현재의 위치를 추정하는 것으로, 상기 맵의 영상과 현재 입력되는 영상으로부터 다수의 특징량을 추출하고, 상기 다수의 특징량을 정합하여 현재의 위치를 추정하는 위치추정부를 포함하며,
    상기 센서 모델에서 관측값을 나타내는 확률밀도함수는 다음과 같이 정의되는 것을 특징으로 하는 위치 추정 장치:
    Figure 112011025072642-pat00065
    (여기서, t는 시간, zt는 t 시간에서의 관측값, st는 t 시간에서의 로봇의 위치를 나타내는 변수, dt는 t 시간에서의 동적 환경을 나타내는 변수임)
  8. 제7항에 있어서,
    상기 센서 모델에서 상기 관측값은 다음과 같이 정의되며:
    Figure 112011025072642-pat00066
    ,
    상기 관측값을 나타내는 상기 확률밀도함수는 다음과 같이 정의되는 것을 특징으로 하는 위치 추정 장치:
    Figure 112011025072642-pat00067
    Figure 112011025072642-pat00068
    (여기서, zi j는 i번째 노드에서 j번째 회전을 했을 때의 영상으로부터 만든 기준 모델과 현재 영상으로부터 추출된 비전 기반 특징량과의 정합 결과를 의미하며, vi j는 i번째 노드에서 j번째 회전한 영상을 나타냄)
  9. 제8항에 있어서,
    상기 맵 생성부는 상기 회전하여 얻은 영상들로부터 비젼 기반 특징량을 추출하여 전이 그래프를 생성하고, 상기 전이 그래프는 아래의 확률식으로 표현되며:
    Figure 112011025072642-pat00069
    (여기서, ut는 로봇의 동작을 나타냄),
    상기 위치 추정부는 다음과 같은 식을 사용하여 위치 추정을 수행하는 것을 특징으로 하는 위치 추정 장치:
    Figure 112011025072642-pat00070
KR1020080039506A 2008-04-28 2008-04-28 동적 환경에서의 위치 추정 방법 및 그 장치 KR101081859B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080039506A KR101081859B1 (ko) 2008-04-28 2008-04-28 동적 환경에서의 위치 추정 방법 및 그 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080039506A KR101081859B1 (ko) 2008-04-28 2008-04-28 동적 환경에서의 위치 추정 방법 및 그 장치

Publications (2)

Publication Number Publication Date
KR20090113663A KR20090113663A (ko) 2009-11-02
KR101081859B1 true KR101081859B1 (ko) 2011-11-09

Family

ID=41554964

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080039506A KR101081859B1 (ko) 2008-04-28 2008-04-28 동적 환경에서의 위치 추정 방법 및 그 장치

Country Status (1)

Country Link
KR (1) KR101081859B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101250495B1 (ko) 2011-11-25 2013-04-03 경기대학교 산학협력단 와이파이 단말기의 위치를 예측하는 방법 및 장치

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101333111B1 (ko) * 2012-11-15 2013-11-26 국방과학연구소 위치 추정 시스템 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1450129A1 (en) 2001-11-30 2004-08-25 Sony Corporation ROBOT SELF&minus;POSITION IDENTIFICATION SYSTEM AND SELF&minus;POSITION IDENTIFICATION METHOD
EP1515277A1 (en) 2003-04-28 2005-03-16 Sony Corporation Image recognition device and method, and robot device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1450129A1 (en) 2001-11-30 2004-08-25 Sony Corporation ROBOT SELF&minus;POSITION IDENTIFICATION SYSTEM AND SELF&minus;POSITION IDENTIFICATION METHOD
EP1515277A1 (en) 2003-04-28 2005-03-16 Sony Corporation Image recognition device and method, and robot device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101250495B1 (ko) 2011-11-25 2013-04-03 경기대학교 산학협력단 와이파이 단말기의 위치를 예측하는 방법 및 장치

Also Published As

Publication number Publication date
KR20090113663A (ko) 2009-11-02

Similar Documents

Publication Publication Date Title
Ma et al. Forecasting interactive dynamics of pedestrians with fictitious play
Krajník et al. Fremen: Frequency map enhancement for long-term mobile robot autonomy in changing environments
Elfring et al. Semantic world modeling using probabilistic multiple hypothesis anchoring
EP3766044B1 (en) Three-dimensional environment modeling based on a multicamera convolver system
Vaca-Castano et al. City scale geo-spatial trajectory estimation of a moving camera
WO2020050934A2 (en) Parametric top-view representation of scenes
KR20120014925A (ko) 가변 자세를 포함하는 이미지를 컴퓨터를 사용하여 실시간으로 분석하는 방법
Liang et al. Realtime collision avoidance for mobile robots in dense crowds using implicit multi-sensor fusion and deep reinforcement learning
JP6946255B2 (ja) 学習装置、推定装置、学習方法およびプログラム
JP2018013999A (ja) 姿勢推定装置、方法、及びプログラム
Bordallo et al. Counterfactual reasoning about intent for interactive navigation in dynamic environments
JP5893166B2 (ja) 3dモデル・モーフィングのための方法および装置
CN110470308A (zh) 一种避障系统及方法
Giuliari et al. Spatial commonsense graph for object localisation in partial scenes
KR101081859B1 (ko) 동적 환경에서의 위치 추정 방법 및 그 장치
Niwa et al. Spatio-temporal graph localization networks for image-based navigation
Singh et al. Fast semantic-aware motion state detection for visual slam in dynamic environment
US11074710B2 (en) Image-based framework for improving location estimate accuracy in indoor positioning systems
CN112667924A (zh) 机器人地图获取方法、装置、处理器和电子装置
Gao et al. Asynchronous collaborative localization by integrating spatiotemporal graph learning with model-based estimation
Tabib et al. Efficient multi-sensor exploration using dependent observations and conditional mutual information
Kröse et al. A Geometrically Constrained Image Similarity Measure for Visual Mapping, Localization and Navigation.
JP7205630B2 (ja) ラベル推定装置、ラベル推定方法、及びラベル推定プログラム
Wu et al. Depth estimation from a single omnidirectional image using domain adaptation
CN113963434A (zh) 一种基于人体的目标行为特征检测及其运动轨迹预测方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141029

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151012

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee