KR102139667B1 - 정보 획득 방법 및 디바이스. - Google Patents

정보 획득 방법 및 디바이스. Download PDF

Info

Publication number
KR102139667B1
KR102139667B1 KR1020140017525A KR20140017525A KR102139667B1 KR 102139667 B1 KR102139667 B1 KR 102139667B1 KR 1020140017525 A KR1020140017525 A KR 1020140017525A KR 20140017525 A KR20140017525 A KR 20140017525A KR 102139667 B1 KR102139667 B1 KR 102139667B1
Authority
KR
South Korea
Prior art keywords
information
signal
location
map
acquired
Prior art date
Application number
KR1020140017525A
Other languages
English (en)
Other versions
KR20150096275A (ko
Inventor
김성은
명현
오택준
김응선
김형진
박별터
이동화
정종대
안현기
Original Assignee
삼성전자주식회사
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 한국과학기술원 filed Critical 삼성전자주식회사
Priority to KR1020140017525A priority Critical patent/KR102139667B1/ko
Publication of KR20150096275A publication Critical patent/KR20150096275A/ko
Application granted granted Critical
Publication of KR102139667B1 publication Critical patent/KR102139667B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C19/00Gyroscopes; Turn-sensitive devices using vibrating masses; Turn-sensitive devices without moving masses; Measuring angular rate using gyroscopic effects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/06Topological mapping of higher dimensional structures onto lower dimensional surfaces
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Navigation (AREA)

Abstract

디바이스가 정보를 획득하는 방법에 있어서, 디바이스 주변의 대상체와 관련된 환경 정보를 획득하는 단계, 획득한 환경 정보를 이용하여 디바이스 주변의 맵과 관련된 맵 정보를 획득하는 단계, 획득한 환경 정보를 이용하여 디바이스의 위치를 나타내는 위치 정보를 획득하는 단계 및 획득한 위치 정보에 대응되는 위치에서의 신호를 나타내는 신호 정보를 획득하는 단계를 포함하는 정보 획득 방법이 개시된다.

Description

정보 획득 방법 및 디바이스. {Method and device for acquiring information}
개시된 하나 이상의 실시 예는 정보를 획득하는 방법 및 장치에 관한 것이다.
최근 들어 정보통신기술이 발달함에 따라 디바이스가 디바이스 주변의 맵 정보를 획득하는 기술이 등장한 바 있다. 또한, 디바이스가 디바이스의 위치를 GPS 시스템 등을 이용하여 획득하는 기술도 개시된 바 있다.
통상적으로 디바이스는 맵 정보뿐 아니라 위치 정보까지 수신하여 획득한 맵 정보 상에서 디바이스가 위치하는 위치를 표시할 수 있다.
개시된 하나 이상의 실시 예에서 디바이스는 맵 정보, 위치 정보뿐 아니라 신호 정보까지 획득할 수 있다.
개시된 하나 이상의 실시 예에서 디바이스는 획득한 맵 정보에 획득한 신호 정보를 매핑할 수 있다.
일 실시 예에 따른 정보 획득 방법은 디바이스가 정보를 획득하는 방법에 있어서, 디바이스 주변의 대상체와 관련된 환경 정보를 획득하는 단계; 획득한 환경 정보를 이용하여 디바이스 주변의 맵과 관련된 맵 정보를 획득하는 단계; 획득한 환경 정보를 이용하여 디바이스의 위치를 나타내는 위치 정보를 획득하는 단계; 및 획득한 위치 정보에 대응되는 위치에서의 신호를 나타내는 신호 정보를 획득하는 단계를 포함한다.
다른 실시 예에 따른 정보 획득 방법은 획득한 신호 정보를 획득한 맵 정보에 매핑하는 단계를 더 포함한다.
또 다른 실시 예에 따른 정보 획득 방법은 상기 정보 획득 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 기록매체를 포함한다.
도 1은 일 실시 예에 따라 정보 획득 방법을 설명하기 위한 도면이다.
도 2는 일 실시 예에 따라 디바이스가 환경 정보, 맵 정보, 위치 정보 및 신호 정보를 획득하는 방법을 나타내는 흐름도이다.
도 3은 일 실시 예에 따라 디바이스가 신호 정보를 획득하여 맵 정보에 신호 정보를 매핑하는 방법을 나타내는 흐름도이다.
도 4는 일 실시 예에 따라 디바이스가 거리 특성이 다른 복수개의 센서를 이용하여 디바이스 위치 정보를 획득하고, 획득한 위치 정보에 대응되는 자기장 신호, WiFi신호 및 블루투스 신호를 획득하는 방법을 나타내는 흐름도이다.
도 5는 일 실시 예에 따라 디바이스가 거리 정보, 이미지 정보, 맵 정보, 위치 정보 및 신호 정보를 획득하고 획득한 맵 정보에 신호 정보를 매핑하는 방법을 나타내는 흐름도이다.
도 6은 일 실시 예에 따라 디바이스가 복수개의 센서를 이용하여 디바이스 위치 정보를 획득하는 방법을 나타내는 흐름도이다.
도 7은 일 실시 예에 따라 디바이스가 획득한 정보에 기초하여 신호 정보를 획득하지 못한 위치에 대응하는 신호 정보를 예측하는 방법을 나타내는 흐름도이다.
도 8은 그래프 기반 최적화 방법을 설명하는 도면이다.
도 9는 디바이스가 획득한 맵 정보를 설명하는 도면이다.
도 10A는 측정의 대상이 되는 대상을 나타내는 도면이다.
도 10B는 측정의 대상을 이중선형보간법(bilinear interpolation) 방식을 통해 측정한 결과를 나타내는 도면이다.
도 10C는 측정의 대상을 가우시안 인터폴레이션(Gaussian interpolation) 방식을 통해 측정한 결과를 나타내는 도면이다.
도 11은 일 실시 예에 따른 디바이스의 구성을 설명하기 위한 블록도이다.
도 12는 일 실시 예에 따른 매핑부의 구성을 설명하기 위한 블록도이다.
이하의 설명은 하나 혹은 그 이상의 실시예의 일반적 원리를 설명하며, 여기에 청구된 개념을 한정하지 않는다. 게다가 여기에 기재된 특정의 특징들은 여러 가지 가능한 조합과 치환에서 다른 기재된 특징과 결합하여 사용될 수 있다. 그렇지 않고 여기에 구체적으로 정의되어 있지 않으면, 모든 용어는 종래 기술 또는 사전, 논문에서 정의된 대로 통상의 기술자에 의해 이해되는 의미뿐만 아니라 명세서로부터 암시된 의미를 포함하는 가장 넓은 가능한 해석이 부여될 수 있다.
또한, 본 명세서에서, 제 1, 제 2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되지 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로 사용될 수 있다.
또한, 본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
이하, 실시 예들을 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략할 수 있다.
도 1은 일 실시 예에 따라 정보 획득 방법을 설명하기 위한 도면이다. 디바이스(110)는 임의의 위치에 위치할 수 있다. 디바이스(110)는 디바이스(110) 주변의 맵과 관련된 맵 정보를 측정을 통해서 획득할 수 있다.
예를 들면, 디바이스(110)는 디바이스(110)의 한쪽 면이 벽임을 인식할 수 있다. 또는 디바이스(110)는 디바이스(110)의 한쪽 면이 벽임을 측정을 통해 확인할 수 있다. 또한 디바이스(110)는 디바이스(110)가 통로의 중간에 위치해 있다는 것을 측정을 통해 확인할 수 있다. 또한 측정은 디바이스(110)가 디바이스(110) 주변의 이미지를 획득함으로써 수행될 수 있다.
또한, 디바이스(110)는 디바이스(110) 주변의 대상체와 관련된 환경 정보를 획득할 수 있다. 그리고 디바이스(110)는 획득한 환경 정보를 이용하여 디바이스(110) 주변의 맵과 관련된 맵 정보 및 디바이스(110)의 위치를 나타내는 위치 정보를 획득할 수 있다. 디바이스(110)는 획득한 위치 정보에 대응되는 위치에서의 신호를 나타내는 신호 정보를 획득할 수 있다.
또한 환경 정보는 디바이스(110) 주변의 이미지 정보를 포함할 수 있다.
도 2는 일 실시 예에 따라 디바이스(110)가 환경 정보, 맵 정보, 위치 정보 및 신호 정보를 획득하는 방법을 나타내는 흐름도이다.
단계 S210에서 디바이스(110)는 디바이스(110) 주변의 대상체와 관련된 환경 정보를 획득할 수 있다. 디바이스(110)는 디바이스(110)와 디바이스(110) 주변에 위치한 각각의 물체간의 거리 정보를 획득할 수 있다. 환경 정보는 디바이스(110)와 디바이스(110) 주변에 위치한 각각의 물체간의 거리 정보를 포함할 수 있다.
환경 정보는 디바이스(110) 주변을 촬영한 이미지 정보를 포함할 수 있다. 환경 정보는 디바이스(110) 주변을 촬영한 영상 정보를 포함할 수 있다.
디바이스(110)는 촬영을 통해 획득한 디바이스(110) 주변의 이미지 정보 또는 영상 정보를 이용하여 디바이스(110)와 디바이스(110) 주변에 위치한 각각의 물체간의 거리 정보를 획득할 수 있다.
또는 디바이스(110)는 이미지 또는 영상 촬영 외의 방식으로 디바이스(110)와 디바이스(110) 주변에 위치한 각각의 물체간의 거리 정보를 획득할 수 있다.
예를 들면, 디바이스(110)는 소정의 광선을 발사하여 발사한 광선이 반사되어 되돌아오는데 걸리는 시간을 측정하는 방식으로 디바이스(110)와 디바이스(110) 주변에 위치한 각각의 물체간의 거리 정보를 획득할 수 있다.
또는 디바이스(110)는 거리 특성이 다른 복수개의 센서를 이용하여 디바이스(110)와 디바이스(110) 주변에 위치한 각각의 물체간의 거리 정보를 획득할 수 있다.
단계 S220에서 디바이스(110)는 단계 S210에서 획득한 환경 정보를 이용하여 디바이스(110) 주변의 맵과 관련된 맵 정보를 획득할 수 있다.
또는 디바이스(110)는 단계 S210에서 획득한 정보를 이용하여 디바이스(110) 주변의 맵과 관련된 맵 정보를 획득할 수 있다.
또는 디바이스(110)는 단계 S210에서 획득한 디바이스(110)와 디바이스(110) 주변에 위치한 각각의 물체간의 거리 정보를 이용하여 맵 정보를 획득할 수 있다.
맵 정보는 디바이스(110)가 위치한 곳으로부터 소정의 거리 내 범위에서의 실내 맵 정보를 의미할 수 있다. 또는 맵 정보는 디바이스(110)가 위치한 곳으로부터 소정의 거리 내 범위에서의 실외 맵 정보를 의미할 수 있다.
디바이스(110)는 단계 S210에서 획득한 환경 정보를 이용하여 디바이스(110) 주변의 맵과 관련된 맵 정보를 획득할 때 SLAM(Simultaneous Localization And Map-Building) 기술을 사용할 수 있다.
SLAM기술은 디바이스(110)가 측정을 통해서 디바이스(110) 주변의 맵 정보를 획득하고 획득한 맵 내에서 디바이스(110)의 위치를 판단하는 방법의 일종을 의미할 수 있다. 또한, SLAM 기술에 대해 구체적인 사항은 SLAM 기술과 관련하여 공지된 사실을 채용할 수 있다.
단계 S230에서 디바이스(110)는 단계 S210에서 획득한 환경 정보를 이용하여 디바이스(110)의 위치를 나타내는 위치 정보를 획득할 수 있다.
또는 디바이스(110)는 단계 S210에서 획득한 정보를 이용하여 디바이스(110)의 위치를 나타내는 위치 정보를 획득할 수 있다.
또는 디바이스(110)는 단계 S210에서 획득한 디바이스(110)와 디바이스(110) 주변에 위치한 각각의 물체간의 거리 정보를 이용하여 디바이스(110)의 위치를 나타내는 위치 정보를 획득할 수 있다.
디바이스(110)의 위치를 나타내는 위치 정보는 단계 S220에서 획득한 맵 정보에 기초한 지도상에 표시될 수 있다.
디바이스(110)는 단계 S210에서 획득한 환경 정보를 이용하여 디바이스(110)의 위치를 나타내는 위치 정보를 획득할 때 SLAM(Simultaneous Localization And Map-Building) 기술을 사용할 수 있다.
SLAM기술은 디바이스(110)가 측정을 통해서 디바이스(110) 주변의 맵 정보를 획득하고 획득한 맵 내에서 디바이스(110)의 위치를 판단하는 방법의 일종을 의미할 수 있다. 또한, SLAM 기술에 대해 구체적인 사항은 SLAM 기술과 관련하여 공지된 사실을 채용할 수 있다.
단계 S240에서 디바이스(110)는 단계 S230에서 획득한 위치 정보에 대응되는 위치에서의 신호를 나타내는 신호 정보를 획득할 수 있다.
디바이스(110)는 특정 신호를 감지하는 센서를 포함할 수 있다. 그리고 디바이스(110)는 특정 신호를 감지하는 센서를 이용하여 신호 정보를 획득할 수 있다.
신호 정보는 자기장 신호의 크기 및 방향과 관련된 정보, WiFi 신호의 크기 및 방향과 관련된 정보 및 블루투스 신호와 관련된 정보 중 적어도 하나를 포함할 수 있다.
도 3은 일 실시 예에 따라 디바이스(110)가 신호 정보를 획득하여 맵 정보에 신호 정보를 매핑하는 방법을 나타내는 흐름도이다. 도 3을 참조하면, 일 실시 예에 따른 정보 획득 방법은 도 2에 도시된 단계들을 일부 포함한다. 이하에서 생략된 내용이라 하더라도 도 2에 도시된 단계에 관하여 이상에서 기술된 내용은 도 3의 방법에도 적용될 수 있다.
단계 S310 내지 단계 S340은 단계 S210 내지 단계 S240에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.
단계 S350에서 디바이스(110)는 신호 정보를 획득하지 못한 위치에 대응하는 신호 정보를 단계 S340에서 획득한 신호 정보를 이용하여 예측할 수 있다.
디바이스(110)는 하나 이상의 획득된 신호 정보와 획득된 신호 정보의 위치를 고려하여 신호 정보를 예측할 수 있다.
디바이스(110)는 단계 S340에서 획득한 신호 정보 및 신호 정보의 위치를 고려하여 신호 정보를 획득하지 못한 위치에 대응하는 신호 정보를 예측할 수 있다.
또는 디바이스(110)는 가우시안 인터폴레이션(Gaussian interpolation) 방식을 이용하여 신호 정보를 획득하지 못한 위치에 대응하는 신호 정보를 예측할 수 있다.
구체적인 예측 방법은 후술한다.
단계 S360에서 디바이스(110)는 단계 S340에서 획득한 신호 정보를 단계 S320에서 획득한 맵 정보에 매핑할 수 있다.
또는 디바이스(110)는 단계 S340에서 획득한 신호 정보를 단계 S320에서 획득한 맵 정보에 기초한 지도상에 표시할 수 있다.
단계 S360에서 디바이스(110)는 각 위치별로 신호 정보가 표시된 지도를 획득할 수 있다. 신호 정보는 소정의 신호의 크기 정보 및 방향 정보 중 적어도 하나를 포함할 수 있다.
단계 S370에서 디바이스(110)는 단계 S350에서 예측한 신호 정보를 단계 S320에서 획득한 맵 정보에 매핑할 수 있다.
디바이스(110)가 단계 S350에서 예측한 신호 정보를 맵 정보에 매핑하는 방식은 단계 S360의 방식을 채용할 수 있다.
도 4는 일 실시 예에 따라 디바이스(110)가 거리 특성이 다른 복수개의 센서를 이용하여 디바이스(110)의 위치를 나타내는 위치 정보를 획득하고, 획득한 위치 정보에 대응되는 자기장 신호, WiFi신호 및 블루투스 신호를 획득하는 방법을 나타내는 흐름도이다. WiFi 신호는 WiFi를 이용한 RF 신호를 의미할 수 있다. 또한, 블루투스 신호는 블루투스를 이용한 RF 신호를 의미할 수 있다.
단계 S410에서 디바이스(110)는 특성이 다른 복수개의 센서를 이용하여 디바이스(110)의 위치를 나타내는 위치 정보를 획득할 수 있다. 특성이 다른 복수개의 센서는 거리 특성이 다른 복수개의 센서를 의미할 수 있다.
특성이 다른 복수개의 센서는 카메라, LRF(Laser Range Finder), 뎁스 카메라(Depth Camera), RGB-D 카메라, 자이로계, 가속도계 및 엔코더(Encoder) 중 적어도 하나를 포함할 수 있다.
예를 들면, 뎁스 카메라는 근거리에서 정확하게 대상 물체와 디바이스(110) 사이의 거리를 측정할 수 있고, LRF는 장거리에서 대략적으로 대상 물체와 디바이스(110) 사이의 거리를 측정할 수 있다. 또는 카메라는 근거리 및 중거리에서 대상 물체와 디바이스(110) 사이의 거리를 측정하기 위해 사용될 수 있다. 또는 엔코더(Encoder)는 디바이스(110)의 바퀴 회전수를 판단하여 디바이스(110)의 이동 거리를 판단함으로써 디바이스(110)의 위치 정보를 획득할 수 있다.
단계 S420에서 디바이스(110)는 단계 S410에서 획득한 위치 정보에 대응되는 위치에서 자기장 신호의 크기 및 방향과 관련된 정보를 획득할 수 있다.
디바이스(110)는 디바이스(110)의 위치 정보를 획득하면서 획득한 위치 정보에 대응되는 위치에서의 자기장 신호의 크기 정보 또는 자기장 신호의 방향 정보를 획득할 수 있다.
디바이스(110)는 자기장 신호를 감지할 수 있는 센서를 포함할 수 있다. 또한 자기장 신호를 감지할 수 있는 센서를 통해서 디바이스(110)는 특정 위치에서의 자기장 신호의 크기 정보 및 방향 정보를 획득할 수 있다.
획득된 자기장 신호와 관련된 정보는 자기장 신호가 획득될 때의 디바이스(110)의 위치 정보와 함께(in conjunction with) 디바이스(110)에 저장될 수 있다.
단계 S430에서 디바이스(110)는 단계 S410에서 획득한 위치 정보에 대응되는 위치에서 WiFi 신호의 크기 및 방향과 관련된 정보를 획득할 수 있다.
디바이스(110)는 디바이스(110)의 위치 정보를 획득하면서 획득한 위치 정보에 대응되는 위치에서의 WiFi 신호의 크기 정보 또는 WiFi 신호의 방향 정보를 획득할 수 있다.
디바이스(110)는 WiFi 신호를 감지할 수 있는 센서를 포함할 수 있다. 또한 WiFi 신호를 감지할 수 있는 센서를 통해서 디바이스(110)는 특정 위치에서의 WiFi 신호의 크기 정보 및 방향 정보를 획득할 수 있다.
획득된 WiFi 신호와 관련된 정보는 WiFi 신호가 획득될 때의 디바이스(110)의 위치 정보와 함께(in conjunction with) 디바이스(110)에 저장될 수 있다.
단계 S440에서 디바이스(110)는 단계 S410에서 획득한 위치 정보에 대응되는 위치에서 블루투스 신호와 관련된 정보를 획득할 수 있다.
디바이스(110)는 디바이스(110)의 위치 정보를 획득하면서 획득한 위치 정보에 대응되는 위치에서의 블루투스 신호와 관련된 정보를 획득할 수 있다.
디바이스(110)는 블루투스 신호를 감지할 수 있는 센서를 포함할 수 있다. 또한 블루투스 신호를 감지할 수 있는 센서를 통해서 디바이스(110)는 특정 위치에서의 블루투스 신호와 관련된 정보를 획득할 수 있다.
획득된 블루투스 신호와 관련된 정보는 블루투스 신호가 획득될 때의 디바이스(110)의 위치 정보와 함께(in conjunction with) 디바이스(110)에 저장될 수 있다.
도 5는 일 실시 예에 따라 디바이스(110)가 거리 정보, 이미지 정보, 맵 정보, 위치 정보 및 신호 정보를 획득하고 획득한 맵 정보에 신호 정보를 매핑하는 방법을 나타내는 흐름도이다.
단계 S510에서 디바이스(110)는 디바이스(110) 주변의 대상체와 디바이스(110)와의 거리와 관련된 거리 정보 또는 디바이스(110) 주변의 이미지 정보를 획득할 수 있다.
디바이스(110) 주변의 이미지 정보는 디바이스(110) 주변을 촬영한 영상 정보를 포함할 수 있다.
또는 디바이스(110)는 이미지 정보를 이용하여 거리 정보를 획득할 수 있다.
예를 들면, 디바이스(110)는 이미지 정보를 이용하여 디바이스(110)와 대상체 사이의 거리를 판단할 수 있다. 디바이스(110)는 이미지 상에서 가려진 물체가 가리고 있는 물체보다 뒤에 있는 것으로 판단할 수 있다.
또한 디바이스(110)는 이미지 정보 외의 정보를 이용하여 거리 정보를 획득할 수 있다.
예를 들면 디바이스(110)는 소정의 광선을 발사하여 발사한 광선이 반사되어 되돌아오는데 걸리는 시간을 측정하는 방식으로 디바이스(110)와 디바이스(110) 주변에 위치한 각각의 물체간의 거리 정보를 획득할 수 있다.
또는 디바이스(110)는 거리 특성이 다른 복수개의 센서를 이용하여 디바이스(110)와 디바이스(110) 주변에 위치한 각각의 물체간의 거리 정보를 획득할 수 있다.
단계 S520에서 디바이스(110)는 단계 S510에서 획득한 거리 정보 또는 이미지 정보를 이용하여 디바이스(110) 주변의 맵과 관련된 맵 정보를 획득할 수 있다.
맵 정보는 디바이스(110)가 위치한 곳으로부터 소정의 거리 내 범위에서의 실내 맵 정보를 의미할 수 있다. 또는 맵 정보는 디바이스(110)가 위치한 곳으로부터 소정의 거리 내 범위에서의 실외 맵 정보를 의미할 수 있다.
맵 정보는 디바이스(110)와 각 대상체와의 거리 정보를 포함할 수 있다.
단계 S530에서 디바이스(110)는 단계 S510에서 획득한 거리 정보를 기초로 그래프 기반 최적화(Graph Based Optimization) 기법을 이용하여 디바이스(110)의 위치를 나타내는 위치 정보를 획득할 수 있다.
디바이스(110)는 단계 S510에서 획득한 정보를 이용하여 디바이스(110)의 위치를 판단하기 위해 그래프 기반 최적화(Graph Based Optimization) 기법을 이용할 수 있다. 또는 디바이스(110)는 하나 이상의 센서를 통해 획득한 디바이스(110) 주변의 대상체와 디바이스(110)와의 거리 정보를 획득하고, 획득한 하나 이상의 정보를 통해 디바이스(110)의 현재 위치를 판단할 때 그리프 기반 최적화 기법을 이용할 수 있다.
또한, 디바이스(110)가 획득한 하나 이상의 정보를 통해 디바이스(110)의 현재 위치를 판단할 때 다양한 공지된 방식이 이용될 수 있다.
또한, 디바이스(110)가 획득한 하나 이상의 정보를 통해 디바이스(110)의 현재 위치를 판단할 때 이용되는 그래프 기반 최적화(Graph Based Optimization) 기법은 종래 공지된 방식을 채용할 수 있다.
자세한 사항은 도 8에서 후술한다.
단계 S540에서 디바이스(110)는 단계 S530에서 획득한 위치 정보에 대응되는 위치에서의 신호를 나타내는 신호 정보를 획득할 수 있다.
단계 S540은 단계 S240에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.
단계 S550에서 디바이스(110)는 단계 S540에서 획득한 신호 정보에 기초하여 신호 정보를 획득하지 못한 위치에 대응하는 신호 정보를 가우시안 인터폴레이션 방식을 이용하여 예측할 수 있다.
디바이스(110)는 획득한 신호 정보를 기초로 하여 측정값이 없는 위치에서의 신호 정보를 예측할 때 가우시안 인터폴레이션 방식을 사용할 수 있다.
또한, 디바이스(110)가 획득한 신호 정보를 기초로 하여 측정값이 없는 위치에서의 신호 정보를 예측할 때 다양한 공지된 기술이 이용될 수 있다.
또한, 디바이스(110)가 획득한 신호 정보를 기초로 하여 측정값이 없는 위치에서의 신호 정보를 예측할 때 이용되는 그래프 기반 최적화(Graph Based Optimization) 기법은 종래 공지된 방식을 채용할 수 있다.
가우시안 인터폴레이션 방식은 종래 공지된 방식을 채용할 수 있다.
자세한 사항은 도 10에서 후술한다.
단계 S560에서 디바이스(110)는 단계 S540에서 획득한 신호 정보 및 단계 S550에서 예측한 신호 정보 중 적어도 하나를 단계 S520에서 획득한 맵 정보에 매핑할 수 있다.
단계 S560은 단계 S360 및 단계 S370에 대응되므로 전체적인 설명을 간단히 하기 위해 상세한 설명을 생략한다.
도 6은 일 실시 예에 따라 디바이스(110)가 복수개의 센서를 이용하여 디바이스(110) 위치 정보를 획득하는 방법을 나타내는 흐름도이다.
단계 S610에서 RGB 카메라는 이미지 정보 또는 영상 신호 정보를 획득할 수 있다.
단계 S620에서 2D 레이저 거리 측정기(Laser Range Finder)는 디바이스(110)와 디바이스(110) 주변에 위치한 각각의 물체간의 거리 정보를 획득할 수 있다.
단계 S630에서 키넥트 카메라(Kinect Camera)는 디바이스(110) 주변의 깊이(Depth) 영상을 획득할 수 있다.
단계 S640에서 인코더(Encoder)는 디바이스(110)에 부착된 바퀴의 회전수를 통해서 디바이스(110)의 이동 정보 또는 거리 정보를 획득할 수 있다.
단계 S650에서 디바이스(110)는 RGB 카메라와 2D 레이저 거리 측정기를 통해 획득한 정보를 결합하여 처리할 수 있다.
단계 S660에서 디바이스(110)는 2D 맵을 이용하여 단계 S620에서 획득한 정보를 처리할 수 있다.
단계 S670에서 디바이스(110)는 3D 맵을 이용하여 단계 S630에서 획득한 정보를 처리할 수 있다.
단계 S680에서 디바이스(110)는 이동 거리 측정을 통해 디바이스(110)의 이동 정보 또는 거리 정보를 획득할 수 있다.
단계 S690에서 디바이스(110)는 그래프를 이용한 정보 처리 방식을 이용하여 단계 S650 내지 단계 S680에서 획득한 정보를 처리할 수 있다.
도 7은 일 실시 예에 따라 디바이스(110)가 획득한 정보에 기초하여 신호정보를 획득하지 못한 위치에 대응하는 신호 정보를 예측하는 방법을 나타내는 흐름도이다.
디바이스(110)는 하나 이상의 측정값(720)을 이용하여 예측값(710)을 예측할 수 있다.
측정값(720)은 일정한 가로 간격(740)으로 측정될 수 있다.
또는 측정값(720)은 일정한 세로 간격(730)으로 측정될 수 있다.
디바이스(110)는 측정값(720)을 이용하여 측정하지 못한 위치의 신호 정보를 예측할 수 있다.
격자형 구조로 신호 정보가 획득 되었을 때 획득되는 측정값(720)을 기초로 하여 미탐색 지역의 신호 정보인 예측값(710)을 가우시안 인터폴레이션(Gaussian interpolation) 방식을 통해 추정한다.
디바이스(110)는 예측값(710)과 관련된 정보를 주변의 이미 탐색된 측정값(720) 정보를 사용하여 구할 수 있다. 디바이스(110)는 측정값(720)과 예측값(710) 간의 거리 정보를 이용하여 거리 정보에 따른 가중치(weight)를 생성한 후 가우시안 커널(Gaussian kernel)을 이용하여 예측값(710)과 관련된 정보를 생성할 수 있다.
도 8은 그래프 기반 최적화 방법을 설명하는 도면이다.
디바이스(110)는 거리 특성이 다른 복수개의 센서를 이용하여 디바이스(110)의 위치를 나타내는 위치 정보를 획득할 수 있다.
디바이스(110)는 각각의 센서를 통해 획득한 정보를 그래프 정보로 활용하여 graph-structure를 구성한 후, graph 기반 optimization 기법을 이용하여 최종 위치를 보정할 수 있다.
디바이스(110)가 각각의 센서를 통해 획득한 정보는 측정값 및 공분산(covariance)을 포함할 수 있다.
도 8에서 각각의 노드들은 디바이스(110)의 위치(xi)를 나타내며, 도 8의 각각의 에지들은 각 위치에서의 측정값(Zi,i+1)과 공분산(Ai,i+1)을 의미할 수 있다. 또한 각 위치에서의 측정값과 공분산은 graph-structure에서 그래프를 구성하는데 필요한 정보가 될 수 있다.
디바이스(110)는 RGB camera를 이용하여 RGB 이미지 상의 특징점을 추출한 후, 2D LRF의 depth 정보와 융합하여 각 특징점의 3차원 위치 정보를 생성할 수 있다. 디바이스(110)는 특징점의 3차원 위치 정보를 이용하여 디바이스(110)의 3차원 위치 조건을 생성할 수 있다.(도 8의 2점 쇄선)
디바이스(110)는 2D LRF의 깊이(depth) 정보를 이용하여 2D grid map을 생성할 수 있다. 디바이스(110)는 2D grid map을 이용하여 디바이스(110)의 2차원 위치 구속 조건을 생성할 수 있다.(도 8의 점선)
디바이스(110)는 Depth camera를 이용하여 3차원 위치 상의 특징점을 추출하고, 특징점의 3차원 위치 정보를 이용하여 디바이스(110)의 3차원 위치 구속 조건을 생성할 수 있다.(도 8의 1점 쇄선)
디바이스(110)는 Encoder를 이용하여 이동 거리 측정(odometry) 정보를 생성한 후 이동체의 2차원 위치 구속 조건을 생성할 수 있다.(도 8의 실선)
디바이스(110)는 다비이스(110)의 위치와, 각 위치에서의 측정값과, 공분산 값을 이용하여 graph 기반 최적화 기법을 수행하고 최종 위치를 보정할 수 있다.
도 9는 디바이스(110)가 획득한 맵 정보를 설명하는 도면이다.
보다 구체적으로 도 9는 일 실시 예에 따라 디바이스(110)가 가상으로 획득한 맵정보를 설명하는 도면이다.
디바이스(110)는 대상체와 디바이스(110)사이의 거리를 측정하여 디바이스(110) 주변의 맵 정보를 획득할 수 있다. 벽과 같은 대상체(920)는 대상체와 디바이스(110)사이의 거리 측정을 통해 파악될 수 있다.
그러나 거리 측정에 실패하는 경우 에러(910)가 발생할 수 있다. 그러나 디바이스(110)는 전체적인 형태에서 지도의 구성을 파악할 수 있다.
도 10A 내지 10C는 측정의 대상을 측정할 때, 이중선형보간법(bilinear interpolation) 방식 또는 가우시안 인터폴레이션(Gaussian interpolation) 방식을 통해 측정한 결과를 비교하여 설명하기 위한 도면이다.
도 10A는 측정의 대상을 나타내는 도면이다. 또는 도 10A는 모든 지점에서 측정이 이루어져서 재현한 경우 획득할 수 있는 3차원 형상을 의미할 수 있다.
도 10B는 측정의 대상을 이중선형보간법(bilinear interpolation) 방식을 통해 측정한 결과를 나타내는 도면이다. 모든 지점에서 측정이 수행된 것은 아니기 때문에 측정이 이루어지지 않은 위치에 대해서는 측정된 데이터를 바탕으로 이중선형보간법(bilinear interpolation) 방식을 통한 예측값이 사용될 수 있다. 따라서 원래의 측정 대상과는 다른 일부 왜곡(1010)이 발생할 수 있다.
도 10C는 측정의 대상을 가우시안 인터폴레이션(Gaussian interpolation) 방식을 통해 측정한 결과를 나타내는 도면이다.
가우시안 인터폴레이션 방식에 의해 발생하는 왜곡(1020)이 이중선형보간법에 의해 발생하는 왜곡(1010)보다 작을 수 있다.
이중선형보간법 방식 및 가우시안 인터폴레이션 방식은 종래 공지된 기술이 이용될 수 있다.
도 11 내지 도 12는 디바이스(110)의 일 실시 예이다. 디바이스(110)는 상술한 정보 획득 방법을 수행할 수 있는 장치로, 상술한 정보 획득 방법을 수행하기 위한 모든 실시 예의 구현이 가능하다.
도 11은 일 실시 예에 따른 디바이스(110)의 구성을 설명하기 위한 블록도이다.
도 11에 도시된 바와 같이, 디바이스(110)는 환경 정보 획득부(1110), 맵 정보 획득부(1120), 위치 정보 획득부(1130), 신호 정보 획득부(1140) 및 매핑부(1150)를 포함할 수 있다.
그러나 도시된 구성요소가 모두 필수 구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 디바이스(110)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 디바이스(110)는 구현될 수 있다.
이하 상기 구성요소들에 대해 차례로 살펴본다.
환경 정보 획득부(1110)는 디바이스(110) 주변의 대상체와 관련된 환경 정보를 획득할 수 있다.
또한 환경 정보는 환경 정보 획득부(1110) 주변의 이미지 정보를 포함할 수 있다.
환경 정보 획득부(1110)는 환경 정보 획득부(1110)와 환경 정보 획득부(1110) 주변에 위치한 각각의 물체간의 거리 정보를 획득할 수 있다. 환경 정보는 환경 정보 획득부(1110)와 환경 정보 획득부(1110) 주변에 위치한 각각의 물체간의 거리 정보를 포함할 수 있다.
환경 정보는 환경 정보 획득부(1110) 주변을 촬영한 이미지 정보를 포함할 수 있다. 또는 환경 정보는 환경 정보 획득부(1110) 주변을 촬영한 영상 정보를 포함할 수 있다.
환경 정보 획득부(1110)는 촬영을 통해 획득한 환경 정보 획득부(1110) 주변의 이미지 정보 또는 영상 정보를 이용하여 환경 정보 획득부(1110)와 환경 정보 획득부(1110) 주변에 위치한 각각의 물체간의 거리 정보를 획득할 수 있다.
또는 환경 정보 획득부(1110)는 이미지 또는 영상 촬영 외의 방식으로 환경 정보 획득부(1110)와 환경 정보 획득부(1110) 주변에 위치한 각각의 물체간의 거리 정보를 획득할 수 있다.
예를 들면, 환경 정보 획득부(1110)는 소정의 광선을 발사하여 발사한 광선이 반사되어 되돌아오는데 걸리는 시간을 측정하는 방식으로 환경 정보 획득부(1110)와 환경 정보 획득부(1110) 주변에 위치한 각각의 물체간의 거리 정보를 획득할 수 있다.
또는 환경 정보 획득부(1110)는 거리 특성이 다른 복수개의 센서를 이용하여 환경 정보 획득부(1110)와 환경 정보 획득부(1110) 주변에 위치한 각각의 물체간의 거리 정보를 획득할 수 있다.
맵 정보 획득부(1120)는 환경 정보 획득부(1110)를 통해 획득한 환경 정보를 이용하여 디바이스(110) 주변의 맵과 관련된 맵 정보를 획득할 수 있다.
또는 맵 정보 획득부(1120)는 환경 정보 획득부(1110)에서 획득한 정보를 이용하여 맵 정보 획득부(1120) 주변의 맵과 관련된 맵 정보를 획득할 수 있다.
또는 맵 정보 획득부(1120)는 환경 정보 획득부(1110)에서 획득한 디바이스(110)와 디바이스(110) 주변에 위치한 각각의 물체간의 거리 정보를 이용하여 맵 정보를 획득할 수 있다.
맵 정보는 디바이스(110)가 위치한 곳으로부터 소정의 거리 내 범위에서의 실내 맵 정보를 의미할 수 있다. 또는 맵 정보는 디바이스(110)가 위치한 곳으로부터 소정의 거리 내 범위에서의 실외 맵 정보를 의미할 수 있다.
맵 정보 획득부(1120)는 환경 정보 획득부(1110)에서 획득한 환경 정보를 이용하여 디바이스(110) 주변의 맵과 관련된 맵 정보를 획득할 때 SLAM(Simultaneous Localization And Map-Building) 기술을 사용할 수 있다.
SLAM기술은 디바이스(110)가 측정을 통해서 디바이스(110) 주변의 맵 정보를 획득하고 획득한 맵 내에서 디바이스(110)의 위치를 판단하는 방법의 일종을 의미할 수 있다. 또한, SLAM 기술에 대해 구체적인 사항은 SLAM 기술과 관련하여 공지된 사실을 채용할 수 있다.
위치 정보 획득부(1130)는 환경 정보 획득부(1110)를 통해 획득한 환경 정보를 이용하여 디바이스(110)의 위치를 나타내는 위치 정보를 획득할 수 있다.
또는 위치 정보 획득부(1130)는 환경 정보 획득부(1110)에서 획득한 디바이스(110)와 디바이스(110) 주변에 위치한 각각의 물체간의 거리 정보를 이용하여 디바이스(110)의 위치를 나타내는 위치 정보를 획득할 수 있다.
디바이스(110)의 위치를 나타내는 위치 정보는 맵 정보 획득부(1120)에서 획득한 맵 정보에 기초한 지도상에 표시될 수 있다.
또한, 위치 정보 획득부(1130)는 특성이 다른 복수개의 센서를 이용하여 위치 정보를 획득할 수 있다. 특성이 다른 복수개의 센서는 거리 특성이 다른 복수개의 센서를 의미할 수 있다.
또한, 위치 정보 획득부(1130)가 이용하는 특성이 다른 복수개의 센서는 상기 복수개의 센서는 카메라, LRF(Laser Range Finder), 뎁스 카메라, RGB-D 카메라, 자이로계, 가속도계 및 엔코더(Encoder) 중 적어도 하나를 포함할 수 있다.
또한, 위치 정보 획득부(1130)는 위치 정보를 획득할 때 그래프 기반 최적화(Graph based optimization) 기법을 이용할 수 있다.
위치 정보 획득부(1130)는 환경 정보 획득부(1110)에서 획득한 환경 정보를 이용하여 디바이스(110)의 위치를 나타내는 위치 정보를 획득할 때 SLAM(Simultaneous Localization And Map-Building) 기술을 사용할 수 있다.
SLAM기술은 디바이스(110)가 측정을 통해서 디바이스(110) 주변의 맵 정보를 획득하고 획득한 맵 내에서 디바이스(110)의 위치를 판단하는 방법의 일종을 의미할 수 있다. 또한, SLAM 기술에 대해 구체적인 사항은 SLAM 기술과 관련하여 공지된 사실을 채용할 수 있다.
신호 정보 획득부(1140)는 위치 정보 획득부(1130)에서 획득한 위치 정보에 대응되는 위치에서의 신호를 나타내는 신호 정보를 획득할 수 있다.
신호 정보 획득부(1140)는 특정 신호를 감지하는 센서를 포함할 수 있다. 그리고 신호 정보 획득부(1140)는 특정 신호를 감지하는 센서를 이용하여 신호 정보를 획득할 수 있다.
신호 정보는 자기장 신호의 크기 및 방향과 관련된 정보, WiFi 신호의 크기 및 방향과 관련된 정보 및 블루투스 신호와 관련된 정보 중 적어도 하나를 포함할 수 있다.
매핑부(1150)는 신호 정보 획득부(1140)에서 획득한 신호 정보를 맵 정보 획득부(1120)에서 획득한 맵 정보에 매핑할 수 있다.
매핑부에 대해서 자세한 사항은 후술한다.
도 12는 일 실시 예에 따른 매핑부(1150)의 구성을 설명하기 위한 블록도이다.
도 12에 도시된 바와 같이, 매핑부(1150)는 신호 정보 예측부(1210), 예측 신호 매핑부(1220) 및 획득 신호 매핑부(1230)를 포함할 수 있다.
신호 정보 예측부(1210)는 신호 정보를 획득하지 못한 위치에 대응하는 신호 정보를 획득한 신호 정보를 이용하여 예측할 수 있다.
신호 정보 예측부(1210)는 신호 정보를 획득하지 못한 위치에 대응하는 신호 정보를 신호 정보 획득부(1140)에서 획득한 신호 정보를 이용하여 예측할 수 있다.
신호 정보 예측부(1210)는 신호 정보 획득부(1140)에서 획득된 신호 정보 및 신호 정보의 위치를 고려하여 신호 정보를 획득하지 못한 위치에 대응하는 신호 정보를 예측할 수 있다.
신호 정보 예측부(1210)는 가우시안 인터폴레이션(Gaussian interpolation) 방식을 이용하여 신호 정보를 획득하지 못한 위치에 대응하는 신호 정보를 예측할 수 있다.
예측 신호 매핑부(1220)는 신호 정보 예측부(1210)에서 예측한 신호 정보를 맵 정보 획득부(1120)에서 획득한 맵 정보에 매핑할 수 있다.
또는 예측 신호 매핑부(1220)는 신호 정보 예측부(1210)에서 예측한 신호 정보를 맵 정보 획득부(1120)에서 획득한 맵 정보에 기초한 지도상에 표시할 수 있다.
예측 신호 매핑부(1220)는 각 위치별로 예측된 신호 정보가 표시된 지도를 획득할 수 있다. 예측된 신호 정보는 소정의 예측된 신호의 크기 및 방향 중 적어도 하나를 포함할 수 있다.
획득 신호 매핑부(1230)는 신호 정보 획득부(1140)에서 획득한 신호 정보를 맵 정보 획득부(1120)에서 획득한 맵 정보에 매핑할 수 있다.
또는 획득 신호 매핑부(1230)는 신호 정보 획득부(1140)에서 획득한 신호 정보를 맵 정보 획득부(1120)에서 획득한 맵 정보에 기초한 지도상에 표시할 수 있다.
획득 신호 매핑부(1230)는 각 위치별로 신호 정보가 표시된 지도를 획득할 수 있다. 신호 정보는 소정의 신호의 크기 및 방향 중 적어도 하나를 포함할 수 있다.
이상에서 전술한 일 실시 예에 따른 정보 획득 방법 및 장치는 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있고 컴퓨터에 의해 실행됨으로써 전술한 기능들이 실행될 수 있다.
또한, 이러한 코드는 전술한 기능들을 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조 되어야 하는지에 대한 메모리 참조 관련 코드를 더 포함할 수 있다.
이상에서 전술한 바와 같은 프로그램을 기록한 컴퓨터로 읽힐 수 있는 기록매체는, 일례로, ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 미디어 저장장치 등이 있다.
각 실시 예에 따른 정보 획득 방법 및 장치를 실행시키기 위한 프로그램인 애플리케이션을 기록한 기록매체를 읽을 수 있는 컴퓨터는, 일반적인 데스크 탑이나 노트북 등의 일반 PC 뿐만 아니라, 스마트 폰, 태블릿 PC, PDA(Personal Digital Assistants) 및 이동통신 단말기 등의 모바일 단말을 포함할 수 있으며, 이뿐만 아니라, 컴퓨팅(Computing) 가능한 모든 기기로 해석되어야 할 것이다.
이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다.
이상의 설명은 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 해당 기술 분야에서 통상의 지식을 가진 자라면 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 개시된 실시 예들은 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 기술 사상의 범위가 한정되는 것은 아니다. 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (20)

  1. 디바이스가 정보를 획득하는 방법에 있어서,
    상기 디바이스 주변의 대상체와 관련된 환경 정보를 획득하는 단계;
    상기 획득한 환경 정보를 이용하여 상기 디바이스의 위치를 나타내는 위치 정보를 획득하는 단계; 및
    상기 획득한 위치 정보에 대응되는 위치에서의 신호를 나타내는 신호 정보를 획득하는 단계를 포함하고,
    상기 신호 정보를 획득하는 단계는,
    상기 획득한 위치 정보에 대응되는 제1 위치에 대한 제1 신호 정보를 센서로부터 수신하는 단계; 및
    상기 획득한 위치 정보에 대응되는 제2 위치에 대한 제2 신호 정보를 상기 수신된 제1 신호 정보를 이용하여 예측하는 단계;를 더 포함하는, 정보 획득 방법
  2. 제 1 항에 있어서,
    상기 획득한 환경 정보를 이용하여 상기 디바이스 주변의 맵과 관련된 맵 정보를 획득하는 단계; 및
    상기 획득한 제1 신호 정보를 상기 획득한 맵 정보에 매핑하는 단계를 더 포함하는 정보 획득 방법
  3. 제 2 항에 있어서,
    상기 제2 신호 정보를 상기 수신된 제1 신호 정보를 이용하여 예측하는 단계;는
    센서로부터 상기 제2 위치에 대한 상기 제2신호 정보를 수신하였는지 여부를 판단하는 단계; 및
    상기 제2 신호 정보를 수신하지 못한 경우, 상기 수신된 제1 신호 정보 및 상기 제1 신호 정보에 대응되는 제1 위치를 이용하여 상기 제2 신호 정보를 예측하는 단계; 를 더 포함하고,
    상기 매핑하는 단계는
    상기 예측한 제2 신호 정보를 상기 획득한 맵 정보에 매핑하는 단계를 포함하는 정보 획득 방법
  4. 제 3 항에 있어서,
    상기 예측하는 단계는
    가우시안 인터폴레이션(Gaussian interpolation) 방식이 이용되는 정보 획득 방법
  5. 제 1 항에 있어서,
    상기 위치 정보를 획득하는 단계는
    특성이 다른 복수개의 센서를 이용하여 수행되는 정보 획득 방법
  6. 제 5 항에 있어서,
    상기 복수개의 센서는 카메라, LRF(Laser Range Finder), RGB-D 카메라, 자이로계, 가속도계 및 엔코더(Encoder) 중 적어도 하나를 포함하는 정보 획득 방법
  7. 제 5 항에 있어서,
    상기 위치 정보를 획득하는 단계는
    그래프 기반 최적화(Graph based optimization) 기법을 이용하여 수행되는 정보 획득 방법
  8. 제 1 항에 있어서,
    상기 환경 정보는 상기 디바이스 주변의 이미지 정보를 포함하는 정보 획득 방법
  9. 제 2 항에 있어서,
    상기 위치 정보를 획득하는 단계 및 상기 맵 정보를 획득하는 단계는 SLAM(Simultaneous Localization And Map-Building) 기술을 이용하여 수행되는 정보 획득 방법
  10. 제 1 항에 있어서,
    상기 신호 정보는 자기장 정보, WiFi와 블루투스를 포함한 RF 신호 정보 중 적어도 하나를 포함하는 정보 획득 방법
  11. 정보를 획득하는 디바이스에 있어서,
    메모리; 및
    상기 메모리에 저장된 프로그램을 실행함으로써 상기 디바이스를 제어하는 프로세서;를 포함하고,
    상기 프로세서는
    디바이스 주변의 대상체와 관련된 환경 정보를 획득하고,
    상기 획득한 환경 정보를 이용하여 상기 디바이스의 위치를 나타내는 위치 정보를 획득하며,
    상기 획득한 위치 정보에 대응되는 위치에서의 신호를 나타내는 신호 정보를 획득하고,
    상기 획득한 위치 정보에 대응되는 제1 위치에 대한 제1신호 정보를 센서로부터 수신하며,
    상기 획득한 위치 정보에 대응되는 제2 위치에 대한 제2 신호 정보를 상기 수신된 제1 신호 정보를 이용하여 예측하는, 디바이스
  12. 제 11 항에 있어서,
    상기 프로세서는
    상기 획득한 환경 정보를 이용하여 상기 디바이스 주변의 맵과 관련된 맵 정보를 획득하고, 상기 획득한 제1 신호 정보를 상기 획득한 맵 정보에 매핑하는, 디바이스
  13. 제 12 항에 있어서,
    상기 프로세서는,
    센서로부터 상기 제2 위치에 대한 상기 제2신호 정보를 수신하였는지 여부를 판단하고,
    상기 제2 신호 정보를 수신하지 못한 경우, 상기 수신된 제1 신호 정보 및 상기 제1 신호 정보에 대응되는 제1 위치를 이용하여 상기 제2 신호 정보를 예측하며,
    상기 예측한 제2 신호 정보를 상기 획득한 맵 정보에 매핑하는, 디바이스
  14. 제 13 항에 있어서,
    상기 프로세서는, 가우시안 인터폴레이션(Gaussian interpolation) 방식을 이용하여 상기 제2 신호 정보를 예측하는, 디바이스
  15. 제 11 항에 있어서,
    상기 프로세서는, 특성이 다른 복수개의 센서를 이용하여 상기 위치 정보를 획득하는, 디바이스
  16. 제 15 항에 있어서,
    상기 복수개의 센서는 카메라, LRF(Laser Range Finder), RGB-D 카메라, 자이로계, 가속도계 및 엔코더(Encoder) 중 적어도 하나를 포함하는 디바이스
  17. 제 15 항에 있어서,
    상기 프로세서는, 그래프 기반 최적화(Graph based optimization) 기법을 이용하여 위치 정보를 획득하는 디바이스
  18. 제 11 항에 있어서,
    상기 환경 정보는 상기 디바이스 주변의 이미지 정보를 포함하는 디바이스
  19. 제 12 항에 있어서,
    상기 프로세서는,
    SLAM(Simultaneous Localization And Map-Building) 기술을 이용하여 상기 위치 정보 및 상기 맵 정보를 획득하는, 디바이스
  20. 제 1 항 내지 제 10 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020140017525A 2014-02-14 2014-02-14 정보 획득 방법 및 디바이스. KR102139667B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140017525A KR102139667B1 (ko) 2014-02-14 2014-02-14 정보 획득 방법 및 디바이스.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140017525A KR102139667B1 (ko) 2014-02-14 2014-02-14 정보 획득 방법 및 디바이스.

Publications (2)

Publication Number Publication Date
KR20150096275A KR20150096275A (ko) 2015-08-24
KR102139667B1 true KR102139667B1 (ko) 2020-07-31

Family

ID=54058819

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140017525A KR102139667B1 (ko) 2014-02-14 2014-02-14 정보 획득 방법 및 디바이스.

Country Status (1)

Country Link
KR (1) KR102139667B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108917761B (zh) * 2018-05-07 2021-01-19 西安交通大学 一种无人车在地下车库中的精确定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008305255A (ja) * 2007-06-08 2008-12-18 Panasonic Electric Works Co Ltd 地図情報作成装置及びそれを備えた自律移動装置
KR100877072B1 (ko) * 2007-06-28 2009-01-07 삼성전자주식회사 이동 로봇을 위한 맵 생성 및 청소를 동시에 수행하는 방법및 장치
JP2014023119A (ja) * 2012-07-23 2014-02-03 Ricoh Co Ltd 位置情報提供装置、及び位置情報設定方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008305255A (ja) * 2007-06-08 2008-12-18 Panasonic Electric Works Co Ltd 地図情報作成装置及びそれを備えた自律移動装置
KR100877072B1 (ko) * 2007-06-28 2009-01-07 삼성전자주식회사 이동 로봇을 위한 맵 생성 및 청소를 동시에 수행하는 방법및 장치
JP2014023119A (ja) * 2012-07-23 2014-02-03 Ricoh Co Ltd 位置情報提供装置、及び位置情報設定方法

Also Published As

Publication number Publication date
KR20150096275A (ko) 2015-08-24

Similar Documents

Publication Publication Date Title
CN110807350B (zh) 用于面向扫描匹配的视觉slam的系统和方法
US20200007855A1 (en) Stereo Correspondence and Depth Sensors
JP6898442B2 (ja) 障害物検出システム及び方法
US20180315007A1 (en) Multimodal localization and mapping for a mobile automation apparatus
KR101781757B1 (ko) 객체 인식을 위한 수중 이미지 처리장치 및 그 방법
CN109059902A (zh) 相对位姿确定方法、装置、设备和介质
US20140153816A1 (en) Depth Map Stereo Correspondence Techniques
JP2015082326A5 (ko)
US11029399B2 (en) System and method for calibrating light intensity
KR101918168B1 (ko) 3차원 계측 방법 및 그 장치
US11983890B2 (en) Method and apparatus with motion information estimation
KR102371617B1 (ko) 차량의 객체 인식 장치 및 방법
CN111536990A (zh) 在传感器之间的在线外参误标定检测
JP2009229226A (ja) 物体検出装置及び物体検出方法
JP2017003363A (ja) 位置推定方法、位置推定装置及び位置推定プログラム
KR20200010506A (ko) 정적 물체의 로케이션을 결정하기 위한 방법 및 장치
US20150134234A1 (en) Apparatus for determining motion characteristics of target and device for controlling driving route of vehicle including the same
US11620846B2 (en) Data processing method for multi-sensor fusion, positioning apparatus and virtual reality device
JP2015141580A (ja) 移動装置
KR102139667B1 (ko) 정보 획득 방법 및 디바이스.
JP2020052977A (ja) 情報処理装置、情報処理方法、およびプログラム
JP2010152787A (ja) 環境地図生成プログラム、環境地図生成方法及び移動ロボット
CN113203424B (zh) 多传感器的数据融合方法、装置及相关设备
KR20200054702A (ko) 격벽구조를 갖는 실내 공간 내에서의 측위 시스템 및 방법
CN111596288B (zh) 测量速度的方法、装置、车载终端和车载测速系统

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right