KR20220066862A - 지오아크를 이용한 2차원 운송수단 국소화 - Google Patents

지오아크를 이용한 2차원 운송수단 국소화 Download PDF

Info

Publication number
KR20220066862A
KR20220066862A KR1020220055874A KR20220055874A KR20220066862A KR 20220066862 A KR20220066862 A KR 20220066862A KR 1020220055874 A KR1020220055874 A KR 1020220055874A KR 20220055874 A KR20220055874 A KR 20220055874A KR 20220066862 A KR20220066862 A KR 20220066862A
Authority
KR
South Korea
Prior art keywords
geoarc
features
reference representation
vehicle
sensor
Prior art date
Application number
KR1020220055874A
Other languages
English (en)
Other versions
KR102526542B1 (ko
Inventor
오츠코 유리
Original Assignee
더 보잉 컴파니
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 더 보잉 컴파니 filed Critical 더 보잉 컴파니
Publication of KR20220066862A publication Critical patent/KR20220066862A/ko
Application granted granted Critical
Publication of KR102526542B1 publication Critical patent/KR102526542B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Automation & Control Theory (AREA)
  • Acoustics & Sound (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

예들은 이미지화된 표면 구성에 대해 운송수단을 국소화하기 위한 방법, 시스템 및 물품을 포함한다. 운송수단을 국소화하는 것은, 표면 구성의 기준 표현에서 특징들의 대응하는 식별된 쌍의 특징을 갖는 운송수단에 의해 지지되는 센서로부터 획득된 이미지에서 특징의 쌍을 선택하는 단계를 포함할 수 있다. 3차원 지오아크는 센서의 화각 및 기준 표현에서 선택된 특징 쌍에 기초하여 발생될 수 있다. 일부 예들에서는, 물리적 표면 구성의 일부분으로부터 멀리 떨어진 운송수단의 알려진 거리에 배치된 지오아크의 선택된 부분이 결정될 수 있다. 선택된 특징 쌍에 대한 지오아크의 선택된 부분이 겹쳐지는 위치가 식별될 수 있다. 일부 예들에서, 기준 표현은 볼륨 요소(보셀)의 3차원 공간에서 정의될 수 있고, 가장 높은 수의 지오아크에 포함된 보셀이 결정될 수 있다.

Description

지오아크를 이용한 2차원 운송수단 국소화 {2D VEHICLE LOCALIZING USING GEOARCS}
상호 참조
다음의 관련 특허가 모든 목적을 위해 그 전체가 본 명세서에 통합되어 있다: "3D-지오아크를 이용한 멀티모달 데이터의 이미지 등록"을 위해 2014년 10월 7일 유리 오츠코(Yuri Owechko)로 발행된 미국 특허 제8,855,442호.
기술분야
본 발명은 운송수단 국소화(vehicle localizing, 운송수단 위치 측정)를 위한 방법, 시스템 및 물품에 관한 것이다. 특히, 개시된 실시예는 물리적 표면 구성의 센서 이미지를 물리적 표면 구성의 기준 표현과 연관시키는 지오아크를 이용하여 운송수단(vehicle)을 국소화하기 위한 시스템 및 방법에 관한 것이다.
GPS(Global Positioning System) 가능 장치는, 이용 가능한 지역 내에서 그러한 장치의 위치를 확인하는 것이 일반적이다. GPS를 사용할 수 없거나 GPS를 사용할 수 없는 위치에 있는 장치의 경우, 장치의 위치를 확인하는 다른 방법이 필요하다. GPS 금지 국소화를 위한 기존의 접근법은 다양한 감지 메커니즘을 이용한다. 예를 들어, 관성 측정 장치(inertial measurement units, IMU)가 유도 미사일로부터 휴대폰에 이르는 범위의 플랫폼에서 구현되었다. 그들의 위치 추정 오차의 본질적인 증가로 인해 상대적으로 짧은 기간 동안 국소화(localization)가 필요한 어플리케이션(application)에 적합하다. 능동 감지 시스템은 국소화를 위해 RF 환경의 장면 및 공간 지도(spatial map)에서 RF 이미터를 사용한다. 이러한 방법은 옥내 사용에 적합하지만, 능동 이미터 패턴의 그러한 지도화(mapping)는 실제적으로 옥외가 아닐 수도 있고 본질적으로는 전환되지 않는다.
수동 카메라 기반 접근법은 이미지 데이터를 처리하여 카메라의 국소화를 수행한다. SLAM(Self Localization and Mapping, 자기 국소화 및 지도화) 시스템은 환경에 대한 3차원(3D) 모델을 생성하고 카메라의 움직임을 이용하여 모델에 대한 카메라 위치를 추정한다. SLAM은 절대 위치 정보를 제공하지 않으며 모델을 3D 지도에 등록하기 위한 별도의 수단을 필요로 한다. 이것은, 특히 2차원(2D) 위치 정보만이 필요한 경우에 다른 방법과 비교해 계산상 복잡하다.
장면 매칭 방법은 카메라 이미지를 대형 데이터베이스의 지오태그(geotag)된 이미지와 매치시킨 다음 카메라의 위치 및 자세(pose)를 추론한다. 이미지 매칭은, 카메라 이미지와 후보 지도 이미지간의 특징 대 특징(feature to feature) 대응관계를 찾아냄으로써 이루어진다. 이러한 방법은 계산상 복잡하며 많은 개별 특징을 매치시킬 필요가 있기 때문에 에러가 발생하기 쉽고 매칭 에러에 민감한다. 상관관계 기반 접근법은 회전, 스케일(scale, 축척), 원근감 및 발광 변화(lighting variations)에 민감하며 비행 경로로부터 큰 변화를 수정할 수 없다. 시맨틱 국소화 방법(Semantic localization method)은 카메라 이미지의 객체(object)를 인식하고 장면을 지도 데이터베이스(map database)에서의 객체와 매치시키기 위해 시맨틱 추론(semantic reasoning)을 사용한다. 이러한 방법은 다른 데이터 세트 및 환경 변화에 걸쳐 지금까지 잘 일반화되지 않은, 특히 3D에서 제한된 공간 정확성을 갖는 인식 방법의 정확성에 의해 제한된다.
본 발명은 이미지화된 표면 구성(imaged surface configuration)에 대해 운송수단의 위치를 확인하거나 국소화하기 위한 방법, 시스템, 물품, 기술 및/또는 해결책의 예를 기술하고 있는데, 이는 운송수단을 국소화하기 위한 다른 기술이 이용 가능하지 않을 때 특히 유용하다. 일부 실시예에서, 공간적 국소화(spatial localization)를 위한 방법은 물리적 표면 구성의 일부분의 이미지를 물리적 표면 구성으로부터 알려진 거리만큼 이격된 위치로부터 획득하고 획득된 이미지의 특징들을 식별하는 단계를 포함한다. 이 방법은, 획득된 이미지의 식별된 특징을 물리적 표면 구성의 일부분의 기준 지도와 같은 기준 표현(reference representation)에서 식별된 특징과 연관시키는 단계 및 기준 표현의 특징들의 대응하는 식별된 쌍들을 갖는 획득된 이미지의 특징들의 복수의 쌍을 선택하는 단계를 더 포함한다. 획득된 이미지의 각각의 선택된 특징 쌍에 대해, 이 방법은 센서로부터의 특징들의 쌍 사이의 화각(angle of view)을 결정하는 단계, 결정된 화각과 기준 표현에서 선택된 특징 쌍을 연관시키는 3차원 지오아크를 발생시키는 단계, 및 물리적 표면 구성의 일부분으로부터 떨어져서 알려진 거리에 배치된 지오아크의 선택된 부분을 결정하는 단계를 포함한다. 이 방법은 또한, 선택된 특징 쌍에 대해 지오아크의 선택된 부분이 겹치는 위치를 식별하는 단계를 포함한다. 겹쳐지는 지오아크의 최대 수를 갖는 위치는 카메라 위치에 대응한다.
일부 실시예에서, 운송수단은 물리적 표면 구성으로부터 알려진 거리만큼 이격된 위치로부터 물리적 표면 구성의 일부분의 이미지를 생성하도록 구성된 센서 및 센서에 통신 가능하게 결합된 데이터 처리 시스템을 포함한다. 데이터 처리 시스템은, 물리적 표면 구성의 일부분의 기준 표현 및 기준 표현에서 식별된 특징들을 저장하고 획득된 이미지의 특징들을 식별하도록 구성된다. 데이터 처리 시스템은, 획득된 이미지의 식별된 특징들을 기준 표현의 식별된 특징들과 연관시키고, 기준 표현의 특징들의 대응하는 식별된 쌍들을 갖는 획득된 이미지의 특징들의 복수의 쌍을 선택하도록 구성된다. 획득된 이미지의 각각의 선택된 특징 쌍에 대해, 데이터 처리 시스템은 센서로부터의 특징들의 쌍 사이의 화각을 결정하고, 결정된 화각과 기준 표현에서 선택된 특징 쌍을 연관시키는 3차원 지오아크를 발생시키며, 물리적 표면 구성의 일부분으로부터 떨어져서 알려진 거리에 배치된 지오아크의 선택된 부분을 결정하도록 구성된다. 데이터 처리 시스템은, 또한 선택된 특징 쌍에 대해 지오아크의 선택된 부분이 겹치는 위치를 식별하도록 구성된다. 겹쳐지는 지오아크의 최대 수를 갖는 위치는 카메라 위치에 대응한다.
일부 실시예에서, 컴퓨터 프로그램 제품은 그와 함께 내장된 컴퓨터 판독 가능 프로그램 명령을 갖는 적어도 하나의 컴퓨터 판독 가능 저장 매체를 포함한다. 프로세서에 의해 실행될 때, 컴퓨터 판독 가능 프로그램 명령은, 물리적 표면 구성의 일부분의 기준 표현 및 기준 표현에서 식별된 특징을 저장하고, 물리적 표면 구성으로부터 알려진 거리만큼 이격된 위치로부터 물리적 표면 구성의 일부분의 센서에 의해 생성된 이미지를 수신 및 저장하도록 프로세서를 구성한다. 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 수신된 이미지의 특징들을 식별하고, 획득된 이미지의 식별된 특징들을 기준 표현의 식별된 특징들과 연관시키며, 기준 표현의 특징들의 대응하는 식별된 쌍들을 갖는 수신된 이미지의 특징들의 복수의 쌍을 선택하도록 프로세서를 더 구성한다. 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 센서로부터의 특징들의 쌍 사이의 화각을 결정하고, 결정된 화각과 기준 표현에서 선택된 특징 쌍을 연관시키는 3차원 지오아크를 발생시키며, 물리적 표면 구성의 일부분으로부터 떨어져서 알려진 거리에 배치된 지오아크의 선택된 부분을 결정하도록 프로세서를 더 구성한다. 컴퓨터 판독 가능 프로그램 명령은 또한, 프로세서에 의해 판독될 때, 선택된 특징 쌍에 대해 지오아크의 선택된 부분이 겹치는 위치를 식별하도록 프로세서를 구성한다. 겹쳐지는 지오아크의 최대 수를 갖는 위치는 카메라 위치에 대응한다.
특징, 기능 및 이점은 본 발명의 각종 실시예에서 독립적으로 달성될 수 있거나, 또는 다른 세부 사항들이 다음의 설명 및 도면들을 참조하여 보여질 수 있는 또 다른 실시예에서 결합될 수 있다.
도 1은 물리적 표면 구성의 표현의 2개의 특징에 기초한 3차원 지오아크의 예이다.
도 2는 기준 평면 및 센서 평면에 대한 3차원 지오아크의 예이다.
도 3은 물리적 표면 형상의 이미지 및 센서의 화각의 예를 도시한 도면이다.
도 4는 물리적 표면 구성의 기준 표현에 대해 기준 평면 및 이동된 센서 평면에서의 지오아크의 부분의 예이다.
도 5는 도 4와 유사하지만 기준 표현에 대해 이동된 센서 평면에서의 3개의 지오아크의 부분을 나타내는 도면이다.
도 6은 이미지 센서를 갖는 운송수단의 위치를 확인하기 위한 일 실시예에 의해 수행되는 동작의 예시이다.
도 7은 이미지 센서를 갖는 운송수단의 위치를 확인하기 위한 일 실시예에 의해 수행되는 동작의 예시이다.
도 8은 섹션들로 분할된 기준 표현의 예시이다.
도 9는 도 8에 나타낸 섹션들에 대한 지오아크의 부분들의 예시이다.
도 10은 이미지 센서를 갖는 운송수단의 위치를 확인하기 위한 일 실시예에 의해 수행되는 동작의 예시이다.
도 11은 3차원 지오아크 및 연관된 변형된 좌표 원점의 예를 도시한 도면이다.
도 12는 지오아크 특징을 나타내는 지오아크의 2차원 슬라이스를 도시한 도면이다.
도 13은 특징 기준 지도를 발생시키기 위한 일 실시예에 의해 수행되는 동작의 예시이다.
도 14는 이미지 센서를 갖는 운송수단의 위치를 확인하기 위한 일 실시예에 의해 수행되는 동작의 예시이다.
도 15는 예시적인 데이터 처리 시스템의 각종 구성 요소의 개략도이다.
도 16은 예시적인 컴퓨터 네트워크 시스템의 개략도이다.
도 17은 위치 획득 운송수단에 대해 운송수단의 위치를 확인하기 위한 실시예를 도시하는 블록도이다.
도 18은 이미지 센서를 갖는 운송수단의 위치를 확인하기 위한 일 실시예에 의해 수행되는 동작의 예시이다.
개요
물리적 표면 구성(physical surface configuration)의 센서 이미지를 물리적 표면 구성의 기준 표현과 연관시키는 지오아크(geoarc)를 이용하여 이미지 센서를 갖는 운송수단의 위치를 찾아내거나 국소화하기 위한 시스템 및 방법의 각종 실시예가 이하에 설명되고 관련 도면에 도시되어 있다. 달리 명시되지 않는 한, 운송수단 국소화 시스템 및/또는 그 각종 구성 요소는 본 명세서에서 설명, 도시 및/또는 포함된 구조, 구성 요소, 기능 및/또는 변형 중 적어도 하나를 포함할 수 있지만 반드시 요구되는 것은 아니다. 더욱이, 본 발명의 교시와 관련하여 본원에서 설명, 도시 및/또는 포함된 구조, 구성 요소, 기능 및/또는 변형은 다른 운송수단 위치 확인 시스템에 포함될 수 있지만 반드시 요구되는 것은 아니다. 다음의 각종 실시예의 설명은 본질적으로 단지 예시적인 것이며 본 발명의 개시, 그 적용 또는 용도를 결코 제한하지 않는다. 추가적으로, 이하에서 설명되는 실시예들에 의해 제공되는 이점은 본질적으로 예시적인 것이며, 모든 실시예들이 동일한 이점 또는 동일한 정도의 이점을 제공하는 것은 아니다.
공간적 국소화 시스템(spatial localization system)은, 하나 이상의 물리적 표면 또는 물리적 표면 요소 또는 특징의 그룹을 포함하는 물리적 표면 구성이 연결되어 있는지 여부와 관계없이 센서가 물리적 표면 구성의 이미지를 생성한 위치로부터 이격된 환경에서 사용될 수 있다. 공간적 국소화의 예는, 옥내 환경, 지구 또는 다른 행성 표면 근처의 옥외 환경, 지구 대기의 위치 및 공간상의 위치를 포함한다. 예를 들어, 우주 정거장에 접근하는 우주선은 공간적 국소화 시스템을 사용할 수 있다. 따라서, 공간적 국소화 시스템은, GPS 신호가 방해를 받거나 걸리거나 스푸핑될 때 GPS 지오로케이션(geolocation)을 보강하거나 대체하기 위한 수동 지오로케이션 방법을 필요로 하는 공중 플랫폼에도 적용 가능한다. 공간적 국소화 시스템은 또한 무인 공중 운송수단(무인 항공기)(unmanned aerial vehicles, UAVs), 미사일 및 군수품을 포함하는 자율적인 공중 플랫폼에도 사용될 수 있다. 공간적 국소화 시스템은 또한 옥내 항법에 사용될 수 있으며, 육상, 수상, 항공 및 우주선 국소화에도 적용된다.
일부 예에서, 공간적 국소화 시스템은 공중 카메라를 사용하여 GPS 금지 조건 하에서 수동 지오로케이션(passive geolocation)을 위한 지오아크 공중 국소화 시스템(geoarc aerial localization system, GALS)으로서 사용될 때 특히 유용할 수 있다. GALS는 지상의 이미지에서의 특징을 검출하고 카메라를 사용하여 그들 사이의 관측된 각도를 측정함으로써 국소화를 수행한다. 지도에서 지도화된 특징 쌍에 측정된 각도 값을 할당함으로써, 토러스(torus)는 직교 좌표계의 x, y 및 z 차원과 같은 3차원에서 카메라의 가능한 위치를 그 표면 상에 있도록 제한하는 3D 지도 공간에 그려질 수 있다. 다른 유형의 좌표계도 사용될 수 있으며, 직교 좌표계와 동등한 것으로 간주된다. 지면 위의 공중 카메라의 높이가 알려진 경우에는, 예를 들어 카메라 위치는 지면과 평행한 카메라 높이에서 평면과 토러스 표면의 교차점에 놓이도록 더 제한될 수 있다. 이 교차점을 지면에 투영함으로써, 2D 지오아크 그림이 지도 상에 그려질 수 있다. 각도 측정에서의 에러로 인한 국소화의 불확실성은 0이 아닌 두께의 2D 지오아크를 이용하여 나타낼 수 있다. 간단한 덧셈을 이용하여 다수의 2D 지오아크로부터 추가적인 제약 조건을 축적함으로써, 카메라 위치 및 자세를 보다 정확하게 예측할 수 있다.
GALS에서의 지오아크의 축적은, 더 많은 각도가 측정되고 특징 쌍을 지도화하도록 할당됨에 따라 실제 위치에서 신호를 작성하는 동안 지도상의 각도 특징 쌍 불일치로 인한 에러의 영향을 분산시키는 "매치된 위치 확인 필터(matched location filter)"와 같은 역할을 한다. 이것은, GALS가 기능 매칭 시의 에러에 대해 매우 강력하게 만들고 특징 쌍 할당에 가능한 모든 각도의 철저한 검색에 대한 필요성을 회피한다. GALS는 또한 국소화 정확도와 신뢰성의 지속적인 업데이팅을 제공한다. 낮은 비율의 올바른 이미지-지도 특징 대응관계는 여전히 높은 정확도의 국소화를 초래할 수 있다. 게다가, SIFT(Scale-Invariant Feature Transform)나 SURF(speeded up robust features)와 같은 기존의 스케일 및 회전 불변 기능을 이용함으로써, GALS 국소화 프로세스는 또한 스케일 및 회전 불변성을 가지며 강건성 및 처리 속도도 향상시킨다.
GALS 프레임워크는, 휴대 전화 및 태블릿용으로 개발된 것과 같은 멀티 코어 그래픽 칩을 이용하여 작은 크기, 낮은 무게 및 전력으로 구현될 수 있는 그래픽 동작(graphic operation)을 사용할 수 있다. 지도를 타일로 나누고 각 타일을 별도의 코어에 할당함으로써, 각 지도 타일이 다른 타일과 독립적으로 처리될 수 있기 때문에 (예를 들어 이전 위치에 대한 지식이 없는) "드롭 인(dropped-in)" 국소화의 스피드업(speedup)이 코어의 수에 있어서 선형이 된다.
일부 예에서, 3D 공간적 국소화 시스템은 카메라에 의해 관찰되는 객체의 특징들 사이에서 측정된 각도를 이용하여 3D 객체에 대한 3D 공간에서의 카메라의 위치 및 자세를 결정하는데 사용될 수 있다. 시각적 특징은 3D 공간의 임의의 위치에 있을 수 있으며 비행기에 국한될 필요는 없다. 지도에서 지도화된 특징 쌍에 측정된 각도 값을 할당함으로써, x, y 및 z 좌표 공간에서 카메라의 가능한 위치가 표면에 있도록 제한하는 3D 지도 공간에 스핀들 토러스를 그릴 수 있다. 각도 측정에서의 에러로 인한 국소화의 불확실성은 3D 지오아크의 0이 아닌 두께로 표현될 수 있다. 특징의 쌍과 연관된 다수의 3D 지오아크로부터 추가적인 제약 조건을 축적함으로써, 3D에서의 카메라의 위치 및 자세를 정확도를 높여 평가할 수 있다. 3D 공간을 보셀(voxel)로 나누고 3D 지오아크의 겹침(overlap, 중첩)을 나타내기 위해 모집단 함수(population function)를 이용함으로써, 카메라의 위치 및 자세를 효율적으로 결정할 수 있다. 이 해결책은 이미지 센서를 갖는 운송수단의 고도(altitude)가 알려지지 않은 경우에 특히 유용하다.
3D 지오아크의 축적은, 3D 공간에서의 각도-특징 쌍 불일치로 인한 에러의 영향을 확산시키는 동시에 더 많은 각도가 측정되어 객체 특징 쌍에 할당되는 것과 같은 카메라 위치에서 신호를 생성하는 3D 위치 매치 필터라고 불리는 것을 구현 한다. 이것은, 3D 지오아크가 특징 매칭의 에러에 대해 매우 강력해지고 가능한 모든 각도 대 특징 쌍 할당의 철저한 검색의 필요성을 회피하도록 만든다. 3D 지오아크의 사용은 또한, 국소화 정확성 및 신뢰성(confidence)의 지속적인 업데이팅을 제공한다. 게다가, SIFT 또는 SURF와 같은 스케일(scale, 축척) 및 회전 불변성 특징을 사용함으로써, 완전한 3D 국소화 프로세스는 견고성 및 처리 속도도 향상시키는 스케일 및 회전 불변성이다.
3D 공간적 국소화 시스템은 3D 포인트(point)가 3D 지오아크 내부인지 외부인지에 대한 결정을 포함할 수 있는데, 이 결정은 휴대 전화 및 태블릿용으로 개발된 것과 같은 멀티 코어 그래픽 칩을 사용하여 작은 크기, 낮은 무게 및 전력으로 그리고 병렬로 구현될 수 있다. 이러한 공간적 국소화 시스템은, 공간에서 3D 객체 주위에 도킹하거나 탐색할 필요가 있는 우주 플랫폼뿐만 아니라, GPS가 사용 가능하지 않거나 충분히 정확하지 않은 3D 객체 및 환경을 탐색할 필요가 있는 UAV, 미사일 및 배회하는 포탄(loitering munition)을 포함하는 자율적인 공중 플랫폼에 대해 사용될 수 있다. 3D 공간적 국소화 시스템은 또한, 예를 들어 휴대전화 카메라를 사용하여 옥내 또는 옥외 탐색을 위해 사용될 수 있다.
공간적 국소화 시스템의 태양(aspect)은, 컴퓨터 방법, 컴퓨터 시스템 또는 컴퓨터 프로그램 제품으로서 구체화될 수 있다. 따라서, 공간적 국소화 시스템의 태양은 완전히 하드웨어 실시예, 완전히 소프트웨어 실시예(펌웨어, 상주 소프트웨어, 마이크로 코드 등을 포함함), 또는 소프트웨어 및 하드웨어 태양을 결합한 실시예의 형태를 취할 수 있으며, 이들 모두는 본 명세서에서 일반적으로 "회로(circuit)", "모듈(module)" 또는 "시스템(system)"으로서 지칭될 수 있다. 더욱이, 공간적 국소화 시스템의 태양은 그것에 대해 구체화된 컴퓨터 판독 가능 프로그램 코드/명령을 갖는 컴퓨터 판독 가능 매체(또는 미디어)로 구현된 컴퓨터 프로그램 제품의 형태를 취할 수 있다.
컴퓨터 판독 가능 매체의 임의의 조합이 이용될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터 판독 가능 신호 매체 및/또는 컴퓨터 판독 가능 저장 매체일 수 있다. 컴퓨터 판독 가능 저장 매체는, 전자, 자기, 광, 전자기, 적외선 및/또는 반도체 시스템, 장치 또는 소자, 또는 이들의 임의의 적절한 조합을 포함할 수 있다. 컴퓨터 판독 가능 저장 매체의 보다 구체적인 예는 다음의 것을 포함할 수 있다: 하나 이상의 와이어를 갖는 전기적 접속, 휴대용 컴퓨터 디스켓, 하드 디스크, 랜덤 액세스 메모리(random access memory, RAM), 판독 전용 메모리(read-only memory, ROM), 소거 가능한 프로그램 가능 판독 전용 메모리(erasable programmable read-only memory, EPROM 또는 플래시 메모리), 광섬유, 휴대용 콤팩트 디스크 판독 전용 메모리(portable compact disc read-only memory, CD-ROM), 광학 저장 장치(optical storage device), 자기 저장 장치(magnetic storage device) 및/또는 이들 및/또는 이와 유사한 것의 임의의 적절한 조합일 수 있다. 이 발명의 문맥에서, 컴퓨터 판독 가능 저장 매체는 명령 실행 시스템, 장치 또는 소자에 의해 또는 그와 관련하여 사용하기 위한 프로그램을 포함하거나 저장할 수 있는 임의의 적절한 유형(tangible)의 매체를 포함할 수 있다.
컴퓨터 판독 가능 신호 매체는, 예를 들어 기저대역(baseband)에서 또는 반송파의 일부로서 구현된 컴퓨터 판독 가능 프로그램 코드를 갖는 전파된 데이터 신호를 포함할 수 있다. 이러한 전파된 신호는, 전자기, 광학 및/또는 이들의 임의의 적절한 조합을 포함하지만 이에 한정되지 않는 다양한 형태 중 임의의 것을 취할 수 있다. 컴퓨터 판독 가능 신호 매체는, 컴퓨터 판독 가능 저장 매체가 아니며 명령 실행 시스템, 장치 또는 소자에 의해 또는 그와 관련하여 사용하기 위한 프로그램을 통신, 전파 또는 전송할 수 있는 임의의 컴퓨터 판독 가능 매체를 포함할 수 있다.
컴퓨터 판독 가능 매체 상에 구현된 프로그램 코드는 무선, 유선, 광섬유 케이블, RF 및/또는 이와 유사한 것, 및/또는 이들의 임의의 적절한 조합을 포함하지만 이에 한정되지 않는 임의의 적절한 매체를 사용하여 송신될 수 있다.
공간적 국소화 시스템의 태양에 대한 조작을 수행하기 위한 컴퓨터 프로그램 코드는, 자바, 스몰토크(Smalltalk), C++ 및/또는 이와 유사한 객체 지향 프로그래밍 언어 및 C 프로그래밍 언어와 같은 종래의 절차적 프로그래밍 언어를 포함하는 프로그래밍 언어들 중 하나 또는 임의의 조합으로 기록될 수 있다. 프로그램 코드는, 완전히 사용자의 컴퓨터에서, 부분적으로 사용자의 컴퓨터에서, 독립 실행형 소프트웨어 패키지로서, 부분적으로 사용자의 컴퓨터에서 그리고 부분적으로 원격 컴퓨터에서, 또는 완전히 원격 컴퓨터 또는 서버에서 실행될 수 있다. 후자의 시나리오에서, 원격 컴퓨터는 근거리 통신망(local area network, LAN) 또는 광역 통신망(wide area network, WAN)을 포함하는 임의의 유형의 네트워크를 통해 사용자의 컴퓨터에 접속될 수 있거나, 및/또는 접속은 (예를 들어 인터넷 서비스 프로바이더를 이용한 인터넷을 통해) 외부 컴퓨터에 대해 이루어질 수 있다.
공간적 국소화 시스템의 태양은, 방법, 장치, 시스템 및/또는 컴퓨터 프로그램 제품의 플로우차트 도면 및/또는 블록도를 참조하여 이하에서 설명된다. 플로우차트 및/또는 블록도에서 각 블록 및/또는 블록들의 조합은 컴퓨터 프로그램 명령에 의해 구현될 수 있다. 컴퓨터 프로그램 명령은, 컴퓨터 또는 다른 프로그램 가능한 데이터 처리 장치의 프로세서를 통해 실행되는 명령들이 플로우차트 및/또는 블록도 블록 또는 블록들에서 특정된 기능/동작을 구현하기 위한 수단을 생성하도록, 머신(machine, 기계)을 생성하기 위해 범용 컴퓨터, 특수 목적 컴퓨터 또는 다른 프로그램 가능한 데이터 처리 장치의 프로세서에 제공될 수 있다.
이들 컴퓨터 프로그램 명령은 또한, 컴퓨터 판독 가능 매체에 저장된 명령이 플로우차트 및/또는 블록도 블록 또는 블록들에서 특정된 기능/동작을 구현하는 명령들을 포함하는 제조 물품을 생성하도록, 컴퓨터, 다른 프로그램 가능한 데이터 처리 장치 및/또는 특정 방식으로 기능하기 위한 다른 장치에 지시할 수 있는 컴퓨터 판독 가능 매체에 저장될 수 있다.
컴퓨터 프로그램 명령은 또한, 컴퓨터 또는 다른 프로그램 가능한 장치에서 실행되는 명령들이 플로우차트 및/또는 블록도 블록 또는 블록들에서 특정된 기능/동작을 구현하기 위한 프로세스들을 제공하도록, 일련의 동작 단계가 컴퓨터 구현 프로세스를 생성하기 위한 장치에서 수행되도록 하기 위해 컴퓨터 또는 다른 프로그램 가능한 데이터 처리 장치 및/또는 다른 장치로 로드될 수 있다.
도면의 임의의 플로우차트 및/또는 블록도는, 공간적 국소화 시스템의 태양에 따른 시스템, 방법 및 컴퓨터 프로그램 제품의 가능한 구현의 아키텍처, 기능 및/또는 동작을 설명하기 위한 것이다. 이와 관련하여, 각각의 블록은 명시된 논리 기능(들)을 구현하기 위한 하나 이상의 실행 가능 명령을 포함하는 모듈, 세그먼트 또는 코드의 일부분을 나타낼 수 있다. 일부 구현에서는, 블록에서 언급된 기능들은 도면에서 언급된 순서를 벗어나 발생할 수 있다. 예를 들어, 연속적으로 도시된 2개의 블록은 사실상 실질적으로 동시에 실행될 수 있거나, 그 블록들은 관련된 기능에 따라 때때로 역순으로 실행될 수도 있다. 각 블록 및/또는 블록들의 조합은 명시된 기능 또는 동작을 수행하는 특수 목적 하드웨어 기반 시스템(또는 특수 목적 하드웨어와 컴퓨터 명령의 조합)에 의해 구현될 수 있다.
정의
본 명세서에서 사용되는 지오아크(geoarc)는, 물리적 표면 구성의 성격이 지리적인지 여부에 관계없이, 물리적 표면 구성의 기준 표현에서 결정된 화각(angle of view)과 선택된 특징 쌍을 연관시키는 수학적 모델을 지칭한다. 본 명세서에서 사용되는 예시적인 지오아크는, 공통의 화각 또는 화각 범위를 갖는 공간에서 2개의 포인트를 보는 포인트의 궤적(locus)을 나타내는 표면 또는 체적을 갖는 자기 교차 또는 스핀들 토러스(a self-intersecting or spindle torus)이다.
· 예, 구성 요소 및 변형례
다음 섹션은 예시적인 공간적 국소화 시스템 및/또는 방법의 선택된 태양을 설명한다. 이들 섹션의 예는 설명을 위한 것이며, 본 발명의 전체 범위를 제한하는 것으로 해석되어서는 안된다. 각 섹션은 하나 이상의 구별되는 발명 및/또는 상황별 또는 관련 정보, 기능 및/또는 구조를 포함할 수 있다.
예 1:
지오아크 국소화 시스템(Geoarc Localization System, GALS)에서 구체화될 수 있는 공간적 국소화의 방법의 첫 번째 예는, 이미지에서 검출된 특징들 사이에서 관찰된 각도를 이용하여 카메라와 같은 이미지 센서를 갖는 운송수단의 위치를 찾아내기 위해 이미지를 사용한다. 이 각도는, 이미지의 특징의 위치에 대한 시야와 같은 카메라 파라미터로부터 결정된다. 이미지의 두 특징 사이의 거리는, 그것들 사이의 관찰된 각도와 직접적인 관계를 가진다. 측정된 각도를 지도화된 특징 쌍에 할당하면, 도 1에 도시된 바와 같이 자기 교차 또는 스핀들 토러스(100)의 표면 상에 있을 수 있는 월드 좌표에서 카메라의 가능한 (x, y, z) 좌표 위치가 제한된다. 토러스(100)는 물리적 표면 구성(106)의 적어도 일부의 기준 표현으로 식별되는 2개의 식별된 특징(102, 104)의 위치로부터 발생된다. 기준 표현은 물리적 표면 구성 또는 물리적 표면 구성의 일부분의 저장된 기준 지도 또는 모델일 수 있거나, 또는 물리적 표면 구성 또는 물리적 표면 구성의 일부분의 저장된 기준 이미지일 수 있다. 이 예에서, 기준 표현에 포함된 물리적 표면 구성(106)의 일부분뿐만 아니라 물리적 표면 구성(106)의 일부분의 센서 이미지는 제1 특징(102)을 형성하는 코너를 갖는 빌딩(108)을 포함한다. 빌딩(108)은 제2 특징(104)을 갖는 다른 빌딩 또는 대륙(land mass)과 같은 구조물(110) 상에 지지된다. 이러한 물리적 구조는 공통 물리적 구조의 구성 요소일 수도 있고 그렇지 않을 수도 있다.
물리적 표면 구성(106)으로부터 이격된 운송수단(116)에 의해 지지되는 카메라(112) 또는 다른 이미지 센서(114)는 물리적 표면 구성(106)의 센서 이미지를 생성한다. 물리적 표면 구성(106)의 기준 표현은, x, y 및 z축을 갖는 일반적인 좌표 원점(118)에 대한 특징의 좌표를 포함하는 기준 표현에서 식별되는 물리적 표면 구성(106)의 물리적 특징과 함께 시스템 메모리에 저장된다. 특징 쌍을 형성하는 물리적 특징(102, 104)의 위치는, 각각 (x1, y1, z1) 및 (x2, y2, z2)로서 식별된다. 특징(102, 104) 사이에서 연장되는 라인 상의 중심 포인트(center point, 중심점)는 (xc, yc, zc)로서 식별된다.
카메라(112)는 시야(field of view; 120)를 갖는다. 카메라(112)에 의해 생성된 센서 이미지에 있어서, 물리적 특징(102, 104)은 화각 θ만큼 분리될 수 있다. 토러스(100)는 도 1에서 간헐적인 라인에 의해 도시된 연속적인 표면(122)을 가짐을 알 수 있을 것이다. 토러스 표면(122) 상의 각각의 포인트는 동일한 화각(θ)을 가지며, 그에 따라 물리적 표면 구성(106)에도 불구하고 카메라(112) 및 운송수단(116)의 모든 가능한 위치를 형성한다.
예 2:
스핀들 토러스의 형태의 지오아크(200)의 두 번째 예가 도 2에 도시되어 있다. 지오아크(200)는 기준 평면(ground plane; 208) 상에 배치된 지표면(earth surface)과 같은 물리적 표면 구성(206)의 적어도 일부분의 기준 표현 및 센서 이미지 상에서 식별되는 2개의 특징(202, 204)의 위치로부터 발생된다. 이 시나리오는, 기준 평면(208) 상의 알려진 높이(H)에서 공중 플랫폼 또는 다른 운송수단(211) 상에 배치된 카메라(210)에 대응한다. 지오아크(200)는 특징(202, 204) 사이의 라인 상의 중심 포인트에 원점(212)을 갖는 좌표계에 의해 정의된다. 이 토러스-기반 좌표계에 의해, x'축은 특징(202, 204) 사이의 라인 상에 놓이고, y'축은 x'축에 수직인 기준 평면(208)에서 수평으로 연장되며, z'축은 기준 평면으로부터 떨어져서 수직으로 연장된다.
따라서, 카메라 및 운송수단 위치는 높이 z'= H에서 지오아크(200)와 함께 배치된 센서 평면(214)의 교차점에 놓이도록 제한된다. 센서 평면(214)은 기준 평면에 평행하고 카메라 및 운송수단 높이에 있다. 높이 H = 0에서, 센서 평면(214)은 기준 평면(208)과 동일한 평면이다. 이 교차점은 나선형 곡선(spiric curve; 216)이다. 나선형 곡선(216)은 지오아크(200)의 일부이며, 물리적 표면 구성(206)의 기준 표현 상의 특징(202, 204)의 위치 및 카메라(210)에 의해 보여지는 바와 같은 특징(202, 204) 사이의 화각 θ에 기초하여 분석적으로 표현된다. 따라서, 카메라(210) 및 운송수단(211)의 위치의 결정은 나선형 곡선(spiric curve; 216) 상의 위치로 한정된다.
도 3 내지 도 5는 프로세스를 도표로 나타낸다. 도 3은 센서 이미지(300) 상의 랜드마크로부터 식별된 특징(302, 304)을 도시하는 센서 이미지(300)의 예시이다. 센서 이미지(300)는 기준 평면 위의 높이(H)에서 운송수단 상의 카메라(306)에 의해 보여지는 바와 같은 화각(θ)을 나타낸다.
도 4는 도 3의 센서 이미지(300)로서 이미지화된 물리적 표면 구성의 기준 표현(reference representation; 400)을 나타낸다. 이 예에서, 기준 표현(400)은 또한 센서 이미지(300)에도 도시된 특징들을 나타내는 기준 지도(reference map; 402)이다. 기준 지도(402)는 도 3에 도시된 특징(302, 304)에 대응하는 특징(404, 406)을 갖는다. 특징(404, 406)을 포함하는 기준 평면 2D 지오아크(408)는 도면의 평면에서 기준 지도(402)에 의해 표현된 기준 평면(410)에 배치된다. 지오아크(408)는, 카메라(412)를 지지하는 운송수단(411)이 기준 평면(410)의 물리적 표면 구성 상에 배치되고 카메라(412)가 화각 θ를 갖는 경우의 지오아크를 나타낸다.
그러나, 운송수단(411) 및 카메라(412)가 높이(H)에 배치되었기 때문에, 기준 평면(410) 상으로 이동된 카메라 위치는 지오아크(408) 상에 놓이지 않는다. 센서 평면의 나선형 곡선(414)을 기준 평면(410) 상으로 투영함으로써, 도 2의 토러스(200)를 참조하여 설명되는 바와 같이, 센서 평면 2D 지오아크(416)가 기준 평면(410) 상에 형성된다. 지오아크(416)의 형상, 크기 및 방위는 기준 지도(402)상의 특징 쌍(404, 406)의 위치, 지면 위의 카메라 높이(H) 및 특징(404, 406) 사이의 관찰된 각 θ에 의해 결정된다. 기준 평면(410) 상의 나선형 곡선(414)의 투영은 (기준 평면(410)상의) (x', y')에서의 가능한 카메라 위치들의 세트이며, 이에 따라 기준 평면(402) 상의 센서 평면 2D 지오아크(416)를 정의한다. 2차원 표현이 참 화각(true angle of view) θ의 정확한 표현이 아니기 때문에, 화각 θ는 지오아크(416)에 대한 화각 θ'로서 도시된다. 각도 측정의 에러로 인한 국소화의 불확실성은 2D 지오아크(408, 416)의 0이 아닌 두께에 의해 표현된다.
도 5는 이동된 센서-평면 지오아크(416)뿐만 아니라 식별되지 않은 다른 특징 쌍들에 기초하여 발생된 2개의 추가적인 이동된 센서-평면 지오아크(418, 420)를 갖는 기준 지도(402)를 도시한다. 다수의 지오아크의 합계는, 도 2에서 도시된 바와 같이, 운송수단과 카메라의 위치를 결정한다. 추가적인 이동된 2D 지오아크를 축적함으로써, 이동된 카메라/운송수단 위치(422)는 증가하는 정확도 및 신뢰도로 결정될 수 있다. 즉, 도시된 3개의 지오아크가 모두 위치(422)에서만 동시에 겹쳐진다. 따라서, 가장 높은 수의 지오아크에 존재하는 3개의 지오아크(416, 418, 420) 상의 위치를 결정함으로써, 이동된 카메라/운송수단 위치(422)가 식별된다. 실제 카메라 위치는 이동된 카메라/운송수단 위치(422)보다 높은 높이(H)이다.
따라서, 각각의 특징 쌍 각도를 다수의 지도 특징 쌍에 할당함으로써, 카메라/운송수단 위치(422)는 다수의 토리(tori)의 교차점에 있도록 제한된다. 각 토러스(torus)는 각도 측정 및 지도 특징 위치의 불확실성으로 인해 0이 아닌 표면 두께를 가지므로 교차점은 실제로 작은 2D 볼륨이다. 모든 각도가 지도 특징 쌍과 정확하게 매치되면, 3개의 특징으로부터 형성된 3개의 특징 쌍은 카메라를 국소화하기에 충분한다. 그러나, 특징 위치 및 각도가 매우 가변적일 수 있기 때문에, 더 많은 특징 쌍을 사용함으로써 국소화 정확도를 향상시킨다. 다수의 토리의 3D 교차점을 찾아내는 것은, 현대의 그래픽 프로세서에서 효율적으로 수행될 수 있지만, 고도계나 레이저 거리 측정기(laser range finder)와 같은 다른 센서를 사용하여 지면 위의 카메라 높이 H를 측정하는 것에 의해 높이 또는 z 치수를 제거함으로써 계산상의 부하를 크게 줄일 수 있다. 이러한 처리는 3D가 아닌 2D로 수행된다.
각각의 지오아크(416, 418, 420) 내의 기준 표현(400)의 모든 픽셀을 1의 값과 같은 고정된 값으로 할당하고 지오아크(416, 418, 420)에 의해 기여된 값을 가산함으로써, 위치 신호 피크가 카메라/운송수단 위치(422)에서 빌드업(buildup)된다. 지오아크 위치(424)에서와 같은 위치 "잡음"을 발생시키는 우연한 겹침도 또한 발생할 수 있지만, 그러한 겹침의 확률은 겹침 값에 따라 급속히 감소한다. 각 지오아크는 가능한 카메라/운송수단 위치 집합에 대한 증거를 제공하며 겹침의 정도는 위치에 대한 신뢰도의 척도이다.
예 3:
센서(114) 또는 카메라(112, 210, 306, 또는 412)와 같은 이미지 센서를 갖는 운송수단(116)과 같은 운송수단의 공간적 위치를 결정하기 위한 방법(600)의 예가 도 6에 도시되어 있다. 도 6은 예시적인 방법에서 공간적 국소화 시스템의 일 실시예에 의해 수행되는 동작을 설명하는 플로우차트이며, 방법의 완전한 프로세스 또는 모든 단계를 나열하지 않을 수도 있다. 방법(600)의 각종 단계들이 이하에서 설명되고 도 6에 도시되지만, 단계들은 모두 반드시 수행될 필요는 없고, 어떤 경우에는 도시된 순서와 다른 순서로 수행될 수도 있다. 방법(600)은 운송수단을 국소화하기 위한 다른 기술들이 이용 가능하지 않을 때 특히 유용하다.
방법(600)은, 단계(602)에서 물리적 표면 구성(106, 206)으로부터 알려진 거리(H)만큼 이격된 위치(422)로부터 물리적 표면 구성(106, 206)의 일부분의 이미지(300)를 카메라(112, 210, 306 또는 412)와 같은 센서(114)로부터 획득하는 것을 포함한다. 획득된 이미지(300)의 특징(302, 304)은 단계(604)에서 식별된다. 이 방법은, 단계(606)에서 획득된 이미지(300)의 식별된 특징(302, 304)을 물리적 표면 구성(106, 206)의 일부분의 기준 표현(400, 402)에서 식별된 특징(404, 406)과 연관시키는 단계를 더 포함한다. 기준 표현의 특징들(404, 406)의 대응하는 식별된 쌍들을 갖는 획득된 이미지(300)의 특징들(302, 304)의 복수의 쌍이 단계(608)에서 선택된다. 단계(610)에서 초기의 특징 쌍이 선택된다. 획득된 이미지(300)의 각각의 선택된 특징 쌍에 대해, 이 방법은 단계(612)에서 센서(카메라(306))로부터의 특징(302, 304)의 쌍 사이의 화각 θ를 결정하는 것, 단계(614)에서 결정된 화각 θ와 기준 표현(400)의 선택된 특징 쌍(404, 406)을 연관시키는 3차원 지오아크를 발생시키는 것, 및 단계(616)에서 지오아크(200)의 나선형 곡선(216) 또는 물리적 표면 구성(106, 206)의 일부분으로부터 알려진 거리(H)만큼 떨어진 위치에 배치된 센서-평면 지오아크(416, 418, 420)와 같은 선택된 부분을 결정하는 것을 포함한다. 단계(618)에서는, 다른 선택된 특징 쌍이 존재하는지 여부의 결정이 행해된다. 만일 존재한다면, 단계 610, 612, 614 및 616이 반복된다. 이 방법은 또한, 단계(620)에서 선택된 특징 쌍에 대한 지오아크(416, 418, 420)의 선택된 부분이 겹쳐치는 위치(422, 424)를 식별하는 것을 포함한다.
각 픽셀에 대해 가산된 지오아크 값의 피크 값에 위치되는 픽셀 값에 의해 표현되는 국소화 신호(Sloc)는,
Sloc = Nc = mv(mv - 1)/2
의 값을 갖는다.
Nc는 기준 표현의 픽셀에서 겹쳐지는 지오아크의 수이다. mv는 카메라 이미지(300)에서 검출된 유효한 특징(302, 304)의 수로서, 예를 들어 기준 지도(402)에 있는 특징(404, 406)이고 정확하게 할당된 특징 쌍 각도 θ를 갖는 특징 쌍의 멤버이다. Nc 지오아크가 임의의 위치에서 우연히 겹쳐지는 확률은 부분적인 지오아크 영역의 곱이다:
Figure pat00001
여기서 L2은 L x L 지도의 영역이고, An은 지오아크 n의 영역이다. Pc는 Nc에 따라 급속히 감소하는 반면, 국소화 신호 Sloc는 Nc에 따라 선형적으로 증가하고 유효한 특징의 수에 따라 2차식으로(quadratically) 증가한다.
50개의 무작위로 분포된 특징이 카메라 이미지에서 검출된 다음, 지도 특징과 정확하게 매칭되고 정확하게 할당된 각도 측정을 갖는 특징 쌍의 멤버의 수 mc를 변화시키는 시뮬레이션이 수행되었다. Sloc는 50개의 특징 중 12개만이 정확하게 할당되고 높은 결과적인 신호 대 잡음비가 있더라도 Snoise보다 더 큰 것으로 나타났다. 따라서, 방법(600)은 특징 검출, 매칭 및 각도 할당에 실질적인 에러가 있을 때 신뢰할 수 있는 결과를 생성한다. 지오아크의 작은 부분이 유효하면 국소화 신호 Sloc가 그러한 에러들로 인해 잡음 신호 Snoise를 초과하기 때문에 허용 가능하다.
예 4:
일부 예에서는, 지도 특징 데이터베이스의 분할(division, 구획)로의 세분화는 계산상의 부하를 감소시키고 멀티 코어 프로세서를 사용하여 효율적인 병렬 처리를 가능하게 한다. 도 7은 카메라(306, 412)와 같은 이미지 센서를 갖는 운송수단(116, 411)과 같은 운송수단을 공간적으로 국소화하는, 일반적으로 단계(600)로 도시된 공간적 국소화 방법(600)의 일례로서 GALS 방법(700)의 일례를 나타낸다. 도 7은 예시적인 방법에서 공간적 국소화 시스템의 일 실시예에 의해 수행되는 동작을 설명하는 플로우차트이며, 방법의 완전한 프로세스 또는 모든 단계를 나열하지 않을 수도 있다. 방법(700)의 각종 단계들이 이하에서 설명되고 도 7에 도시되지만, 단계들은 모두 반드시 수행될 필요는 없고, 어떤 경우에는 도시된 순서와 다른 순서로 수행될 수도 있다. 방법(600)과 마찬가지로, 방법(700)은 운송수단을 국소화하기 위한 다른 기술들이 이용 가능하지 않을 때 특히 유용하다.
방법(700)은, 단계(702)에서 물리적 표면 구성의 일부분의 카메라 이미지(300)를 획득하는 것을 포함한다. 예를 들어, 카메라(112, 306, 412)는 유인 또는 무인 공중 운송수단(unmanned aerial vehicle, UAV), 드론(drone, 무인 항공기) 또는 다른 유형의 항공기와 같은 플랫폼 아래의 지면의 센서 이미지(300)를 생성하는 공중 카메라일 수 있고, 고도계 또는 능동형 거리 측정기(active range-finder)는 지면 위의 카메라(112, 306, 412)의 높이를 결정하는데 사용된다. 다른 예에서, 카메라(112, 306, 412)는 보트, 선박 또는 다른 워터크래프트(watercraft)와 같거나, 또는 자동차, 트럭, ATV(all-terrain-vehicle) 또는 다른 육상 운송수단과 같은 다른 유형의 운송수단에 장착될 수 있다.
방법(700)은 또한, 단계(704)에서 카메라 이미지(300)의 특징(302, 304)을 검출 또는 식별하는 것, 및 단계(706)에서 특징 쌍에 대한 화각(θ)을 측정함으로써 결정하는 것을 포함한다. 특징을 매칭할 때 관련된 치수로의 검색을 제한하는 것을 용이하게 하기 위해 특징은 스케일 및 회전 불변인 것이 바람직하다. 위에서 언급한 SIFT 특징과 같은 다수의 그러한 특징 검출 방법이 개발되었다.
카메라 이미지(300)에서 이미지화된 물리적 표면 구성의 일부분을 포함하는 물리적 표면 구성의 기준 지도(402)는 타일이라 지칭되는 분할들(divisions)로 분할된다. 일부 예에서, 분할들은 카메라(306)의 시야보다 작은 영역에 대응한다. 기준 지도(802)의 일부(800)를 분할하는 예가 도 8에 도시되어 있다. 이 예에서, 지도 부분(800)은 9개의 분할 또는 타일(804)로 분할된다. 타일(804)은 도시된 바와 같이 타일(804A∼804I)을 포함한다.
타일(804)은 겹침 또는 간극(gap) 없이 지도화된 영역(800)을 커버하는 것이 바람직하다. 각각의 타일에 포함된 특징들의 리스트는 각각의 타일들(804A∼804I)과 연관되어 저장된다. 복수의 프로세서 코어의 각각은 각각의 할당된 타일에 대한 프로세스를 수행하는데 사용될 수 있다. 예를 들어, 지도 타일(804E)은 기준 지도(802)을 저장하는 데이터베이스로부터 단계(708)에서 선택된다. 선택된 타일(804E)뿐만 아니라 타일(804E)의 영역을 넘어 연장되는 확장 영역(806)에 존재하는 특징들의 연관된 리스트도 또한 단계(710)에서 데이터베이스로부터 선택된다. 도 8에서 점선으로 나타낸 바깥 경계를 갖는 확장 영역(806)은, 예를 들어 카메라(306, 412)의 시야에 대응할 수 있다. 각각의 확장된 영역(806)은 바람직하게는 영역(804E) 위의 카메라로부터 볼 수 있는 특징을 포함한다. 이 예에서, 확장된 영역(806)은 타일(804E)뿐만 아니라 타일(804A∼804D 및 804F∼804I)의 부분을 포함한다. 타일(804E)의 영역 및 확장된 영역(806)을 형성하기 위한 다른 타일 영역과의 겹침은 기준 지도(802)에서의 특징의 지형 및 분포에 따라 달라질 수 있다.
그 다음에, 지도 특징 쌍은 단계(712)에서 카메라 이미지(300)에서 식별된 특징 쌍과 매칭되거나 그렇지 않으면 연관된다. 그 후, 단계(714)에서 처리를 위해 특징 쌍이 선택된다. 각각의 프로세서 코어는 식별된 특징들에 대해 측정된 특징 쌍 화각 θ를 수신한다. 그 후, 양호한 국소화를 제공하지 못할 가능성이 있는 특징 쌍 - 각도 조합이 필터링되어 제거된다. 지오아크 불확실성은 이들 값에 의존하기 때문에 필터링은 기준 지도(402)의 특징 쌍의 각도 값 및 위치를 이용하여 수행될 수 있다.
그 후, 잔존하는 지도 특징 쌍 위치와 각도 및 카메라 높이가 단계(716)에서 지도 타일(804E)의 지오아크(416, 418, 420)를 계산하기 위해 사용된다. 그 다음에, 단계(718)에서 각각의 픽셀이 있는 지오아크의 수를 결정한 다음, 가장 높은 수의 지오아크를 갖는 픽셀 또는 픽셀들이 결정된다. 카메라와 운송수단 위치는 최대 지오아크 겹침의 위치에 의해 부여된다. 도 9는 도 8의 타일(804A∼804I)에 대응하는 분할(904A∼904I)의 각각에 대해 발생된 지오아크의 세그먼트(900)의 예를 도시한다. 지오아크 겹침의 가장 높은 수는, 기준 지도(802) 상의 이동된 카메라 및 운송수단 위치에 대응하는 지도 위치(906)에 있다.
GALS 처리 시간은, 타일이 동시에 그리고 독립적으로 처리될 수 있기 때문에, 프로세서 수에 반비례하여 다수의 프로세서를 사용함으로써 실질적으로 감소된다. GALS 처리 흐름 데모에서는, 오하이오 주립대학교에서 촬영된 CSUAV 광역 이미징 데이터세트로부터의 프레임이 카메라 이미지로 사용되었다. 카메라 이미지는 시야가 23.9도인 690 x 460 미터 영역을 커버하는 668 x 1001 픽셀로 구성되었으며, 1630m의 높이로부터 기록되었다. 특징은 회전 및 스케일 불변 SIFT 알고리즘을 사용하여 검출되었고, 특징 쌍 사이의 각도는 카메라 파라미터를 사용하여 측정되었다. 총 116개의 SIFT 특징이 검출되었다. 동일한 지역의 구글 어스(Google Earth)로부터의 이미지가 기준 지도로 사용되었다. 기준 지도 이미지는 다른 카메라로 다른 시각에 카메라 이미지와는 다른 방향으로 기록되었다. 게다가, 빌딩의 일부는 다른 시간에 촬영한 이미지 때문에 달라졌다. 그런 다음, SIFT 특징이 기준 지도로부터 추출되어 카메라 특징과 매치되었다. 동일한 SIFT 알고리즘과 파라미터가 카메라 이미지와 기준 지도 특징 모두에 사용되었다. 116개의 카메라 특징 중 20개가 지도 특징에 할당되었지만, 12개만이 올바르게 할당되었다. 따라서, 약 10 %의 기능 할당만이 유효했다.
국소화 피크는, 카메라가 이미지 중심이 카메라 위치에 대응하도록 똑바로 아래를 향한 것으로 가정하면, 16 x 66m의 영역에 있었고 위치 에러는 140m이었다. 12개의 국소화 신호 피크 값은 정확한 특징 할당의 비율이 낮더라도 다른 겹침 값보다 현저히 높았다. 부정확한 위치에 대응하는 8개의 다른 타일에서의 최대 잡음 신호는 3이었고, 이것은 낮은 잘못된 국소화 비율이었다. 실행 시간은 데스크톱 컴퓨터의 Matlab에서 3.9초이었다. 매치하지 않는 타일에 대한 처리 시간은, 지오아크의 수를 줄인 더 적은 특징이 매치되었기 때문에 더 낮았다(1.9초). 실행 시간은 실제의 GALS 시스템에서는 반드시 필요하지 않을 수 있는 컴퓨터 스크린에 지오아크를 그리는데 필요한 시간에 의해 지배되었다. Matlab은 또한 내장형 구현(embedded implementation)보다 훨씬 느리다. 내장형 구현은 더 빨라질 것으로 예상된다.
예 5:
이 예는 볼륨 요소(보셀)의 3차원 공간에서 정의된 기준 표현을 사용하는 예시적인 공간적 국소화 시스템 및 방법이다; 도 1 및 도 10 참조. 도 10은 예시적인 방법에서 공간적 국소화 시스템의 일 실시예에 의해 수행되는 동작을 설명하는 플로우차트이며, 방법의 완전한 프로세스 또는 모든 단계를 나열하지 않을 수도 있다. 방법(1000)의 각종 단계가 이하에서 설명되고 도 10에 도시되지만, 단계들은 모두 반드시 수행될 필요는 없고, 어떤 경우에는 도시된 순서와 다른 순서로 수행될 수도 있다. 이 방법 및 대응하는 특별한 국소화 시스템은, GPS 또는 다른 국소화 시스템이 이용 가능하지 않을 때 사용될 수 있다.
이 예에서는, 상술한 시스템 및 방법과 마찬가지로, 3D 공간적 국소화를 위한 방법(1000)은, 단계(1002)에서 물리적 표면 구성(106)으로부터 이격된 위치로부터의 물리적 표면 구성(106)의 일부분의 센서 이미지를 운송수단(116)에 의해 지지되는 카메라(112)와 같은 센서(114)로부터 획득한다. 단계(1004)에서는, 획득된 이미지의 특징이 식별된다. 단계(1006)에서는, 획득된 이미지의 식별된 특징이 물리적 표면 구성의 일부분의 3차원 기준 표현의 식별된 특징과 연관된다. 3차원 기준 표현은 볼륨 요소(보셀)의 3차원 공간에서 정의된다. 도 1에서는, 3D 공간은 카메라(112)와 무관할 수도 있는 위치에 좌표 원점(116)을 갖는 데카르트 좌표(Cartesian coordinate)에 의해 정의된다. 기준 표현의 특징들의 대응하는 식별된 쌍들을 갖는 획득된 이미지의 특징들의 복수의 쌍이 단계(1008)에서 선택된다.
그 다음에, 획득된 이미지의 각각의 선택된 쌍에 대해 일련의 단계들이 수행된다. 초기 또는 다음의 특징 쌍이 단계(1010)에서 선택된다. 단계(1012)에서는, 센서로부터의 특징들의 쌍 사이의 화각이 결정된다. 단계(1014)에서는, 결정된 화각과 기준 표현에서 선택된 특징 쌍을 연관시키는 3차원 지오아크가 발생된다. 상술한 바와 같이, 토러스(100)는 3D 지오아크인 경우의 예이다. 단계(1016)에서는, 발생된 지오아크에 포함된 보셀이 식별된다.
단계들(1010, 1012, 1014 및 1016)이 수행되지 않은 추가의 특징 쌍이 존재하는지 여부에 대한 결정이 단계(1018)에서 이루어진다. 존재하는 경우에는, 추가의 특징 쌍이 선택되고 이들 단계가 수행된다.
처리할 추가의 특징 쌍이 없는 경우에는, 단계(1020)에서 상기 방법은 각각의 식별된 보셀에 대해 보셀이 포함된 발생된 지오아크의 수를 가산하는 것을 포함한다. 단계(1022)에서는, 어느 식별된 보셀 또는 보셀들이 가장 높은 수의 지오아크 내에 포함되는지에 대한 결정이 이루어진다.
예 6:
이 예는 볼륨 요소(보셀)의 3차원 공간에서 정의된 기준 표현과 프로세스에서 불확실성을 나타내는 두께를 갖는 지오아크를 사용하는 예시적인 공간적 국소화 시스템 및 방법이다; 도 1, 10, 11 및 12 참조.
도 10의 방법(1000)뿐만 아니라 위에서 논의된 다른 도면을 참조하여 설명된 바와 같이, 공간적 국소화의 이러한 예는 방법(1000)의 단계들(1002, 1004, 1006 및 1008)을 참조하여 설명된 바와 같이 카메라 이미지에서 검출되고 물리적 표면 구성(106)의 3D 기준 표현에서 식별된 특징들과 매치되는 특징(102, 104) 사이에서 카메라(112)로부터의 화각 θ를 사용하여 카메라(112)의 위치, 및 운송수단(116)을 찾아내기 위해 카메라 이미지를 사용한다. 이러한 방법은, GPS와 같은 외부 기술 기반 국소화 시스템을 사용할 수 없는 경우에 특히 유용하다.
설명한 바와 같이, 센서 이미지의 2개의 특징 사이의 거리가 이들 사이에서 관찰된 각도와 직접적인 관계를 갖기 때문에, 화각 θ는 카메라 파라미터로부터 결정된다. 측정된 화각 θ를 지도화된 특징 쌍에 할당하는 것은, 3D 좌표에서 카메라의 가능한 (x, y, z) 위치가 도 1에 도시된 바와 같이 자기 교차 또는 스핀들 토러스의 표면 상에 있도록 제한된다. 특징 쌍 화각이 다수의 지도 특징 쌍의 각각에 할당되면, 카메라 위치는 처리가 도 10을 참조하여 설명된 방법(1000)에 포함되는 다수의 토리의 교차점 위에 있도록 제한된다.
이 예에서는, 단계(1014)에서 발생된 각각의 지오아크는 화각 및 지도 특징 위치의 측정에서의 불확실성 때문에 0이 아닌 표면 두께를 갖는다. 특정 화각을 기반으로 한 토러스는 두께가 없은 표면이다. 따라서, 두께는 불확실성의 레벨에 대응하는 화각의 범위에 의해 정의될 수 있다. 따라서, 최대 또는 높은 화각을 사용하여 발생된 내측 토러스와 최소 또는 낮은 화각을 사용하여 발생된 외측 토러스 사이의 공간에 의해 두께를 갖는 지오아크가 정의될 수 있다. 이것은, 예상된 화각 값을 사용하여 발생된 지오아크 및 예상된 화각으로부터의 범위 내의 포인트와 같다고 간주된다. 따라서, 두 지오아크의 교차점은 작은 3D 볼륨이다. 모든 각도가 지도 특징 쌍과 정확하게 매치하는 경우에는, 3개의 특징으로부터 형성된 3개의 특징 쌍이 카메라를 국소화하기에 충분하다. 그러나, 특징 위치 및 각도가 불확실한 경우에는, 국소화 정확도는 더 많은 특징 쌍을 사용하여 향상된다.
스핀들 토리로서 정의된 다수의 지오아크의 3D 교차점을 찾아내는 것은, 2D 지오아크에 대해 위에서 설명된 방법과 유사하지만, 3D 지오아크를 이용하여 화소 대신 각 보셀에 대한 겹침을 결정하는 것과 같이 도표로 도시되어 있다. 그러나, 계산상의 부하는 3D 지도 공간을 가변 해상도를 갖는 보셀로 분할하고 3D 공간에서의 3D 지오아크 겹침 영역의 공간적 분포를 설명하기 위해 모집단 함수를 사용함으로써 감소될 수 있다.
도 1에서의 토러스(100)의 "극(poles)" 또는 축 상의 특징(102, 104)에 의해 설명된 바와 같이, 임의의 3D 위치에서의 특징을 갖는 3D 지도에 대해서는, 3D 스핀들 토러스(100)는 특징(102, 104)의 화각 θ을 갖는 카메라(112)의 (x, y, z) 공간에서 가능한 위치를 나타내는 표면(122)을 갖는 3D 지오아크를 형성한다. 2D 지오아크는 도 1에 도시된 바와 같이 3D 스핀들 토리로 일반화될 수 있다.
도 11은 물리적 표면 구성의 적어도 일부분의 기준 표현에서 식별된 2개의 특징(1106, 1108)에 대한 지오아크(1104)를 나타내는 표면(1102)을 갖는 3D 토러스(1100)를 도시한다. 토러스(1100)는 특징(1106, 1108)의 위치 사이에서 z'축 상에 중심이 있는 좌표 원점(1110)을 갖는 토러스 중심 (x', y', z') 좌표에서 정의된다. 그 다음에, 토러스(1100) 및 지오아크(1104)는 카메라 화각 θ에 대한 특징(1106, 1108)에 대해 가능한 위치를 나타낸다.
설명된 바와 같이, 주어진 카메라 위치에 대한 복수의 3D 지오아크는 3D 그래픽 객체로서 처리되어 함께 부가될 수 있다. (가산된 지오아크의 피크 값에 위치된) 국소화 신호(Sloc)는
Sloc = Nc = mv(mv - 1)/2
의 값을 가질 것이다.
여기서, mv는 카메라 이미지에서 검출된 유효한 특징의 수로서, 예를 들어 3D 지도에 있는 특징이고 정확하게 할당된 특징 쌍 각도를 갖는 특징 쌍의 멤버이다. Nc 3D 지오아크가 임의의 위치에서 우연히 겹쳐지는 확률은 부분적인 3D 지오아크 볼륨의 곱이다:
Figure pat00002
여기서, L3는 L x L x L 기준 지도 볼륨이고 Vn은 3D 지오아크 n의 볼륨이다. Pc는 Nc에 따라 급격히 감소하는 반면, 국소화 신호는 Nc에 따라 선형으로 증가하고 유효한 특징의 수에 따라 2차식으로 증가한다. 따라서, 3D 지오아크 시스템 및 방법은 특징 검출, 매칭 및 각도 할당에 실질적인 에러가 있을 때 신뢰할 수 있는 결과를 생성한다. 따라서, 지오아크의 작은 부분이 유효하면 국소화신호 Sloc가 그러한 에러들로 인해 잡음 신호 Snoise를 초과하기 때문에 허용 가능하다.
위치 신호 피크를 찾아내는 한 가지 접근법은, 2D 지오아크 국소화에 대해 위에서 설명한 바와 같이 3D 지오아크 도면을 도표로 추가한 다음 최대 겹침을 위해 3D 지도를 검색하는 것이다. 이 접근법에서 3D 공간은 보셀로 분할된다. 그 다음에, 3D 지오아크를 추가하는 대신, 불확실성을 나타내기 위한 두께를 갖는 3D 지오아크(1200)의 단면을 사용하여, 도 12에 도시된 바와 같이 그 중심포인트가 3D 지오아크 내부인지 외부인지를 결정하기 위해 각 보셀이 테스트된다.
소정의 화각 θ/특징 쌍에 대한 가능한 카메라 위치의 볼륨은 특징(1206, 1208)의 측정된 화각 θ의 최대 및 최소 가능값에 의해 정의되는 2개의 스핀들 토리(1202, 1204)의 볼륨 사이의 차이에 의해 주어진다. 카메라의 가능한 위치는, 외측 토러스(1202) 내부와 내측 토러스(1204) 외부의 3D 포인트들로 이루어진 도 12의 영역으로 제한된다. 이것은, 여기에서 "내측-외측 테스트(inside-outside test)"라고 지칭된다.
외측 토러스(1202)는 화각 θO = θ-Δθ를 나타내고 단면 반경 RO를 갖는다. 내측 토러스(1204)는 화각 θI = θ + Δθ를 나타내고 단면 반경 RI를 가지며, 곡률의 중심은 특징(1206, 1208)의 상대 위치를 통과하는 z'축으로부터의 거리 rI이다. 화각 θO는 화각 θI보다 작다. 그 측정 불일치(δθ)와 함께 기준 지도로부터의 특징(1206, 1208) 및 관측된 각도(θ) 사이의 거리(c)가 주어지면, 보셀이 3D 지오아크에 의해 커버되는지 여부를 결정하기 위해 도 12에 의해 표시된 단순한 내측-외측 테스트가 수행된다. 그렇다면, 보셀 위치에 대한 모집단 함수의 값이 1만큼 증가된다
주어진 좌표(x', y', z')에 대한 외측 토러스(1202) 내부의 내점 테스트는는:
Figure pat00003
이고, 주어진 좌표에 대한 내측 토러스(1204) 외부의 내점 테스트는:
Figure pat00004
이다.
여기서
Figure pat00005
이고,
Figure pat00006
이다.
모든 3D 지오아크와 보셀에 걸쳐 루핑(looping)한 후, 카메라의 3D 위치는 보셀의 모집단 함수의 최대 값에 의해 주어진다.
도 12에서의 내측-외측 테스트는, 특징을 구분하는 라인이 z축과 정렬되고 좌표 원점에 중심이 있다고 가정한다. 토러스에 관련되지 않은 좌표 원점에 의해 정의된 3D 공간에서 임의의 위치(x, y, z)에서의 특징을 처리하기 위해, 도 11 및 도 12에서 설명된 바와 같이 내측-외측 테스트를 위한 표준 위치 및 자세로 각각의 3D 지오아크를 변환하여 배향시키기 위해 특징의 좌표에 좌표 변환이 적용된다. 바꾸어 말하면, 원거리의 좌표 원점(118)에 기초를 둔 도 1의 토러스(100)의 좌표(x, y, z)는 좌표 원점(1110)에 기초를 둔 토러스(1100)의 좌표(x', y', z')로 변환된다.
이것은 먼저 (x, y, z) 좌표계를 T =-[xC, yC, zC]에 의해 이동시킴으로써 행해질 수 있고, 여기서 (xC, yC, zC)는 도 1의 토러스(100)를 위해 도시된 바와 같이 특징들의 위치 사이의 라인의 중심 포인트이다. 토러스는 z축을 중심으로 α만큼 회전되고 y축을 중심으로 β만큼 회전되며, 여기서
Figure pat00007
이고,
Figure pat00008
이다.
회전 행렬은
Figure pat00009
이고,
Figure pat00010
이다.
그런 다음, 내측-외측 테스트를 적용할 수 있는바, 결과적인 (x', y', z') 좌표계의 포인트에 적용된다.
일부 실시예에서, 모집단 함수 계산은 포베테이션(foveation, 함요상태) 또는 공간적으로 변하는 3D 해상도를 사용하여 물리적 표면 구성을 포함하는 장면에 채용되는 공간적 보셀 샘플링을 사용하여 감소된다. 예를 들어, 더 큰 각도 불확실성 및 더 성긴 샘플 간격이 초기에 적용될 수 있다. 이것은, 예를 들어 더 큰 보셀 크기를 사용함으로써 달성될 수 있다. 초기 계산을 미세 조정하기 위해 두 번째 반복에서 각도 불확실성과 샘플 간격을 감소시킬 수 있다. 이 반복은 더 높은 모집단 함수 값을 갖는 관심 영역 또는 다른 부분으로 제한될 수 있다. 따라서, 보셀 크기는 보셀이 포함된 발생된 지오아크의 수의 각각의 보셀에 대한 합에 적어도 부분적으로 기초를 둘 수 있다.
게다가, 이 프로세싱은 다른 지역의 동시 컴퓨팅을 위한 다수의 병렬 프로세서를 통해 공간적으로 분산되어 효율적으로 분포될 수 있다. 예를 들어, 3D 기준 지도는 3D 분할로 분할될 수 있다. 따라서, 도 8에 도시된 2D 기준 지도(802)에 대해 논의된 바와 같은 2D (x, y) 타일(804) 대신에, 타일은 z방향으로 0이 아닌 치수를 갖는 공간의 3D (x, y, z) 영역으로 확장된다. 그 후, 각각의 분리된 부분의 각각에서의 보셀이 발생된 지오아크에 포함되어 있는지 여부를 식별함으로써, 복수의 분리된 부분의 각각에 대해 프로세스가 동시에 반복된다.
예 7:
이 예는 물리적 표면 구성의 기준 표현의 일례로서 특징 기준 지도를 발생시키기 위한 동작의 예시적인 예이다; 도 13 참조. 도 13은 예시적인 방법에서 공간적 국소화 시스템의 일 실시예에 의해 수행되는 동작을 설명하는 플로우차트이며, 방법의 완전한 프로세스 또는 모든 단계를 나열하지 않을 수도 있다. 방법(1300)의 각종 단계들이 이하에서 설명되고 도 13에 도시되지만, 단계들은 반드시 모두 수행될 필요는 없고, 어떤 경우에는 도시된 순서와 다른 순서로 수행될 수도 있다.
이 예에서, 기준 표현을 발생시키는 방법(1300)은 물리적 표면 구성을 포함하는 장면의 3D 모델을 획득하는 단계(1302)를 포함한다. 모델로부터 이격된 위치로부터 모델의 다수의 시점(viewpoint)의 각각에 대해서는, 단계 1304에서, 초기 또는 다음 모델 시점이 선택된다. 3D 모델의 이미지는 단계(1306)에서 기록되고, 단계(1308)에서 2D 이미지의 특징이 검출된다. 단계(1310)에서는, 2D 이미지에서 검출된 특징이 장면의 3D 모델의 특징들과 매칭되고, 그 후 매치된 특징들의 3D 위치를 결정하기 위해 3D 모델의 매치된 특징들로 역투영된다. 단계(1312)에서는 부가적인 선택된 시점이 존재하는지 여부에 대한 결정이 이루어진다. 그렇다면, 처리는 단계(1304)로 되돌아간다. 그렇지 않으면, 단계(1314)에서 3D 모델, 특징 및 위치가 물리적 표면 구성에 대해 운송수단을 공간적으로 위치시키는데 사용하기 위해 저장된다.
예 8:
이 예는 3D 좌표 공간에 위치된 물리적 표면 구성에 대해 운송수단을 공간적으로 국소화하기 위한 예시적인 방법이다; 도 14 참조. 도 14는 예시적인 방법에서 공간적 국소화 시스템의 일 실시예에 의해 수행되는 동작을 설명하는 플로우차트이며, 방법의 완전한 프로세스 또는 모든 단계를 나열하지 않을 수도 있다. 방법(1400)의 각종의 단계가 이하에서 설명되고 도 14에 도시되지만, 단계들은 반드시 모두 수행될 필요는 없고, 어떤 경우에는 도시된 순서와 다른 순서로 수행될 수도 있다.
이 예에서, 공간적 국소화의 방법(1400)은 방법(1300)에서 발생된 3D 모델의 3D 지도 공간을 선택적 포베테이션 및/또는 서브샘플링을 갖는 제로-값의 보셀로 분할하는 단계(1402)를 포함한다. 서브샘플링의 예는, 3D 지도 공간을 병행 병렬 처리 및/또는 보셀 위치에서의 지오아크 겹침에 기초한 보셀 크기의 증분 변형을 위한 분할 또는 영역으로 분할하는 것을 포함할 수 있다. 단계(1404)에서는, 카메라와 같은 센서에 의한 이미지가 기록되거나 그렇지 않으면 획득된다. 획득된 이미지의 특징은 단계(1406)에서 식별되고, 획득된 이미지의 식별된 특징은 단계(1408)에서 방법(1300)에서 획득된 3D 기준 지도 특징의 2D 이미지와 매칭된다. 특징은 바람직하게는 SIFT 또는 SURF 특징과 같은 회전 및 스케일 불변 특징이고, 매치된 특징 쌍의 쌍들의 각도 분리(화각 θ)는 단계(1410)에서 측정된다.
각각의 3D 지도 특징 쌍, 연관된 측정 화각 θ 및 연관된 각도 측정 불확실성에 대해, 그리고 주어진 보셀 크기에 대해, 다음 단계들이 수행된다. 초기 또는 다음 특징 쌍이 단계(1412)에서 선택된다. 지오아크(100)는 단계(1414)에서 선택된 특징 쌍 및 연관된 화각에 기초하여 발생된다. 카메라 위치 불확실성은 3D 지오아크의 0이 아닌 두께로서 표현될 수 있다. 선택된 보셀의 좌표는 단계(1416)에서 지오아크(1100, 1200)를 위해 기술된 것과 같은 특징 쌍 및 측정된 화각(θ)에 대한 3D 지오아크와 정렬된 좌표 시스템으로 변환된다.
지오아크(1200)에 대해 설명된 바와 같이, 각 보셀의 중심 포인트가 외측 토러스(1204)와 같은 최소 각도 토러스 내부에 있는지 내측 토러스(1202)와 같은 최대 각도 토러스 외부에 있는지 여부를 결정하기 위해 내측-외측 테스트가 단계(1418)에서 모든 선택된 보셀에 대해 수행된다. 그렇다면, 보셀 값이 1씩 증가된다.
단계(1420)에서 처리할 다른 특징 쌍이 있는지 여부에 관한 결정이 이루어진다. 그렇다면, 처리는 단계(1412)로 되돌아간다. 그렇지 않은 경우에는, 단계 1422에서 변형된 보셀 크기를 사용하여 선택된 보셀에 대해 처리가 반복되어야 하는지 여부에 대한 결정이 이루어진다. 예를 들어, 일단 보셀에 대한 모집단 함수가 높은 지오아크 계수를 갖는 보셀을 식별하면, 더 큰 보셀에 의해 점유된 공간에 대해 더 작은 보셀 영역을 사용하여 재결정을 행하기 위해 제한된 3D 공간에서 보셀 크기가 축소될 수 있다. 유사한 프로세스가 화각 불확실성 레벨에 대해 수행될 수도 있다. 더 상세한 프로세스가 선택되면, 더 작은 보셀 크기와 같은 다른 보셀 크기가 단계(1424)에서 선택되고, 처리는 초기의 특징 쌍의 선택을 위해 단계(1412)로 복귀한다.
보셀 크기가 단계(1422)에서 변형되지 않은 것으로 결정된 경우에는, 단계(1426)에서 3D 기준 지도에서 가장 높은 값의 보셀을 찾아냄으로써 카메라 위치가 결정된다. 선택적으로, 카메라 자세는 또한 최대 카메라 위치 신호에 기여한 특징 쌍에 속하는 특징의 카메라 이미지의 위치로부터 단계(1428)에서 결정될 수 있다. 따라서, GPS를 갖는 경우와 마찬가지로 카메라 및 외부 기술에 의존하지 않고 카메라를 지원하는 운송수단에 대한 국소화 정보가 결정된다.
예 9:
도 15에 도시된 바와 같이, 이 예는 본 발명의 태양에 따른 데이터 처리 시스템(1500)이다. 이 예에서, 데이터 처리 시스템(1500)은 공간적 국소화 시스템(1501) 및 관련 방법의 태양들을 구현하기에 적합한 예시적인 데이터 처리 시스템이다. 보다 구체적으로는, 일부 예들에서, 데이터 처리 시스템(예를 들어, 스마트 폰, 태블릿, 퍼스널 컴퓨터)의 실시예인 장치는 상술한 방법의 일부 또는 전부를 수행할 수 있다. 예를 들어, 운송수단은 상주 카메라(112)에 의해 획득된 이미지를 사용하여 운송수단의 위치를 결정하기 위한 상주 데이터 처리 시스템을 가질 수 있다.
이 예시적인 예에서, 데이터 처리 시스템(1500)은 통신 프레임워크(1502)를 포함한다. 통신 프레임워크(1502)는 프로세서 유닛(1504), 메모리(1506), 영구 저장 장치(1508), 통신 유닛(1510), 입력/출력(I/O) 유닛(1512) 및 디스플레이(1514) 사이에 통신을 제공한다. 메모리(1506), 영구 저장 장치(1508), 통신 유닛(1510), 입력/출력(I/O) 유닛(1512) 및 카메라(112)와 같은 센서(1514)는 통신 프레임워크(1502)를 통해 프로세서 유닛(1504)에 의해 액세스 가능한 리소스의 예이다. 공간적 국소화 시스템(1501)은 센서(1514)를 포함할 수 있다.
프로세서 유닛(1504)은 메모리(156)로 로드될 수 있는 명령을 실행하는 역할을 한다. 프로세서 유닛(1504)은, 특정 구현 예에 따라 다수의 프로세서, 멀티 프로세서 코어 또는 일부 다른 유형의 프로세서일 수 있다. 더욱이, 프로세서 유닛(1504)은 주 프로세서가 단일 칩 상에 보조 프로세서와 함께 존재하는 다수의 이종 프로세서 시스템을 사용하여 구현될 수 있다. 또 다른 예시적인 예로서, 프로세서 유닛(1504)은 동일한 유형의 다수의 프로세서를 포함하는 대칭형 멀티 프로세서 시스템일 수 있다.
메모리(1506) 및 영구 저장 장치(1508)는 저장 장치(1516)의 예이다. 저장 장치는 예를 들어 제한 없이 데이터, 기능적인 형태의 프로그램 코드 및 일시적 또는 영구적인 다른 적절한 정보 등과 같은 정보를 저장할 수 있는 임의의 하드웨어 조각(piece)이다.
저장 장치(1516)는 또한 이들 예에서 컴퓨터 판독 가능 저장 장치로서 지칭될 수 있다. 이들 예에서, 메모리(1506)는 예를 들어 랜덤 액세스 메모리(random access memory) 또는 임의의 다른 적절한 휘발성 또는 비휘발성 저장 장치(volatile or non-volatile storage device)일 수 있다. 영구 저장 장치(1508)는 특정 구현에 따라 각종의 형태를 취할 수 있다.
예를 들어, 영구 저장 장치(1508)는 하나 이상의 구성 요소 또는 장치를 포함할 수 있다. 예를 들어, 영구 저장 장치(1508)는 하드 드라이브(hard drive), 플래시 메모리(flash memory), 재기록 가능한 광 디스크(rewritable optical disk), 재기록 가능한 자기 테이프(rewritable magnetic tape), 또는 상기의 일부 조합일 수 있다. 영구 저장 장치(1508)에 의해 사용되는 매체는 또한 제거 가능할 수도 있다. 예를 들어, 제거 가능한 하드 드라이브가 영구 저장 장치(1508)에 사용될 수도 있다.
이들 예에서, 통신 유닛(1510)은 다른 데이터 처리 시스템 또는 장치와의 통신을 제공한다. 이들 예에서, 통신 유닛(1510)은 네트워크 인터페이스 카드이다. 통신 유닛(1510)은 물리적 및 무선 통신 링크 중 하나 또는 양쪽 모두의 사용을 통해 통신을 제공할 수 있다.
입력/출력(I/O) 유닛(1512)은, 데이터 처리 시스템(1500)에 접속될 수 있는 다른 장치들과 함께 데이터의 입력 및 출력을 허용한다. 예를 들어, 입력/출력(I/O) 유닛(1512)은 키보드, 마우스 및/또는 다른 적절한 입력 장치를 통해 사용자 입력을 위한 접속을 제공할 수 있다. 더욱이, 입력/출력(I/O) 유닛(1512)은 출력을 프린터에 전송할 수 있다. 디스플레이는 사용자에게 정보를 표시하는 메커니즘을 제공하고, 터치 스크린인 경우 입력 장치의 역할을 한다.
기준 지도(402)와 같은 기준 표현(400) 및 관련 특징, 위치 및 연관된 데이터는 영구 저장 장치(1508)의 일부로서 기준 데이터베이스에 저장될 수 있다. 다른 방법으로, 기준 데이터베이스는 프로그램 코드(1518)를 실행할 수 있는 데이터 프로세서에 대해 원격으로 위치된 저장 장치 상에 저장될 수 있다. 프로세서 유닛(1504)은 또한 카메라 또는 센서(1514)와 통신할 수 있으며, 여기서 센서는 하나 이상의 목표 이미지(예를 들어, 여기에서 설명된 하나 이상의 방법에 의해 사용되는 센서의 시야 내의 장면)를 캡처할 수 있다. 센서(1514)는 데이터 처리 시스템(1500)의 통신 프레임워크(1502)에 직접 결합될 수 있거나, 또는 점선으로 도시된 바와 같이 통신 유닛(1510)을 통해 원격으로 접속될 수 있다. 예를 들어, 센서(1514)는 운송수단 상에 상주할 수 있고, 데이터 처리 시스템(1500)은 지구 기반, 원격 또는 다른 스테이션 상에 상주할 수 있으며, 이 경우 센서 이미지는 원격 데이터 처리 시스템으로 송신된다.
운영 체제(operating system), 애플리케이션 및/또는 프로그램에 대한 명령은 통신 프레임워크(1502)를 통해 프로세서 유닛(1504)과 통신하는 저장 장치(1516)에 위치될 수 있다. 이들 예시적인 실시예에서, 명령은 영구 저장 장치(1510) 상에 기능적 형태로 되어 있다. 이들 명령은 프로세서 유닛(1504)에 의한 실행을 위해 메모리(1506)에 로드될 수 있다. 다른 실시예의 프로세스는 메모리(1506)와 같은 메모리에 위치될 수 있는 컴퓨터 구현 명령을 사용하여 프로세서 유닛(1504)에 의해 수행될 수 있다.
이들 명령은 프로세서 유닛(1504)에서 프로세서에 의해 판독되고 실행될 수 있는 프로그램 명령, 프로그램 코드, 컴퓨터 이용 가능 프로그램 코드 또는 컴퓨터 판독 가능 프로그램 코드로서 지칭된다. 다른 실시예에서의 프로그램 코드는, 메모리(1506) 또는 영구 저장 장치(1508)와 같은 다른 물리적 또는 컴퓨터 판독 가능 저장 매체 상에서 구체화될 수 있다.
프로그램 코드(1518)는, 선택적으로 제거 가능하고 프로세서 유닛(1504)에 의한 실행을 위해 데이터 처리 시스템(1500) 상에 로딩되거나 데이터 처리 시스템(1500)에 전송될 수 있는 컴퓨터 판독 가능 매체(1520) 상에 기능적 형태로 위치된다. 프로그램 코드(1518) 및 컴퓨터 판독 가능 매체(1520)는 이들 예에서 컴퓨터 프로그램 제품(1522)을 형성한다. 하나의 예에서, 컴퓨터 판독 가능 매체(1520)는 컴퓨터 판독 가능 저장 매체(1524) 또는 컴퓨터 판독 가능 신호 매체(1526)일 수 있다.
컴퓨터 판독 가능 저장 매체(1524)는, 예를 들어 영구 저장 장치(1508)의 일부인 하드 드라이브와 같은 저장 장치 상으로의 전송을 위해 영구 저장 장치(1508)의 일부인 드라이브 또는 다른 디바이스에 삽입되거나 배치되는 광학 또는 자기 디스크를 포함할 수 있다. 컴퓨터 판독 가능 저장 매체(1524)는 또한 데이터 처리 시스템(1500)에 접속된 하드 드라이브, 썸 드라이브(thumb drive) 또는 플래시 메모리와 같은 영구 저장 장치의 형태를 취할 수 있다. 일부 경우에, 컴퓨터 판독 가능 저장 매체(1524)는 데이터 처리 시스템(1500)으로부터 제거 가능하지 않을 수도 있다.
이들 예에서, 컴퓨터 판독 가능 저장 매체(1524)는 프로그램 코드(1518)를 전파 또는 전송하는 매체라기 보다는 프로그램 코드(1518)를 저장하는데 사용되는 물리적 또는 유형의 저장 장치이다. 컴퓨터 판독 가능 저장 매체(1524)는 또한 컴퓨터 판독 가능 유형 저장 장치 또는 컴퓨터 판독 가능 물리적 저장 장치로서 지칭된다. 바꾸어 말하면, 컴퓨터 판독 가능 저장 매체(1524)는 일시적이지 않다.
다른 한편으로, 프로그램 코드(1518)는 컴퓨터 판독 가능 신호 매체(1526)를 사용하여 데이터 처리 시스템(1500)으로 전송될 수도 있다. 컴퓨터 판독 가능 신호 매체(1526)는, 예를 들어 프로그램 코드(1518)를 포함하는 전파되는 데이터 신호일 수 있다. 예를 들어, 컴퓨터 판독 가능 신호 매체(1526)는 전자기 신호, 광 신호 및/또는 임의의 다른 적절한 유형의 신호일 수 있다. 이들 신호는, 무선 통신 링크, 광섬유 케이블, 동축 케이블, 와이어 및/또는 임의의 다른 적절한 유형의 통신 링크와 같은 통신 링크를 통해 전송될 수 있다. 바꾸어 말하면, 통신 링크 및/또는 접속은 예시적인 예에서 물리적이거나 또는 무선일 수 있다.
일부 예시적인 실시예에서, 프로그램 코드(1518)는 데이터 처리 시스템(1500) 내에서 사용하기 위해 컴퓨터 판독 가능 신호 매체(1526)를 통해 다른 장치 또는 데이터 처리 시스템으로부터 영구 저장 장치(1508)로 네트워크를 통해 다운로드될 수 있다. 예를 들어, 서버 데이터 처리 시스템의 컴퓨터 판독 가능 저장 매체에 저장된 프로그램 코드는 서버로부터 데이터 처리 시스템(1500)으로 네트워크를 통해 다운로드될 수 있다. 프로그램 코드(1518)를 제공하는 데이터 처리 시스템은 서버 컴퓨터, 클라이언트 컴퓨터, 또는 프로그램 코드(1518)를 저장하고 전송할 수 있는 어떤 다른 장치일 수 있다.
데이터 처리 시스템(1500)에 대해 도시된 다른 구성 요소는, 다른 실시예가 구현될 수 있는 방식에 구조적 제한을 제공하려는 것은 아니다. 다른 예시적인 실시예는, 데이터 처리 시스템(1500)에 대해 도시된 구성 요소에 더하여 및/또는 그 대신에 구성 요소를 포함하는 데이터 처리 시스템으로 구현될 수 있다. 도 15에 도시된 다른 구성 요소는, 도시된 예시적인 예로부터 변경될 수 있다. 다른 실시예들은 프로그램 코드를 실행할 수 있는 임의의 하드웨어 장치 또는 시스템을 사용하여 구현될 수 있다. 일례로서, 데이터 처리 시스템(1500)은 무기의 구성 요소와 통합된 유기의 구성 요소를 포함할 수 있거나 및/또는 인간을 제외한 유기의 구성 요소로 완전히 구성될 수 있다. 예를 들어, 저장 장치는 유기 반도체로 구성될 수 있다.
또 다른 예시적인 예에서, 프로세서 유닛(1504)은 특정 용도로 제조 또는 구성된 회로를 갖는 하드웨어 유닛의 형태를 취할 수 있다. 이러한 유형의 하드웨어는 동작을 수행하도록 구성된 저장 장치로부터 메모리로 로드되는 프로그램 코드를 필요로 하지 않고 동작을 수행할 수 있다.
예를 들어, 프로세서 유닛(1504)이 하드웨어 유닛의 형태를 취하는 경우, 프로세서 유닛(1504)은 회로 시스템, 주문형 집적 회로(Application Specific Integrated Circuit, ASIC), 프로그램 가능 논리 장치(programmable logic device), 또는 다수의 동작을 수행하도록 구성된 일부 다른 적절한 유형의 하드웨어일 수 있다. 프로그램 가능 논리 장치에 있어서, 이 장치는 다수의 동작을 수행하도록 구성된다. 이 장치는 나중에 재구성될 수 있거나 또는 다수의 동작을 수행하도록 영구적으로 구성될 수 있다. 프로그램 가능 논리 장치의 예는, 예를 들어, 프로그램 가능 논리 어레이, 필드 프로그램 가능 논리 어레이, 필드 프로그램 가능 게이트 어레이 및 다른 적절한 하드웨어 장치를 포함한다. 이러한 유형의 구현에 있어서, 다른 실시예에 대한 프로세스가 하드웨어 유닛으로 구현되기 때문에, 프로그램 코드(1518)는 생략될 수 있다.
더욱 다른 예시적인 예에서, 프로세서 유닛(1504)은 컴퓨터 및 하드웨어 유닛에서 발견되는 프로세서들의 조합을 사용하여 구현될 수 있다. 프로세서 유닛(1504)은 프로그램 코드(1518)를 실행하도록 구성된 다수의 하드웨어 유닛 및 다수의 프로세서를 가질 수 있다. 이 도시된 예에서, 일부 프로세스는 다수의 하드웨어 유닛으로 구현될 수 있고, 반면에 다른 프로세스는 다수의 프로세서로 구현될 수 있다.
다른 예에서, 버스 시스템은 통신 프레임워크(1502)를 구현하는데 사용될 수 있고, 시스템 버스 또는 입력/출력 버스와 같은 하나 이상의 버스로 구성될 수 있다. 물론, 버스 시스템은 버스 시스템에 부착된 다른 컴포넌트 또는 디바이스 사이에서 데이터 전송을 제공하는 임의의 적합한 유형의 아키텍처를 사용하여 구현될 수도 있다.
추가적으로, 통신 유닛(1510)은 데이터를 송신하거나, 데이터를 수신하거나, 또는 데이터를 송신 및 수신하는 다수의 장치를 포함할 수 있다. 통신 유닛(1510)은, 예를 들어 모뎀 또는 네트워크 어댑터, 2개의 네트워크 어댑터, 또는 이들의 일부 조합일 수 있다. 더욱이, 메모리는 예를 들어 통신 프레임워크(1502)에 존재할 수 있는 인터페이스 및 메모리 컨트롤러 허브에서 발견되는 것과 같은, 메모리(1506) 또는 캐시일 수 있다.
여기에서 설명된 플로우차트 및 블록도는 각종 예시적인 실시예에 따른 시스템, 방법 및 컴퓨터 프로그램 제품의 가능한 구현의 아키텍처, 기능 및 동작을 설명한다. 이와 관련하여, 플로우차트 또는 블록도의 각 블록은 모듈, 세그먼트, 지정된 논리적 기능 또는 기능들을 구현하기 위한 하나 이상의 실행 가능한 명령을 구비하는 코드의 부분을 나타낼 수 있다. 또한, 일부 대체 구현에서는, 블록에서 언급된 기능은 도면에서 언급된 순서를 벗어나 발생할 수 있음을 또한 주목해야 한다. 예를 들어, 연속적으로 도시된 2개의 블록의 기능은 실질적으로 동시에 수행될 수 있거나, 또는 블록의 기능은 관련된 기능에 따라 때때로 역순으로 실행될 수도 있다.
예 10:
도 16에 도시된 바와 같이, 이 예는 네트워크, 컴퓨터 네트워크, 네트워크 시스템, 또는 분산 네트워크라 상호 교환 가능하게 불리는 일반적인 네트워크 데이터 처리 시스템(1600)이며, 그 태양은 공간적 국소화 시스템(1601)의 하나 이상의 예시적인 실시예에 포함될 수 있다. 예를 들어, 상술한 바와 같이, 서버 데이터 처리 시스템의 컴퓨터 판독 가능 저장 매체에 저장된 프로그램 코드는 서버로부터 데이터 처리 시스템(1600)으로 네트워크를 통해 다운로드될 수 있다. 다른 한편으로, 데이터 처리 시스템(1600')은 이미지 센서를 갖는 운송수단 상에 상주할 수 있다. 도 16은 하나의 구현의 예시로서 제공되지만, 다른 실시예가 구현될 수 있는 환경에 대한 어떠한 제한도 내포하고 있지 않음을 인식해야 한다. 묘사된 환경에 대한 많은 변형이 행해질 수 있다.
네트워크 데이터 처리 시스템(1600)은, 각각이 데이터 처리 시스템(1500)의 일례인 컴퓨터와 다른 구성 요소의 네트워크이다. 네트워크 데이터 처리 시스템(1600)은 서버(1602), 클라이언트 장치(1604), 저장 장치(1606), UAV 또는 다른 유형의 항공기와 같은 운송수단(1608), 육지, 수상 또는 우주선 및 네트워크(1610)를 포함할 수 있다. 운송수단(1608)은 클라이언트 장치(1606)의 예일 수 있거나, 또는 상주 데이터 처리 시스템(1600')을 갖는 독립형 시스템일 수 있다. 운송수단(1608)은 또한 도 15를 참조하여 논의된 바와 같이 네트워크(1610) 또는 상주 데이터 처리 시스템(1600')에 접속될 수 있는 카메라(1614) 또는 다른 이미징 장치를 포함한다. 네트워크(1610)는 네트워크 데이터 처리 시스템(1600) 내에서 함께 접속된 각종 장치와 컴퓨터 사이에 통신 링크를 제공하도록 구성된 매체이다. 네트워크(1610)는, 네트워크(1610)와 운송수단(1608) 사이의 무선 링크(1612), 광섬유 케이블 및/또는 네트워크 장치들 사이에서 데이터를 송신 및/또는 통신하기 위한 임의의 다른 적절한 매체와 같은 유선 또는 무선 통신 링크, 또는 이들의 임의의 조합과 같은 접속을 포함할 수 있다.
도시된 예에서, 서버(1602), 클라이언트(1604) 및 운송수단(1608)은 전자 저장 장치(1606)처럼 네트워크(1610)에 접속된다. 네트워크 장치(1602, 1604 및 1608)는 각각 상술한 데이터 처리 시스템(1500)의 예이다. 도시된 예에서, 장치(1602)는 서버 컴퓨터로서 도시되어 있다. 그러나, 네트워크 장치는, 제한 없이, 하나 이상의 개인용 컴퓨터, PDA(Personal Digital Assistant), 태블릿 및 스마트 폰과 같은 모바일 컴퓨팅 장치, 휴대용 게이밍 장치, 웨어러블 장치(wearable device), 태블릿 컴퓨터, 라우터, 스위치, 음성 게이트, 서버, 전자 저장 장치, 이미징 장치 및/또는 기계적 또는 기타 기능을 수행할 수 있는 기타 네트워크 가능한 도구를 포함할 수 있다. 이들 네트워크 장치는, 유선, 무선, 광 및 기타 적절한 통신 링크를 통해 상호 접속될 수 있다.
게다가, 클라이언트 컴퓨터(1604) 및 운송수단(1608)과 같은 클라이언트 전자 장치는 네트워크(1610)에 접속될 수 있다. 이들 장치의 각각은, 도 15와 관련하여 위에서 설명된 데이터 처리 시스템(1500)의 일례이다. 일부 예에서, 하나 이상의 운송수단(1608) 상의 통신 가능한 데이터 처리 시스템은 네트워크(1610)에 접속될 수 있다. 클라이언트 전자 장치(1604)는, 예를 들어 하나 이상의 퍼스널 컴퓨터, 네트워크 컴퓨터, 및/또는 PDA(personal digital assistant), 스마트 폰, 휴대용 게이밍 장치, 웨어러블 디바이스 및/또는 태블릿 컴퓨터 등과 같은 모바일 컴퓨팅 장치를 포함할 수 있다. 도시된 예에서, 서버(1602)는 하나 이상의 클라이언트 전자 장치(1604 및 1608)에 부트 파일, 운영 체제 이미지 및 애플리케이션과 같은 정보를 제공한다. 클라이언트 전자 장치(1604, 1608)는 서버 컴퓨터(1602)와 같은 서버에 대해 "클라이언트"로서 지칭될 수 있다. 네트워크 데이터 처리 시스템(1600)은 도시되지 않은 다른 장치뿐만 아니라 더 많거나 적은 서버 및 클라이언트를 포함할 수 있거나 또는 서버 또는 클라이언트를 포함하지 않을 수도 있다.
시스템(1600) 내에 위치된 프로그램 코드는, 예 8의 영구 저장 장치(1508)와 같은 컴퓨터 기록 가능 저장 매체 내에 또는 그 위에 저장될 수 있으며, 사용을 위해 데이터 처리 시스템 또는 다른 장치에 다운로드될 수 있다. 예를 들어, 프로그램 코드는 서버 컴퓨터(1602) 상의 컴퓨터 기록 가능한 저장 매체에 저장될 수 있고 네트워크(1610)를 통해 클라이언트(1604, 1608)로 사용하기 위해 다운로드될 수 있다.
네트워크 데이터 처리 시스템(1601)은 다수의 다른 유형의 네트워크 중 하나 이상으로서 구현될 수 있다. 예를 들어, 시스템(1600)은 인트라넷, 근거리 통신망(local area network, LAN), 광역 통신망(wide area network, WAN) 또는 개인 영역 통신망(personal area network, PAN)을 포함할 수 있다. 일부 예에서, 네트워크 데이터 처리 시스템(1600)은 서로와 통신하기 위한 전송 제어 프로토콜/인터넷 프로토콜(transmission control protocol/Internet protocol, TCP/IP) 한 벌을 사용하는 네트워크 및 게이트웨이의 월드와이드 콜렉션(worldwide collection)을 나타내는 네트워크(1610)를 갖는 인터넷을 포함한다. 인터넷의 핵심은, 주요 노드 또는 호스트 컴퓨터 사이의 고속 데이터 통신 라인의 백본(backbone)이다. 수천의 상업, 정부, 교육 및 기타 컴퓨터 시스템이 데이터 및 메시지를 라우트하는데 사용될 수 있다. 도 16은 일례로서 의도된 것이며 임의의 예시적인 실시예에 대한 구조적 제한이 아니다.
예 11:
도 17은 위치 획득 운송수단(1704)에 대해 하나 이상의 위치 탐색 운송수단(1702)을 국소화시키기 위한 운송수단 그룹 국소화 시스템(1700)의 일 실시예를 나타내는 블록도이다. 위치 획득 운송수단(1704)은 공간적 국소화 시스템(1706)을 포함한다. 공간적 국소화 시스템(1706)은 이미지 센서(1710)로부터 물리적-표면 구성(1708)의 이미지를 수신하도록 구성된 경우에, 상술한 방법을 사용하는 공간적 국소화 시스템(1501, 1601)의 일례일 수 있다. 물리적 표면 구성은 또한 상술한 바와 같이 예를 들어 물리적 표면(1712)일 수 있다. 선택적으로, 다른 기술이 GPS와 같은 운송수단(1704)을 국소화하는데 사용될 수 있다.
도 17은 운송수단(1704)에 의해 획득된 위치 정보가 하나 이상의 위치 탐색 매체(1702)와 공유될 수 있는 각종 시나리오를 나타낸다. 위치 탐색 운송수단(1702)의 각각은, 정의된 상대적인 형성의 일부인 위치 획득 운송수단(1704)에 대한 추정된 또는 알고 있는 상대적인 공간적 관계, 운송수단의 탑승자 또는 레이다 또는 라이더와 같은 기술적 수단에 의한 시각적 결정을 가진다. 또한, 각각의 운송수단은, 위치 획득 운송수단(1704)과 직접 통신하거나 또는 다른 위치 탐색 운송수단(1702)을 포함하거나 또는 임의의 조합에서 하나 이상의 통신 중계기(1714)를 포함하는 통신 경로를 통해 간접적으로 통신하는 능력을 갖는 것으로 가정된다.
예를 들어, 운송수단(1718, 1720, 1722)과 같은 위치 탐색 운송수단(1702)의 그룹(1716)은 위치 획득 운송수단(1704)에 의해 획득된 위치에 기초하여 그들의 위치를 결정할 수 있다. 이러한 그룹(1716)은, 그룹(1716)에서의 위치 탐색 운송수단(1702)의 위치가 위치 획득 운송수단(1704)의 위치와 실질적으로 동일하다는 것을 고려하여 유지된 형태로 이동하거나 위치 획득 운송수단(1704)에 충분히 아주 근접하여 이동하는 것 등과 관련을 가질 수 있다. 위치 획득 운송수단(1704)으로부터 위치 탐색 운송수단(1718, 1720, 1722)으로의 통신은, 직접 방송에 의해 또는 그렇지 않으면 일반적인 신호(1724)에 의해 표현되는 바와 같이 동시에 2개 이상의 위치 탐색 운송수단(1702)에 보내질 수 있거나, 또는 단일 신호(1726)에 의해 표현되는 바와 같이 개별 운송수단에 직접 전송될 수 있다.
위치 획득 운송수단(1704)은 또한 단일 직접 전송 신호(1726)를 이용하여 단일 위치 탐색 운송수단(1728)과 직접 통신할 수 있다. 위치 탐색 운송수단(1728)은 그 위치를 임의의 다른 운송수단에 중계할 수 없거나 또는 직접 또는 통신 중계기(1714)와 같은 중개 시설을 통해 다른 위치 탐색 운송수단(1730)에 위치 정보를 통신할 수 있다.
위치 획득 운송수단(1704)은 또한 초기에 다른 통신 중계기(1714) 또는 위치 탐색 운송수단(1730 및 1732)과 같은 하나 이상의 위치 탐색 운송수단(1702)과 번갈아 통신할 수 있는 통신 중계기(1714)와 통신할 수 있다. 위치 탐색 운송수단(1702)은 수신된 위치 정보를 사용할 수 있으며, 위치 탐색 운송수단(1734)과 같은 다른 위치 탐색 운송수단에 위치 정보를 통신할 수도 있고 그렇지 않을 수도 있다.
도 17에 도시된 예들은, 위치 획득 운송수단(1704)으로부터 하나 이상의 위치 탐색 운송수단(1702)으로 위치 정보를 통신하는 것이 가능할 수 있는 많은 다른 통신 경로의 단지 일부에 불과하다. 따라서, 위치 탐색 운송수단(1702)은 그 공간적 국소화 시스템(1706)의 동작을 통해 위치 획득 운송수단(1704)에 의해 획득된 국소화 정보를 간접적으로 수신한다.
예 12:
이 예는 물리적 표면 구성에 대해 운송수단을 공간적으로 국소화하기 위한 예시적인 방법이다; 도 18 참조. 도 18은 예시적인 방법에서 공간적 국소화 시스템의 일 실시예에 의해 수행되는 동작을 설명하는 플로우차트이며, 이 방법의 완전한 프로세스 또는 모든 단계를 나열하지 않을 수도 있다. 방법(1800)의 각종 단계가 이하에서 설명되고 도 18에 도시되지만, 단계들은 반드시 모두 수행될 필요는 없고, 어떤 경우에는 도시된 순서와 다른 순서로 수행될 수도 있다.
이 예에서, 공간적 국소화의 방법(1800)은 국소화 동작을 초기화하는 단계(1802)를 포함한다. 단계(1804)에서는, 물리적 표면 구성(1708)으로부터의 위치 획득 운송수단(1704) 및 지지된 이미지 센서(1710)와 같은 운송수단의 고도, 또는 보다 일반적으로 거리가 알려져 있는지 여부에 대한 결정이 이루어진다. 알려져 있는 경우, 센서/운송수단 고도가 단계(1806)에서 획득된다. 그 다음에, 2차원 공간적 국소화 동작이 단계(1808)에서 수행된다. 이러한 공간적 국소화 동작의 예는 상술한 방법(600 및 700)을 포함한다. 고도가 알려져 있지 않거나 이용 가능하지 않은 경우에는, 3차원 공간적 국소화 동작이 단계(1810)에서 수행된다. 이러한 공간적 국소화 동작의 예는 상술한 방법(1000 및 1400)을 포함한다.
센서 및 연관된 운송수단의 공간적 위치가 단계(1808 또는 1810)에서 결정된 후, 위치 정보는 단계(1812)에서 저장된다. 그 후, 단계(1814)에서 위치 정보가 전송될 다른 운송수단이 존재하는지 여부에 대한 결정이 이루어진다. 위치 정보가 전송될 다른 운송수단이 존재하는 경우에는, 단계(1816)에서, 위치 정보는 적절하게는 도 17을 참조하여 운송수단 그룹 국소화 시스템(1700)을 참조하여 설명된 바와 같이 운송수단들에 통신된다. 그 후, 프로세스는 단계(1814)로 되돌아가며 위치 정보를 전송할 운송수단이 더 이상 존재하지 않을 때까지 정보가 다시 통신된다. 이어서, 처리는 연관된 위치 획득 운송수단이 물리적 표면 구조에 대해 이동한 경우에 새로운 국소화 정보를 결정하기 위해 적절하게 단계(1802)로 되돌아간다. 따라서, 방법(1800) 및 운송수단 그룹 국소화 시스템(1700)은 국소화 정보를 복수의 운송수단에 제공하고, 방법(1800) 또는 방법(1800)에서 참조된 방법들 중 하나를 수행하는 등에 의해 운송수단들 중 적어도 하나가 그 위치를 결정할 수 있는 한 이용 가능하다.
예 13:
이 섹션은, 제한 없이 일련의 단락으로 제시된 방법, 시스템 및 장치의 추가적인 태양 및 특징을 설명하며, 일부 또는 전부가 명확화 및 효율성을 위해 영숫자로 지정될 수 있다. 이들 단락의 각각은, 하나 이상의 다른 단락 및/또는 이 출원의 다른 곳에서의 내용과 결합될 수 있으며, 임의의 적절한 방법으로 크로스 레퍼런스의 참조에 의해 통합된 자료를 포함한다. 아래의 단락 중 일부는 제한 없이 적절한 조합의 일부의 예를 제공하는 다른 단락을 명시적으로 언급하고 더 제한한다.
A1. 공간적 국소화(spatial localization)를 위한 방법으로서,
운송수단에 의해 지지된 센서로부터 물리적 표면 구성의 일부분의 이미지를 물리적 표면 구성으로부터 알려진 거리만큼 이격된 위치로부터 획득하는 단계;
획득된 이미지의 특징들을 식별하는 단계;
획득된 이미지의 식별된 특징들을 물리적 표면 구성의 일부분의 기준 표현의 식별된 특징들과 연관시키는 단계;
기준 표현의 특징들의 대응하는 식별된 쌍들을 갖는 획득된 이미지의 특징들의 복수의 쌍들을 선택하는 단계;
획득된 이미지의 각각의 선택된 특징 쌍에 대해,
센서로부터의 특징들의 쌍 사이의 화각을 결정하고,
결정된 화각과 기준 표현에서 선택된 특징 쌍을 연관시키는 3차원 지오아크를 발생시키며,
물리적 표면 구성의 일부분으로부터 알려진 거리만큼 떨어져 배치된 지오아크의 선택된 부분을 결정하는 단계; 및
선택된 특징 쌍에 대해 지오아크의 선택된 부분이 겹치는 위치를 식별하는 단계를 포함하는 방법.
A2. 단락 A1에 있어서, 기준 표현은 기준 평면을 따라 연장되는 2차원 표현이고, 지오아크의 선택된 부분을 결정하는 단계는 기준 평면 상의 알려진 거리에서 센서 평면을 결정하는 단계와, 센서 평면의 지오아크와의 교차점을 식별하는 단계를 포함하는 방법.
A3. 단락 A2에 있어서, 각각의 선택된 특징 쌍에 대해, 센서 평면의 지오아크와의 교차점을 기준 평면 상으로 이동시키는 단계와, 지오아크들의 선택된 부분이 겹쳐지는 식별된 위치들을 기준 표현 상의 대응하는 위치들과 연관시키는 단계를 더 포함하는 방법.
A4. 단락 A3에 있어서, 지오아크의 선택된 부분이 센서 평면에서의 지오아크의 운송수단의 위치에 대응하는 기준 표현 상의 위치와 가장 잘 겹쳐지는 위치에 대응하는 기준 표현 상의 위치를 선택하는 단계를 더 포함하는 방법.
A5. 단락 A1 내지 A4 중 어느 하나에 있어서, 각각의 선택된 특징 쌍에 대해, 지오아크의 선택된 부분을 기준 표현 상으로 이동시키는 단계와, 지오아크의 선택된 부분이 기준 표현 상의 대응하는 위치와 겹쳐지는 식별된 위치를 연관시키는 단계를 더 포함하는 방법.
A6. 단락 A1 내지 A5 중 어느 하나에 있어서, 선택된 특징 쌍에 대해 지오아크의 선택된 부분이 겹쳐지는 위치를 식별하는 단계는, 물리적 표면 구성의 일부분의 기준 표현의 영역을 복수의 분할로 분할하는 단계, 및 선택된 특징 쌍에 대한 지오아크의 선택된 부분이 겹쳐지는 각각의 분할에서의 각각의 분할 위치에 대해 개별적으로 식별하는 단계를 포함하는 방법.
A7. 단락 A6에 있어서, 선택된 특징 쌍에 대한 지오아크의 선택된 부분이 겹쳐지는 각각의 분할에서의 각각의 분할 위치에 대해 개별적으로 식별하는 단계는, 복수의 분할들에 대해 선택된 특징 쌍에 대한 지오아크의 선택된 부분이 겹쳐지는 각각의 분할에서의 위치를 동시에 식별하는 단계를 포함하는 방법.
A8. 단락 A7에 있어서, 센서가 알려진 시야를 갖고, 물리적 표면 구성의 일부분의 기준 표현의 영역을 복수의 분할로 분할하는 단계가, 물리적 표면 구성의 일부분의 기준 표현의 영역을 각각이 알려진 시야보다 더 작은 영역을 갖는 복수의 분할로 분할하는 단계를 포함하는 방법.
A9. 단락 A8에 있어서서, 기준 표현의 특징들의 대응하는 식별된 쌍들을 갖는 획득된 이미지의 특징들의 복수의 쌍들을 선택하는 단계는, 각 분할에 대해, 분할을 포함하는 획득된 이미지의 알려진 시야에서 특징들의 복수의 쌍들을 선택하는 단계를 포함하는 방법.
B10. 운송수단으로서,
물리적 표면 구성으로부터 알려진 거리만큼 이격된 위치로부터 물리적 표면 구성의 일부분의 이미지를 생성하도록 구성된 센서; 및
센서에 통신 가능하게 결합된 데이터 처리 시스템을 포함하되, 데이터 처리 시스템이,
기준 표현에서 식별된 물리적 표면 구성 및 특징들의 부분의 기준 표현을 저장하고,
획득된 이미지의 특징들을 식별하며,
획득된 이미지의 식별된 특징들을 기준 표현의 식별된 특징들과 연관시키고,
기준 표현의 특징들의 대응하는 식별된 쌍들을 갖는 획득된 이미지의 특징들의 복수의 쌍들을 선택하며,
획득된 이미지의 각각의 선택된 특징 쌍에 대해,
센서로부터의 특징들의 쌍 사이의 화각을 결정하고,
결정된 화각과 기준 표현에서 선택된 특징 쌍을 연관시키는 3차원 지오아크를 발생시키며,
물리적 표면 구성의 일부분으로부터 알려진 거리만큼 떨어져 배치된 지오아크의 선택된 부분을 결정하고,
선택된 특징 쌍에 대해 지오아크의 선택된 부분이 겹치는 위치를 식별하도록 구성된 운송수단.
B11. 단락 B10에 있어서, 기준 표현은 기준 평면을 따라 연장되는 2차원 표현이고, 데이터 처리 시스템이 기준 평면 상의 알려진 거리에서 센서 평면을 결정하며, 센서 평면의 지오아크와의 교차점을 식별하도록 더 구성된 운송수단.
B12. 단락 B11에 있어서, 데이터 처리 시스템은, 각각의 선택된 특징 쌍에 대해, 센서 평면의 교차점을 기준 평면 상으로 이동시키고, 지오아크들의 선택된 부분이 겹쳐지는 식별된 위치들을 기준 표현 상의 대응하는 위치들과 연관시키도록 더 구성된 운송수단.
B13. 단락 B12에 있어서, 데이터 처리 시스템은, 지오아크의 선택된 부분이 센서 평면에서의 지오아크의 운송수단의 위치에 대응하는 기준 표현 상의 위치와 가장 잘 겹쳐지는 위치에 대응하는 기준 표현 상의 위치를 선택하도록 더 구성된 운송수단.
B14. 단락 B10 내지 B13 중 어느 하나에 있어서, 데이터 처리 시스템은, 각각의 선택된 특징 쌍에 대해, 지오아크의 선택된 부분을 기준 표현 상으로 이동시키고, 지오아크의 선택된 부분이 기준 표현 상의 대응하는 위치와 겹쳐지는 식별된 위치를 연관시키도록 더 구성된 운송수단.
B15. 단락 B10 내지 B14 중 어느 하나에 있어서, 데이터 처리 시스템은, 물리적 표면 구성의 일부분의 기준 표현의 영역을 복수의 분할로 분할하고 선택된 특징 쌍에 대한 지오아크의 선택된 부분이 겹쳐지는 각각의 분할에서의 각각의 분할 위치에 대해 개별적으로 식별하도록 더 구성된 운송수단.
B16. 단락 B15에 있어서, 데이터 처리 시스템은, 복수의 분할들에 대해 선택된 특징 쌍에 대한 지오아크의 선택된 부분이 겹쳐지는 각각의 분할에서의 위치를 동시에 식별하도록 더 구성된 운송수단.
B17. 단락 B16에 있어서, 센서가 알려진 시야를 갖고, 데이터 처리 시스템은, 물리적 표면 구성의 일부분의 기준 표현의 영역을 각각이 알려진 시야보다 더 작은 영역을 갖는 복수의 분할로 분할하도록 구성된 운송수단.
B18. 단락 B19에 있어서, 데이터 처리 시스템은, 각 분할에 대해 분할을 포함하는 획득된 이미지의 알려진 시야에서 특징들의 복수의 쌍들을 선택하도록 더 구성된 운송수단.
C19. 컴퓨터 프로그램 제품으로서,
그와 함께 내장된 컴퓨터 판독 가능 프로그램 명령을 갖는 적어도 하나의 컴퓨터 판독 가능 저장 매체를 포함하되,
프로세서에 의해 실행될 때, 물리적 표면 구성의 일부분의 기준 표현 및 기준 표현에서 식별된 특징을 저장하고;
물리적 표면 구성으로부터 알려진 거리만큼 이격된 위치로부터 물리적 표면 구성의 일부분의 운송수단에 의해 지지된 센서에 의해 생성된 이미지를 수신 및 저장하며;
수신된 이미지의 특징들을 식별하고;
획득된 이미지의 식별된 특징들을 기준 표현의 식별된 특징들과 연관시키며;
기준 표현에서 특징들의 대응하는 식별된 쌍들을 갖는 수신된 이미지의 특징들의 복수의 쌍을 선택하고;
수신된 이미지의 각각의 선택된 특징 쌍에 대해,
센서로부터의 특징들의 쌍 사이의 화각을 결정하고,
결정된 화각과 기준 표현에서 선택된 특징 쌍을 연관시키는 3차원 지오아크를 발생시키며,
물리적 표면 구성의 일부분으로부터 떨어져서 알려진 거리에 배치된 지오아크의 선택된 부분을 결정하고;
선택된 특징 쌍에 대해 지오아크의 선택된 부분이 겹치는 위치를 식별하도록 프로세서를 구성하는 컴퓨터 프로그램 제품.
C20. 단락 C19에 있어서, 기준 표현은 기준 평면을 따라 연장되는 2차원 표현이고, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 기준 평면 상의 알려진 거리에서 센서 평면을 결정하며, 센서 평면의 지오아크와의 교차점을 식별하도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
C21. 단락 C20에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 각각의 선택된 특징 쌍에 대해, 센서 평면의 교차점을 기준 평면 상으로 이동시키고, 지오아크들의 선택된 부분이 겹쳐지는 식별된 위치들을 기준 표현 상의 대응하는 위치들과 연관시키도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
C22. 단락 C21에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 지오아크의 선택된 부분이 센서 평면에서의 지오아크의 운송수단의 위치에 대응하는 기준 표현 상의 위치와 가장 잘 겹쳐지는 위치에 대응하는 기준 표현 상의 위치를 선택하도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
C23. 단락 C19 내지 C22 중 어느 하나에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 각각의 선택된 특징 쌍에 대해, 지오아크의 선택된 부분을 기준 표현 상으로 이동시키고, 지오아크의 선택된 부분이 기준 표현 상의 대응하는 위치와 겹쳐지는 식별된 위치를 연관시키도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
C24. 단락 C19 내지 C23 중 어느 하나에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 물리적 표면 구성의 일부분의 기준 표현의 영역을 복수의 분할로 분할하고, 선택된 특징 쌍에 대한 지오아크의 선택된 부분이 겹쳐지는 각각의 분할에서의 각각의 분할 위치에 대해 개별적으로 식별하도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
C25. 단락 C24에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 복수의 분할들에 대해 선택된 특징 쌍에 대한 지오아크의 선택된 부분이 겹쳐지는 각각의 분할에서의 위치를 동시에 식별하도록 프로세서를 더 구성하는 컴퓨터 판독 가능 프로그램 제품.
C26. 단락 C25에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 물리적 표면 구성의 일부분의 기준 표현의 영역을 각각이 알려진 시야보다 더 작은 영역을 갖는 복수의 분할로 분할하도록 프로세서를 더 구성하는 컴퓨터 판독 가능 프로그램 제품.
C27. 단락 C26에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 각 분할에 대해, 분할을 포함하는 수신된 이미지의 알려진 시야에서 특징들의 복수의 쌍들을 선택하도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
D1. 공간적 국소화를 위한 방법으로서,
물리적 표면 구성으로부터 이격된 위치로부터 물리적 표면 구성의 일부분의 이미지를 운송수단에 의해 지지되는 센서로부터 획득하는 단계;
획득된 이미지의 특징들을 식별하는 단계;
획득된 이미지의 식별된 특징들을 볼륨 요소(보셀)의 3차원 공간에서 정의된 물리적 표면 구성의 일부분의 3차원 기준 표현의 식별된 특징들과 연관시키는 단계;
기준 표현의 특징들의 대응하는 식별된 쌍들을 갖는 획득된 이미지의 특징들의 복수의 쌍들을 선택하는 단계;
획득된 이미지의 각각의 선택된 특징 쌍에 대해,
센서로부터의 특징들의 쌍 사이의 화각을 결정하고,
결정된 화각과 기준 표현에서 선택된 특징 쌍을 연관시키는 3차원 지오아크를 발생시키며,
발생된 지오아크에 포함된 보셀을 식별하고;
각각의 식별된 보셀에 대해 보셀이 포함된 발생된 지오아크의 수를 가산하는 단계; 및
식별된 보셀 또는 보셀들이 가장 높은 수의 지오아크에 포함되는지를 결정하는 단계를 포함하는 방법.
D2. 단락 D1에 있어서, 센서로부터의 특징들의 쌍 사이의 화각을 결정하는 단계는 센서로부터의 특징들의 쌍 사이의 화각의 범위를 결정하는 단계를 포함하고, 화각의 범위는 높은 화각과 낮은 화각 사이에서 연장되며, 3차원 지오아크를 발생시키는 단계는 높은 화각에 기초하여 내부 지오아크 표면을 발생시키는 단계와, 낮은 화각에 기초하여 외부 지오아크 표면을 발생시키는 단계를 포함하는 방법.
D3. 단락 D2에 있어서, 발생된 지오아크에 포함된 보셀을 식별하는 단계는, 어느 보셀이 외부 지오아크 표면과 내부 지오아크 표면에 의해 한정된 공간의 체적 내에 존재하는지를 결정하는 단계를 포함하는 방법.
D4. 단락 D3에 있어서, 보셀이 외부 지오아크 표면과 내부 지오아크 표면에 의해 한정된 공간의 체적 내에 존재하는지를 결정하는 단계는, 각각의 고려된 보셀에 대해, 고려된 보셀 내의 대표 포인트(representative point)가 외부 지오아크 표면과 내부 지오아크 표면에 의해 한정된 공간의 체적 내에 존재하는지를 결정하는 단계를 포함하는 방법.
D5. 단락 D1 내지 D4 중 어느 하나에 있어서, 3차원 공간은 제1 좌표 원점을 갖는 제1 좌표계에 의해 정의되고, 결정된 화각과 기준 표현에서 선택된 특징 쌍을 연관시키는 3차원 지오아크를 발생시키는 단계는 제1 좌표계에서 3차원 지오아크를 발생시키는 단계를 포함하며, 발생된 지오아크에 포함된 보셀을 식별하는 단계는 지오아크의 좌표를 연관된 식별된 특징 쌍 사이에 중심을 둔 각각의 좌표 원점을 갖는 각각의 좌표계로 변환하는 단계 및 보셀의 좌표를 각각의 좌표계로 변환하는 단계를 포함하는 방법.
D6. 단락 D5에 있어서, 지오아크의 좌표를 각각의 좌표계로 변환하는 단계는, 연관된 식별된 특징 쌍 사이의 중간의 포인트의 좌표 값에 의해 지오아크의 좌표를 이동시키는 단계 및 각각의 좌표계의 축이 제1 좌표축과 정렬되도록 지오아크를 회전시키는 단계를 포함하는 방법.
D7. 단락 D6에 있어서, 발생된 지오아크에 포함된 보셀을 식별하는 단계는, 각각의 변환된 보셀이 변환된 내부 지오아크 표면의 반경과 변환된 외부 지오아크 표면의 반경 사이에 있는 각각의 좌표 원점으로부터의 거리에 배치되어 있는지를 결정하는 단계를 포함하는 방법.
D8. 단락 D1 내지 D7 중 어느 하나에 있어서, 발생된 지오아크에 포함된 보셀을 식별하는 단계는, 3차원 공간의 일부분을 선택하는 단계와, 3차원 공간의 선택된 부분 내의 각각의 보셀에 대해, 보셀이 발생된 지오아크에 포함되어 있는지 여부를 결정하는 단계를 포함하는 방법.
D9. 단락 D8에 있어서, 3차원 공간의 일부분을 선택하는 단계는, 각 보셀에 대해 보셀이 각각의 특징 쌍에 대해 포함되는 발생된 지오아크의 수를 가산하는 단계와, 적어도 부분적으로 보셀이 포함된 발생된 지오아크의 수의 각각의 보셀에 대한 합에 기초하여 3차원 공간의 선택된 부분의 크기를 수정하는 단계를 포함하는 방법.
D10. 단락 D1 내지 D9 중 어느 하나에 있어서, 각 보셀에 대해 보셀이 발생된 지오아크에 포함되어 있는지를 결정하는 단계는, 3차원 공간의 보셀에 대한 보셀 크기를 선택하는 단계 및 선택된 보셀 크기의 각 보셀에 대해 보셀이 발생된 지오아크에 포함되어 있는지 여부를 결정하는 단계를 포함하는 방법.
D11. 단락 D10에 있어서, 3차원 공간의 일부분을 선택하는 단계는, 각 보셀에 대해 보셀이 각각의 특징 쌍에 대해 포함되는 발생된 지오아크의 수를 가산하는 단계와, 적어도 부분적으로 보셀이 포함된 발생된 지오아크의 수의 각각의 보셀에 대한 합에 기초하여 보셀 크기를 수정하는 단계를 포함하는 방법.
D12. 단락 D1 내지 D11 중 어느 하나에 있어서, 각 보셀에 대해 보셀이 발생된 지오아크에 포함되어 있는지를 결정하는 단계는, 3차원 공간을 복수의 분리된 부분으로 분할하는 단계와, 복수의 분리된 부분 중 복수의 부분의 각각에 대해 동시에 각각의 분리된 부분의 보셀이 발생된 지오아크에 포함되어 있는지 여부를 식별하는 단계를 포함하는 방법.
E1. 운송수단으로서,
물리적 표면 구성으로부터 이격된 위치로부터 물리적 표면 구성의 일부분의 이미지를 생성하도록 구성된 센서; 및
센서에 통신 가능하게 결합된 데이터 처리 시스템을 포함하되, 데이터 처리 시스템이,
물리적 표면 구성으로부터 이격된 위치로부터 물리적 표면 구성의 일부분의 이미지를 센서로부터 획득하고;
획득된 이미지의 특징들을 식별하며;
획득된 이미지의 식별된 특징들을 볼륨 요소(보셀)의 3차원 공간에서 정의된 물리적 표면 구성의 일부분의 3차원 기준 표현의 식별된 특징들과 연관시키고;
기준 표현의 특징들의 대응하는 식별된 쌍들을 갖는 획득된 이미지의 특징들의 복수의 쌍들을 선택하고;
획득된 이미지의 각각의 선택된 특징 쌍에 대해,
센서로부터의 특징들의 쌍 사이의 화각을 결정하고,
결정된 화각과 기준 표현에서 선택된 특징 쌍을 연관시키는 3차원 지오아크를 발생시키며,
발생된 지오아크에 포함된 보셀을 식별하고,
각각의 식별된 보셀에 대한 보셀이 포함된 발생된 지오아크의 수를 가산하며; 및
식별된 보셀 또는 보셀들이 가장 높은 수의 지오아크에 포함되는지를 결정하도록 구성된 운송수단.
E2. 단락 E1에 있어서, 데이터 처리 시스템은, 센서로부터의 특징들의 쌍 사이의 화각의 범위를 결정하고, 화각의 범위는 높은 화각과 낮은 화각 사이에서 연장되며, 높은 화각에 기초하여 내부 지오아크 표면을 발생시키고, 낮은 화각에 기초하여 외부 지오아크 표면을 발생시키도록 더 구성된 운송수단.
E3. 단락 E2에 있어서, 데이터 처리 시스템은, 어느 보셀이 외부 지오아크 표면과 내부 지오아크 표면에 의해 한정된 공간의 체적 내에 존재하는지를 결정하도록 더 구성된 운송수단.
E4. 단락 E3에 있어서, 데이터 처리 시스템은, 각각의 고려된 보셀에 대해, 고려된 보셀 내의 대표 포인트(representative point)가 외부 지오아크 표면과 내부 지오아크 표면에 의해 한정된 공간의 체적 내에 존재하는지를 결정하도록 더 구성된 운송수단.
E5. 단락 E1 내지 E4 중 어느 하나에 있어서, 3차원 공간은 제1 좌표 원점을 갖는 제1 좌표계에 의해 정의되며, 데이터 처리 시스템은, 제1 좌표계에서 3차원 지오아크를 발생시키고, 지오아크의 좌표를 연관된 식별된 특징 쌍 사이에 중심을 둔 각각의 좌표 원점을 갖는 각각의 좌표계로 변환하며, 보셀의 좌표를 각각의 좌표계로 변환하도록 더 구성된 운송수단.
E6. 단락 E5에 있어서, 데이터 처리 시스템은, 연관된 식별된 특징 쌍 사이의 중간의 포인트의 좌표 값에 의해 지오아크의 좌표를 이동시키고, 각각의 좌표계의 축이 제1 좌표축과 정렬되게 지오아크를 회전시키도록 더 구성된 운송수단.
E7. 단락 E6에 있어서, 데이터 처리 시스템은, 각각의 변환된 보셀이 변환된 내부 지오아크 표면의 반경과 변환된 외부 지오아크 표면의 반경 사이에 있는 각각의 좌표 원점으로부터의 거리에 배치되어 있는지를 결정하도록 더 구성된 운송수단.
E8. 단락 E1 내지 E7 중 어느 하나에 있어서, 데이터 처리 시스템은, 3차원 공간의 일부분을 선택하고, 3차원 공간의 선택된 부분 내의 각각의 보셀에 대해, 보셀이 발생된 지오아크에 포함되어 있는지 여부를 결정하도록 더 구성된 운송수단.
E9. 단락 E8에 있어서, 데이터 처리 시스템은, 각 보셀에 대해 보셀이 각각의 특징 쌍에 대해 포함되는 발생된 지오아크의 수를 가산하고, 적어도 부분적으로 보셀이 포함된 발생된 지오아크의 수의 각각의 보셀에 대한 합에 기초하여 3차원 공간의 선택된 부분의 크기를 수정하도록 더 구성된 운송수단.
E10. 단락 E1 내지 E9 중 어느 하나에 있어서, 데이터 처리 시스템은, 3차원 공간의 보셀에 대한 보셀 크기를 선택하고, 선택된 보셀 크기의 각 보셀에 대해 보셀이 발생된 지오아크에 포함되어 있는지 여부를 결정하도록 더 구성된 운송수단.
E11. 단락 E10에 있어서, 데이터 처리 시스템은, 각 보셀에 대해 보셀이 각각의 특징 쌍에 대해 포함되는 발생된 지오아크의 수를 가산하고, 적어도 부분적으로 보셀이 포함된 발생된 지오아크의 수의 각각의 보셀에 대한 합에 기초하여 보셀 크기를 수정하도록 더 구성된 운송수단.
E12. 단락 E1 내지 E11 중 어느 하나에 있어서, 데이터 처리 시스템은, 3차원 공간을 복수의 분리된 부분으로 분할하고, 복수의 분리된 부분 중 복수의 부분의 각각에 대해 동시에 각각의 분리된 부분의 보셀이 발생된 지오아크에 포함되어 있는지 여부를 식별하도록 더 구성된 운송수단.
F1. 컴퓨터 프로그램 제품으로서,
그와 함께 내장된 컴퓨터 판독 가능 프로그램 명령을 갖는 적어도 하나의 컴퓨터 판독 가능 저장 매체를 포함하되,
프로세서에 의해 실행될 때, 물리적 표면 구성으로부터 이격된 위치로부터 물리적 표면 구성의 일부분의 이미지를 운송수단에 의해 지지되는 센서로부터 획득하고;
획득된 이미지의 특징들을 식별하며;
획득된 이미지의 식별된 특징들을 볼륨 요소(보셀)의 3차원 공간에서 정의된 물리적 표면 구성의 일부분의 3차원 기준 표현의 식별된 특징들과 연관시키고;
기준 표현의 특징들의 대응하는 식별된 쌍들을 갖는 획득된 이미지의 특징들의 복수의 쌍들을 선택하며;
획득된 이미지의 각각의 선택된 특징 쌍에 대해,
센서로부터의 특징들의 쌍 사이의 화각을 결정하고,
결정된 화각과 기준 표현에서 선택된 특징 쌍을 연관시키는 3차원 지오아크를 발생시키며,
발생된 지오아크에 포함된 보셀을 식별하고,
각각의 식별된 보셀에 대해 보셀이 포함된 발생된 지오아크의 수를 가산하며, 및
식별된 보셀 또는 보셀들이 가장 높은 수의 지오아크에 포함되는지를 결정하도록 프로세서를 구성하는 컴퓨터 프로그램 제품.
F2. 단락 F1에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 센서로부터의 특징들의 쌍 사이의 화각의 범위를 결정하고, 화각의 범위는 높은 화각과 낮은 화각 사이에서 연장되며, 높은 화각에 기초하여 내부 지오아크 표면을 발생시키고, 낮은 화각에 기초하여 외부 지오아크 표면을 발생시키도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
F3. 단락 F2에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 어느 보셀이 외부 지오아크 표면과 내부 지오아크 표면에 의해 한정된 공간의 체적 내에 존재하는지를 결정하도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
F4. 단락 F3에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 각각의 고려된 보셀에 대해, 고려된 보셀 내의 대표 포인트(representative point)가 외부 지오아크 표면과 내부 지오아크 표면에 의해 한정된 공간의 체적 내에 존재하는지를 결정하도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
F5. 단락 F1 내지 F4 중 어느 하나에 있어서, 3차원 공간은 제1 좌표 원점을 갖는 제1 좌표계에 의해 정의되고, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 제1 좌표계에서 3차원 지오아크를 발생시키고, 지오아크의 좌표를 연관된 식별된 특징 쌍 사이에 중심을 둔 각각의 좌표 원점을 갖는 각각의 좌표계로 변환하며, 보셀의 좌표를 각각의 좌표계로 변환하도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
F6. 단락 F5에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 연관된 식별된 특징 쌍 사이의 중간의 포인트의 좌표 값에 의해 지오아크의 좌표를 이동시키고, 각각의 좌표계의 축이 제1 좌표축과 정렬되게 지오아크를 회전시키도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
F7. 단락 F6에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 각각의 변환된 보셀이 변환된 내부 지오아크 표면의 반경과 변환된 외부 지오아크 표면의 반경 사이에 있는 각각의 좌표 원점으로부터의 거리에 배치되어 있는지를 결정하도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
F8. 단락 F1 내지 F7 중 어느 하나에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 3차원 공간의 일부분을 선택하고, 3차원 공간의 선택된 부분 내의 각각의 보셀에 대해, 보셀이 발생된 지오아크에 포함되어 있는지 여부를 결정하도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
F9. 단락 F8에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 각 보셀에 대해 보셀이 각각의 특징 쌍에 대해 포함되는 발생된 지오아크의 수를 가산하고, 적어도 부분적으로 보셀이 포함된 발생된 지오아크의 수의 각각의 보셀에 대한 합에 기초하여 3차원 공간의 선택된 부분의 크기를 수정하도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
F10. 단락 F1 내지 F9 중 어느 하나에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 3차원 공간의 보셀에 대한 보셀 크기를 선택하고, 선택된 보셀 크기의 각 보셀에 대해 보셀이 발생된 지오아크에 포함되어 있는지 여부를 결정하도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
F11. 단락 F10에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 각 보셀에 대해 보셀이 각각의 특징 쌍에 대해 포함되는 발생된 지오아크의 수를 가산하고, 적어도 부분적으로 보셀이 포함된 발생된 지오아크의 수의 각각의 보셀에 대한 합에 기초하여 보셀 크기를 수정하도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
F12. 단락 F1 내지 F11 중 어느 하나에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 3차원 공간을 복수의 분리된 부분으로 분할하고, 복수의 분리된 부분 중 복수의 부분의 각각에 대해 동시에 각각의 분리된 부분의 보셀이 발생된 지오아크에 포함되어 있는지 여부를 식별하도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
또한, 본 발명은 다음의 절(clause)에 따른 실시예들을 포함한다:
절 1. 공간적 국소화를 위한 방법으로서,
운송수단에 의해 지지된 센서로부터 물리적 표면 구성의 일부분의 이미지를 물리적 표면 구성으로부터 알려진 거리만큼 이격된 위치로부터 획득하는 단계;
획득된 이미지의 특징들을 식별하는 단계;
획득된 이미지의 식별된 특징들을 물리적 표면 구성의 일부분의 기준 표현의 식별된 특징들과 연관시키는 단계;
기준 표현의 특징들의 대응하는 식별된 쌍들을 갖는 획득된 이미지의 특징들의 복수의 쌍들을 선택하는 단계;
획득된 이미지의 각각의 선택된 특징 쌍에 대해,
센서로부터의 특징들의 쌍 사이의 화각을 결정하고,
결정된 화각과 기준 표현에서 선택된 특징 쌍을 연관시키는 3차원 지오아크를 발생시키며,
물리적 표면 구성의 일부분으로부터 알려진 거리만큼 떨어져 배치된 지오아크의 선택된 부분을 결정하는 단계; 및
선택된 특징 쌍에 대해 지오아크의 선택된 부분이 겹치는 위치를 식별하는 단계를 포함하는 방법.
절 2. 절 1에 있어서, 기준 표현은 기준 평면을 따라 연장되는 물리적 표면 구성의 일부분의 2차원 표현이고, 지오아크의 선택된 부분을 결정하는 단계는 기준 평면 상의 알려진 거리에서 센서 평면을 결정하는 단계와, 센서 평면의 지오아크와의 교차점을 식별하는 단계를 포함하는 방법.
절 3. 절 2에 있어서, 각각의 선택된 특징 쌍에 대해, 센서 평면의 지오아크와의 교차점을 기준 평면 상으로 이동시키는 단계와, 지오아크들의 선택된 부분이 겹쳐지는 식별된 위치들을 기준 표현 상의 대응하는 위치들과 연관시키는 단계를 더 포함하는 방법.
절 4. 절 3에 있어서, 지오아크의 선택된 부분이 센서 평면에서의 지오아크의 운송수단의 위치에 대응하는 기준 표현 상의 위치와 가장 잘 겹쳐지는 위치에 대응하는 기준 표현 상의 위치를 선택하는 단계를 더 포함하는 방법.
절 5. 절 1 내지 절 4 중 어느 하나에 있어서, 각각의 선택된 특징 쌍에 대해, 지오아크의 선택된 부분을 기준 표현 상으로 이동시키는 단계와, 지오아크의 선택된 부분이 기준 표현 상의 대응하는 위치와 겹쳐지는 식별된 위치를 연관시키는 단계를 더 포함하는 방법.
절 6. 절 1 내지 절 5 중 어느 하나에 있어서, 선택된 특징 쌍에 대해 지오아크의 선택된 부분이 겹쳐지는 위치를 식별하는 단계는, 물리적 표면 구성의 일부분의 기준 표현의 영역을 복수의 분할로 분할하는 단계, 및 선택된 특징 쌍에 대한 지오아크의 선택된 부분이 겹쳐지는 각각의 분할에서의 각각의 분할 위치에 대해 개별적으로 식별하는 단계를 포함하는 방법.
절 7. 절 6에 있어서, 선택된 특징 쌍에 대한 지오아크의 선택된 부분이 겹쳐지는 각각의 분할에서의 각각의 분할 위치에 대해 개별적으로 식별하는 단계는, 복수의 분할들에 대해 선택된 특징 쌍에 대한 지오아크의 선택된 부분이 겹쳐지는 각각의 분할에서의 위치를 동시에 식별하는 단계를 포함하는 방법.
절 8. 절 7항에 있어서, 센서가 알려진 시야를 갖고, 물리적 표면 구성의 일부분의 기준 표현의 영역을 복수의 분할로 분할하는 단계가, 물리적 표면 구성의 일부분의 기준 표현의 영역을 각각이 알려진 시야보다 더 작은 영역을 갖는 복수의 분할로 분할하는 단계를 포함하는 방법.
절 9. 운송수단으로서,
물리적 표면 구성의 일부분으로부터 알려진 거리만큼 이격된 위치로부터 물리적 표면 구성의 일부분의 이미지를 생성하도록 구성된 센서; 및
센서에 통신 가능하게 결합된 데이터 처리 시스템을 포함하되, 데이터 처리 시스템이,
기준 표현에서 식별된 물리적 표면 구성 및 특징들의 부분의 기준 표현을 저장하고,
획득된 이미지의 특징들을 식별하며;
획득된 이미지의 식별된 특징들을 기준 표현의 식별된 특징들과 연관시키고,
기준 표현의 특징들의 대응하는 식별된 쌍들을 갖는 획득된 이미지의 특징들의 복수의 쌍들을 선택하며,
획득된 이미지의 각각의 선택된 특징 쌍에 대해,
센서로부터의 특징들의 쌍 사이의 화각을 결정하고,
결정된 화각과 기준 표현에서 선택된 특징 쌍을 연관시키는 3차원 지오아크를 발생시키며,
물리적 표면 구성의 일부분으로부터 알려진 거리만큼 떨어져 배치된 지오아크의 선택된 부분을 결정하고; 및
선택된 특징 쌍에 대해 지오아크의 선택된 부분이 겹치는 위치를 식별하도록 구성된 운송수단.
절 10. 절 9에 있어서, 기준 표현은 기준 평면을 따라 연장되는 2차원 표현이고, 데이터 처리 시스템이 기준 평면 상의 알려진 거리에서 센서 평면을 결정하며, 센서 평면의 지오아크와의 교차점을 식별하도록 더 구성된 운송수단.
절 11. 절 10에 있어서, 데이터 처리 시스템은, 각각의 선택된 특징 쌍에 대해, 센서 평면의 교차점을 기준 평면 상으로 이동시키고, 지오아크들의 선택된 부분이 겹쳐지는 식별된 위치들을 기준 표현 상의 대응하는 위치들과 연관시키도록 더 구성된 운송수단.
절 12. 절 11에 있어서, 데이터 처리 시스템은, 지오아크의 선택된 부분이 센서 평면에서의 지오아크의 운송수단의 위치에 대응하는 기준 표현 상의 위치와 가장 잘 겹쳐지는 위치에 대응하는 기준 표현 상의 위치를 선택하도록 더 구성된 운송수단.
절 13. 절 9 내지 절 12 중 어느 하나에 있어서, 데이터 처리 시스템은, 각각의 선택된 특징 쌍에 대해, 지오아크의 선택된 부분을 기준 표현 상으로 이동시키고, 지오아크의 선택된 부분이 기준 표현 상의 대응하는 위치와 겹쳐지는 식별된 위치를 연관시키도록 더 구성된 운송수단.
절 14. 절 9 내지 절 13 중 어느 하나에 있어서, 데이터 처리 시스템은, 물리적 표면 구성의 일부분의 기준 표현의 영역을 복수의 분할로 분할하고 선택된 특징 쌍에 대한 지오아크의 선택된 부분이 겹쳐지는 각각의 분할에서의 각각의 분할 위치에 대해 개별적으로 식별하도록 더 구성된 운송수단.
절 15. 절 14에 있어서, 데이터 처리 시스템은, 복수의 분할들에 대해 선택된 특징 쌍에 대한 지오아크의 선택된 부분이 겹쳐지는 각각의 분할에서의 위치를 동시에 식별하도록 더 구성된 운송수단.
절 16. 절 15에 있어서, 센서가 알려진 시야를 갖고, 데이터 처리 시스템은, 물리적 표면 구성의 일부분의 기준 표현의 영역을 각각이 알려진 시야보다 더 작은 영역을 갖는 복수의 분할로 분할하도록 구성된 운송수단.
절 17. 컴퓨터 프로그램 제품으로서,
그와 함께 내장된 컴퓨터 판독 가능 프로그램 명령을 갖는 적어도 하나의 컴퓨터 판독 가능 저장 매체를 포함하되,
프로세서에 의해 실행될 때, 물리적 표면 구성의 일부분의 기준 표현 및 기준 표현에서 식별된 특징을 저장하고;
물리적 표면 구성으로부터 알려진 거리만큼 이격된 위치로부터 물리적 표면 구성의 일부분의 운송수단에 의해 지지된 센서에 의해 생성된 이미지를 수신 및 저장하며;
수신된 이미지의 특징들을 식별하고;
획득된 이미지의 식별된 특징들을 기준 표현의 식별된 특징들과 연관시키며,
기준 표현에서 특징들의 대응하는 식별된 쌍들을 갖는 수신된 이미지의 특징들의 복수의 쌍을 선택하고,
수신된 이미지의 각각의 선택된 특징 쌍에 대해,
센서로부터의 특징들의 쌍 사이의 화각을 결정하고,
결정된 화각과 기준 표현에서 선택된 특징 쌍을 연관시키는 3차원 지오아크를 발생시키며,
물리적 표면 구성의 일부분으로부터 떨어져서 알려진 거리에 배치된 지오아크의 선택된 부분을 결정하며; 및
선택된 특징 쌍에 대해 지오아크의 선택된 부분이 겹치는 위치를 식별하도록 프로세서를 구성하는 컴퓨터 프로그램 제품.
절 18. 절 17에 있어서, 기준 표현은 기준 평면을 따라 연장되는 2차원 표현이고, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 기준 평면 상의 알려진 거리에서 센서 평면을 결정하며, 센서 평면의 지오아크와의 교차점을 식별하도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
절 19. 절 18에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 각각의 선택된 특징 쌍에 대해, 센서 평면의 교차점을 기준 평면 상으로 이동시키고, 지오아크들의 선택된 부분이 겹쳐지는 식별된 위치들을 기준 표현 상의 대응하는 위치들과 연관시키도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
절 20. 절 17 내지 절 19 중 어느 하나에 있어서, 컴퓨터 판독 가능 프로그램 명령은, 프로세서에 의해 판독될 때, 각각의 선택된 특징 쌍에 대해, 지오아크의 선택된 부분을 기준 표현 상으로 이동시키고, 지오아크의 선택된 부분이 기준 표현 상의 대응하는 위치와 겹쳐지는 식별된 위치를 연관시키도록 프로세서를 더 구성하는 컴퓨터 프로그램 제품.
장점, 기능, 이점
여기에서 설명된 공간적 국소화 시스템, 방법 및 장치의 다른 실시예는 이미지 센서를 위치시키고 운송수단을 지지하기 위한 알려진 해결책에 비해 몇 가지 이점을 제공한다. 본 명세서에 개시된 공간적 국소화 시스템, 방법 및 장치의 실시예는 수동 카메라 기반 접근법을 이용하지만, 기존의 수동 카메라 방법과 달리, 3D 모델의 추정을 필요로 하지 않고, 특징들의 무리(constellations of features)에 대한 높은 정확도 관련성(accuracy correspondences), 이미지의 뒤틀림 또는 장면에서의 객체의 인식을 찾아낸다. 대신에, 에지, 모서리, 피크 등과 같은 단순한 특징 사이의 상대 각도만이 이미지에서 측정될 필요가 있으며, 검지된 특징 중 작은 서브세트(subset, 부분 집합)만이 2D 또는 3D 객체 또는 장면과 같은 물리적 표면 구성에 대해 정확한 2D 또는 3D 공간적 및 지오-국소화(geo-localization)를 위한 지도화된 특징의 데이터베이스와 매치될 필요가 있다. 공간적 국소화 시스템, 방법 및 장치의 특성은, 이미지 또는 특징의 무리를 지도와 매치시키려는 기존의 이미지 기반 방법보다 더 정확하고 견고하며 효율적이다. 따라서, 여기에 설명된 예시적인 실시예는 GPS가 가능하지 않거나 또는 GPS가 이용 가능하지 않은 위치에 있는 장치에 특히 유용하다. 그러나, 여기에 설명된 모든 실시예가 동일한 이점 또는 동일한 정도의 이점을 제공하는 것은 아니다.
결론
위에 명시한 개시는 독립적인 유용성을 갖는 다수의 별개의 발명을 포함할 수 있다. 이들 발명의 각각이 그 바람직한 형태로 개시되었지만, 여기에 개시되고 예시된 바와 같은 그 특정 실시 태양은 다양한 변형이 가능하기 때문에 제한적인 의미로 생각되어서는 않된다. 섹션 표제가 이 명세서 내에서 사용되는 한, 그러한 표제는 단지 조직적인 목적을 위한 것이며 청구된 발명의 특징을 구성하지 않는다. 본 발명의 주제는 본원에 개시된 다양한 요소, 특징, 기능 및/또는 특성의 신규하고 모호하지 않은 모든 조합 및 하위 조합(subcombination)을 포함한다. 다음의 청구범위는 특히 신규하고 모호하지 않은 것으로 여겨지는 특정 조합 및 하위 조합을 지적한다. 특징, 기능, 요소 및/또는 특성의 다른 조합 및 하위 조합으로 구체화된 발명은 이 출원 또는 관련된 출원으로부터 우선권을 주장하는 출원에서 주장될 수 있다. 이러한 청구범위는 다른 발명 또는 동일 발명에 관한 것이든, 원래의 청구범위보다 더 넓거나, 더 좁거나, 동등하거나 또는 범위가 다른지 여부도 또한 본 발명의 발명의 주제 내에 포함되는 것으로 간주된다.

Claims (15)

  1. 공간적 국소화 방법으로서,
    운송수단에 의해 지지된 센서로부터 물리적 표면 구성의 일부분의 이미지를 물리적 표면 구성으로부터 알려진 거리만큼 이격된 위치로부터 획득하는 단계;
    획득된 이미지 내의 특징들을 식별하는 단계;
    획득된 이미지 내의 식별된 특징들을 물리적 표면 구성의 일부분의 기준 표현 내의 식별된 특징들과 연관시키는 단계;
    기준 표현 내의 특징들의 대응하는 식별된 쌍들을 갖는 획득된 이미지 내의 특징들의 복수의 쌍들을 선택하는 단계;
    획득된 이미지 내의 각각의 선택된 특징 쌍에 대해,
    센서로부터의 특징들의 쌍 사이의 화각을 결정하고,
    결정된 화각과 기준 표현 내의 선택된 특징 쌍을 연관시키는 3차원 지오아크를 발생시키며,
    물리적 표면 구성의 일부분으로부터 상기 알려진 거리만큼 떨어져 배치된 지오아크의 선택된 부분을 결정하는 단계; 및
    선택된 특징 쌍들에 대해 지오아크들의 선택된 부분들이 겹쳐지는 위치들을 식별하는 단계;를 포함하는 것을 특징으로 하는 방법.
  2. 제1항에 있어서, 기준 표현은 기준 평면을 따라 연장되는 물리적 표면 구성의 일부분의 2차원 표현이고, 지오아크의 선택된 부분을 결정하는 단계는 기준 평면 상의 상기 알려진 거리에서 센서 평면을 결정하는 단계와, 센서 평면의 지오아크와의 교차점을 식별하는 단계를 포함하는 것을 특징으로 하는 방법.
  3. 제2항에 있어서, 각각의 선택된 특징 쌍에 대해, 센서 평면의 지오아크와의 교차점을 기준 평면 상으로 이동시키는 단계와, 지오아크들의 선택된 부분들이 겹쳐지는 식별된 위치들을 기준 표현 상의 대응하는 위치들과 연관시키는 단계를 더 포함하는 것을 특징으로 하는 방법.
  4. 제3항에 있어서, 지오아크들의 선택된 부분들이 가장 많이 겹쳐지는 위치에 대응하는 기준 표현 상의 위치를, 센서 평면에서의 지오아크 내의 운송수단의 위치에 대응하는 기준 표현 상의 위치로 선택하는 단계를 더 포함하는 것을 특징으로 하는 방법.
  5. 제1항 내지 제4항 중 어느 한 항에 있어서, 각각의 선택된 특징 쌍에 대해, 지오아크의 선택된 부분을 기준 표현 상으로 이동시키는 단계와, 지오아크들의 선택된 부분들이 겹쳐지는 식별된 위치들을 기준 표현 상의 대응하는 위치들과 연관시키는 단계를 더 포함하는 것을 특징으로 하는 방법.
  6. 제1항 내지 제4항 중 어느 한 항에 있어서, 선택된 특징 쌍들에 대해 지오아크들의 선택된 부분들이 겹쳐지는 위치들을 식별하는 단계는, 물리적 표면 구성의 일부분의 기준 표현의 영역을 복수의 분할들로 분할하는 단계, 및 각각의 분할에 대해 개별적으로, 선택된 특징 쌍들에 대한 지오아크들의 선택된 부분들이 겹쳐지는 위치들을 각각의 분할에서 식별하는 단계를 포함하는 것을 특징으로 하는 방법.
  7. 제6항에 있어서, 각각의 분할에 대해 개별적으로, 선택된 특징 쌍들에 대한 지오아크들의 선택된 부분들이 겹쳐지는 위치들을 각각의 분할에서 식별하는 단계는, 복수의 분할들 중 복수에 대해 동시에, 선택된 특징 쌍들에 대한 지오아크들의 선택된 부분들이 겹쳐지는 위치들을 각각의 분할에서 식별하는 단계를 포함하는 것을 특징으로 하는 방법.
  8. 제7항에 있어서, 센서는 알려진 시야를 가지며, 물리적 표면 구성의 일부분의 기준 표현의 영역을 복수의 분할들로 분할하는 단계가, 물리적 표면 구성의 일부분의 기준 표현의 영역을 각각이 상기 알려진 시야보다 더 작은 영역을 갖는 복수의 분할들로 분할하는 단계를 포함하는 것을 특징으로 하는 방법.
  9. 운송수단으로서,
    물리적 표면 구성의 일부분으로부터 알려진 거리만큼 이격된 위치로부터 물리적 표면 구성의 일부분의 이미지를 생성하도록 구성된 센서; 및
    센서에 통신 가능하게 결합된 데이터 처리 시스템;을 포함하되, 데이터 처리 시스템이,
    물리적 표면 구성의 일부분의 기준 표현 및 기준 표현에서 식별된 특징들을 저장하고,
    획득된 이미지 내의 특징들을 식별하며;
    획득된 이미지 내의 식별된 특징들을 기준 표현 내의 식별된 특징들과 연관시키고,
    기준 표현 내의 특징들의 대응하는 식별된 쌍들을 갖는 획득된 이미지 내의 특징들의 복수의 쌍들을 선택하며,
    획득된 이미지 내의 각각의 선택된 특징 쌍에 대해,
    센서로부터의 특징들의 쌍 사이의 화각을 결정하고,
    결정된 화각과 기준 표현 내의 선택된 특징 쌍을 연관시키는 3차원 지오아크를 발생시키며,
    물리적 표면 구성의 일부분으로부터 상기 알려진 거리만큼 떨어져 배치된 지오아크의 선택된 부분을 결정하고; 및
    선택된 특징 쌍들에 대해 지오아크들의 선택된 부분들이 겹쳐지는 위치를 식별하도록 구성된 것을 특징으로 하는 운송수단.
  10. 제9항에 있어서, 기준 표현은 기준 평면을 따라 연장되는 2차원 표현이고, 데이터 처리 시스템이 기준 평면 상의 상기 알려진 거리에서 센서 평면을 결정하며, 센서 평면의 지오아크와의 교차점을 식별하도록 더 구성된 것을 특징으로 하는 운송수단.
  11. 제10항에 있어서, 데이터 처리 시스템은, 각각의 선택된 특징 쌍에 대해, 센서 평면의 교차점을 기준 평면 상으로 이동시키고, 지오아크들의 선택된 부분들이 겹쳐지는 식별된 위치들을 기준 표현 상의 대응하는 위치들과 연관시키도록 더 구성된 것을 특징으로 하는 운송수단.
  12. 제11항에 있어서, 데이터 처리 시스템은, 지오아크들의 선택된 부분들이 가장 많이 겹쳐지는 위치에 대응하는 기준 표현 상의 위치를, 센서 평면에서의 지오아크 내의 운송수단의 위치에 대응하는 기준 표현 상의 위치로 선택하도록 더 구성된 것을 특징으로 하는 운송수단.
  13. 제9항 내지 제12항 중 어느 한 항에 있어서, 데이터 처리 시스템은, 각각의 선택된 특징 쌍에 대해, 지오아크의 선택된 부분을 기준 표현 상으로 이동시키고, 지오아크들의 선택된 부분들이 겹쳐지는 식별된 위치들을 기준 표현 상의 대응하는 위치들과 연관시키도록 더 구성된 것을 특징으로 하는 운송수단.
  14. 제9항 내지 제12항 중 어느 한 항에 있어서, 데이터 처리 시스템은, 물리적 표면 구성의 일부분의 기준 표현의 영역을 복수의 분할들로 분할하고 각각의 분할에 대해 개별적으로, 선택된 특징 쌍들에 대한 지오아크들의 선택된 부분들이 겹쳐지는 위치들을 각각의 분할에서 식별하도록 더 구성된 것을 특징으로 하는 운송수단.
  15. 제14항에 있어서, 데이터 처리 시스템은, 복수의 분할들 중 복수에 대해 동시에, 선택된 특징 쌍들에 대한 지오아크들의 선택된 부분들이 겹쳐지는 위치들을 각각의 분할에서 식별하고, 선택적으로, 센서는 알려진 시야를 가지며, 데이터 처리 시스템은, 물리적 표면 구성의 일부분의 기준 표현의 영역을 각각이 상기 알려진 시야보다 더 작은 영역을 갖는 복수의 분할들로 분할하도록 더 구성된 것을 특징으로 하는 운송수단.
KR1020220055874A 2016-08-30 2022-05-06 지오아크를 이용한 2차원 운송수단 국소화 KR102526542B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/252,120 US10402675B2 (en) 2016-08-30 2016-08-30 2D vehicle localizing using geoarcs
US15/252,120 2016-08-30
KR1020170100109A KR102396929B1 (ko) 2016-08-30 2017-08-08 지오아크를 이용한 2차원 운송수단 국소화

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170100109A Division KR102396929B1 (ko) 2016-08-30 2017-08-08 지오아크를 이용한 2차원 운송수단 국소화

Publications (2)

Publication Number Publication Date
KR20220066862A true KR20220066862A (ko) 2022-05-24
KR102526542B1 KR102526542B1 (ko) 2023-04-26

Family

ID=59337419

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020170100109A KR102396929B1 (ko) 2016-08-30 2017-08-08 지오아크를 이용한 2차원 운송수단 국소화
KR1020220055874A KR102526542B1 (ko) 2016-08-30 2022-05-06 지오아크를 이용한 2차원 운송수단 국소화

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020170100109A KR102396929B1 (ko) 2016-08-30 2017-08-08 지오아크를 이용한 2차원 운송수단 국소화

Country Status (5)

Country Link
US (1) US10402675B2 (ko)
EP (2) EP3291176B1 (ko)
JP (1) JP7033859B2 (ko)
KR (2) KR102396929B1 (ko)
CN (1) CN107796384B (ko)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108139758A (zh) * 2015-10-09 2018-06-08 深圳市大疆创新科技有限公司 基于显著性特征的载运工具定位
US20190004524A1 (en) * 2016-08-31 2019-01-03 Faraday&Future Inc. System and method for planning a vehicle path
US10579067B2 (en) * 2017-07-20 2020-03-03 Huawei Technologies Co., Ltd. Method and system for vehicle localization
CN109102537B (zh) * 2018-06-25 2020-03-20 中德人工智能研究院有限公司 一种二维激光雷达和球幕相机结合的三维建模方法和系统
JP7017998B2 (ja) * 2018-09-13 2022-02-09 エスゼット ディージェイアイ テクノロジー カンパニー リミテッド 情報処理装置、飛行経路生成方法、プログラム、及び記録媒体
EP3719696A1 (en) 2019-04-04 2020-10-07 Aptiv Technologies Limited Method and device for localizing a sensor in a vehicle
US11427232B2 (en) * 2019-10-16 2022-08-30 Bnsf Railway Company Systems and methods for auditing assets

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6219444B1 (en) * 1997-02-03 2001-04-17 Yissum Research Development Corporation Of The Hebrew University Of Jerusalem Synthesizing virtual two dimensional images of three dimensional space from a collection of real two dimensional images
US6393162B1 (en) * 1998-01-09 2002-05-21 Olympus Optical Co., Ltd. Image synthesizing apparatus
US20050213818A1 (en) * 2003-04-28 2005-09-29 Sony Corporation Image recognition device and method, and robot device
US20080013836A1 (en) * 2006-06-19 2008-01-17 Akira Nakamura Information Processing Device, Information Processing Method, and Program
US20130271607A1 (en) * 2010-12-20 2013-10-17 Katsuhiko Takahashi Positioning apparatus and positioning method
US20130287290A1 (en) * 2012-04-30 2013-10-31 The Boeing Company Image registration of multimodal data using 3d geoarcs
US8619779B2 (en) * 2009-09-30 2013-12-31 Alcatel Lucent Scalable architecture for enterprise extension in a cloud topology
US20150206029A1 (en) * 2014-01-22 2015-07-23 Fujitsu Limited Image matching method and image processing system
US9327406B1 (en) * 2014-08-19 2016-05-03 Google Inc. Object segmentation based on detected object-specific visual cues
US9501700B2 (en) * 2012-02-15 2016-11-22 Xactware Solutions, Inc. System and method for construction estimation using aerial images
US9679227B2 (en) * 2013-08-02 2017-06-13 Xactware Solutions, Inc. System and method for detecting features in aerial images using disparity mapping and segmentation techniques
US9756280B2 (en) * 2013-02-22 2017-09-05 Ohio University Reduction of sensor captured data streamed to an operator

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000068660A (ko) 1997-07-29 2000-11-25 요트.게.아. 롤페즈 3차원 장면 재구성 방법과 재구성 장치 및 디코딩 시스템
US20010036302A1 (en) 1999-12-10 2001-11-01 Miller Michael I. Method and apparatus for cross modality image registration
JP2002109539A (ja) 2000-07-26 2002-04-12 Fujitsu Ltd 画像撮影手段の位置姿勢検出装置、3次元物体認識装置および地図特徴データ作成方法
US6819779B1 (en) * 2000-11-22 2004-11-16 Cognex Corporation Lane detection system and apparatus
US7580591B2 (en) 2005-07-01 2009-08-25 The Boeing Company Method for generating a synthetic perspective image
EP1862969A1 (en) 2006-06-02 2007-12-05 Eidgenössische Technische Hochschule Zürich Method and system for generating a representation of a dynamically changing 3D scene
CN101109646A (zh) * 2007-08-22 2008-01-23 广东瑞图万方科技有限公司 导航系统
US9123159B2 (en) 2007-11-30 2015-09-01 Microsoft Technology Licensing, Llc Interactive geo-positioning of imagery
US8191828B2 (en) 2008-05-13 2012-06-05 The Boeing Company Methods and apparatus for aerial recovery of flying apparatus
US20090295791A1 (en) 2008-05-29 2009-12-03 Microsoft Corporation Three-dimensional environment created from video
DE112011102132T5 (de) * 2010-06-25 2013-05-23 Trimble Navigation Ltd. Verfahren und Vorrichtung für eine imagebasierte Positionierung
WO2012018497A2 (en) 2010-07-25 2012-02-09 Raytheon Company ENHANCED SITUATIONAL AWARENESS AND TARGETING (eSAT) SYSTEM
CN107014373B (zh) * 2012-01-12 2020-06-09 曦恩体感科技股份有限公司 在定位时用来产生一地理方位的方法及定位系统
FR3006759B1 (fr) 2013-06-07 2015-06-05 Thales Sa Systeme optique de mesure d'orientation et de position a source ponctuelle, masque central, capteur matriciel photosensible et coin de cube
US9025141B1 (en) * 2013-11-08 2015-05-05 The Boeing Company Position determination using synthetic wave laser ranging
EP3161573B1 (en) * 2014-06-27 2020-02-26 Crown Equipment Corporation Vehicle positioning or navigation utilizing associated feature pairs

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6219444B1 (en) * 1997-02-03 2001-04-17 Yissum Research Development Corporation Of The Hebrew University Of Jerusalem Synthesizing virtual two dimensional images of three dimensional space from a collection of real two dimensional images
US6393162B1 (en) * 1998-01-09 2002-05-21 Olympus Optical Co., Ltd. Image synthesizing apparatus
US20050213818A1 (en) * 2003-04-28 2005-09-29 Sony Corporation Image recognition device and method, and robot device
US20080013836A1 (en) * 2006-06-19 2008-01-17 Akira Nakamura Information Processing Device, Information Processing Method, and Program
US8619779B2 (en) * 2009-09-30 2013-12-31 Alcatel Lucent Scalable architecture for enterprise extension in a cloud topology
US20130271607A1 (en) * 2010-12-20 2013-10-17 Katsuhiko Takahashi Positioning apparatus and positioning method
US9501700B2 (en) * 2012-02-15 2016-11-22 Xactware Solutions, Inc. System and method for construction estimation using aerial images
EP2660777A2 (en) * 2012-04-30 2013-11-06 The Boeing Company Image registration of multimodal data using 3D geoarcs
JP2013232195A (ja) * 2012-04-30 2013-11-14 Boeing Co:The 3DGeoArcを用いた多モードデータの画像登録
US20130287290A1 (en) * 2012-04-30 2013-10-31 The Boeing Company Image registration of multimodal data using 3d geoarcs
US9756280B2 (en) * 2013-02-22 2017-09-05 Ohio University Reduction of sensor captured data streamed to an operator
US9679227B2 (en) * 2013-08-02 2017-06-13 Xactware Solutions, Inc. System and method for detecting features in aerial images using disparity mapping and segmentation techniques
US20150206029A1 (en) * 2014-01-22 2015-07-23 Fujitsu Limited Image matching method and image processing system
US9327406B1 (en) * 2014-08-19 2016-05-03 Google Inc. Object segmentation based on detected object-specific visual cues

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Duncan Robertson and Roberto Cipolla, "An Image-Based System for Urban Navigation," in British Machine Vision Conference, 2004 *
James Hays and Alexei A. Efros, "IM2GPS: estimating geographic information from a single image," IEEE Conf. on Computer Vision and Pattern Recognition (CVPR), 2008 *
Jerry Zhang, Aaron Hallquist, Eric Liang, and Avideh Zakhor, "Location-based Image Retrieval for Urban Environments," ICIP 2011 *

Also Published As

Publication number Publication date
KR102526542B1 (ko) 2023-04-26
CN107796384A (zh) 2018-03-13
EP3291176A1 (en) 2018-03-07
JP2018096969A (ja) 2018-06-21
EP3447729A1 (en) 2019-02-27
CN107796384B (zh) 2023-06-09
EP3447729B1 (en) 2023-12-13
US10402675B2 (en) 2019-09-03
US20180061055A1 (en) 2018-03-01
KR20180025185A (ko) 2018-03-08
EP3291176B1 (en) 2019-08-07
KR102396929B1 (ko) 2022-05-12
JP7033859B2 (ja) 2022-03-11

Similar Documents

Publication Publication Date Title
KR102396929B1 (ko) 지오아크를 이용한 2차원 운송수단 국소화
KR102387679B1 (ko) 지오아크를 이용한 3차원 운송수단 국소화
US11645757B2 (en) Method of and apparatus for analyzing images
Carrio et al. Drone detection using depth maps
US10432915B2 (en) Systems, methods, and devices for generating three-dimensional models
Deng et al. Global optical flow-based estimation of velocity for multicopters using monocular vision in GPS-denied environments
Jin et al. An Indoor Location‐Based Positioning System Using Stereo Vision with the Drone Camera
CN113822996B (zh) 机器人的位姿估计方法及装置、电子设备、存储介质
Shetty GPS-LiDAR sensor fusion aided by 3D city models for UAVs
KR102130687B1 (ko) 다중 센서 플랫폼 간 정보 융합을 위한 시스템
Opromolla et al. PCA‐Based Line Detection from Range Data for Mapping and Localization‐Aiding of UAVs
Yan et al. Horizontal velocity estimation via downward looking descent images for lunar landing
Sulaj et al. Examples of real-time UAV data processing with cloud computing
Shahbazi Professional drone mapping
Mirisola et al. Exploiting Attitude Sensing in Vision‐Based Navigation for an Airship
Castleberry Methods for Improving Visual Terrain Relative Navigation for Dynamic Aerial Systems
Abbas et al. Target Localization from a UAV Using 3D Terrain Engine
Opromolla et al. Research Article PCA-Based Line Detection from Range Data for Mapping and Localization-Aiding of UAVs
NIYONSENGA Improving the accuracy of UAV image block orientation without GCPS

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant