KR101663669B1 - 공간 예측 근사 및 방사 컨벌루션 - Google Patents

공간 예측 근사 및 방사 컨벌루션 Download PDF

Info

Publication number
KR101663669B1
KR101663669B1 KR1020117000446A KR20117000446A KR101663669B1 KR 101663669 B1 KR101663669 B1 KR 101663669B1 KR 1020117000446 A KR1020117000446 A KR 1020117000446A KR 20117000446 A KR20117000446 A KR 20117000446A KR 101663669 B1 KR101663669 B1 KR 101663669B1
Authority
KR
South Korea
Prior art keywords
camera
interest
point
dimensional coordinate
polygon
Prior art date
Application number
KR1020117000446A
Other languages
English (en)
Other versions
KR20110016993A (ko
Inventor
사이먼 랭던
Original Assignee
아이파이 피티와이 리미티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2008903046A external-priority patent/AU2008903046A0/en
Application filed by 아이파이 피티와이 리미티드 filed Critical 아이파이 피티와이 리미티드
Publication of KR20110016993A publication Critical patent/KR20110016993A/ko
Application granted granted Critical
Publication of KR101663669B1 publication Critical patent/KR101663669B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C1/00Measuring angles
    • G01C1/02Theodolites
    • G01C1/04Theodolites combined with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C15/00Surveying instruments or accessories not provided for in groups G01C1/00 - G01C13/00
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Instructional Devices (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Navigation (AREA)

Abstract

삼차원 좌표 시스템에 대해 관심 지점의 위치를 근사하는 방법으로서, 관심 지점이 카메라 뷰 내에 보일 수 있도록 상기 관심 지점 쪽으로 카메라를 배향하는 단계; 상기 삼차원 좌표 시스템에 대한 위치, 및 카메라 헤딩과 카메라 틸트를 포함하는 카메라 포지션을 포함하는 카메라 데이터를 검색하는 단계; 상기 카메라 헤딩에 따라 지형도 상에 위치된 하나 이상의 좌표를 식별하기 위해 관련된 지형도 데이터베이스에 질의하여 제1 데이터세트를 형성하는 단계; 상기 카메라 헤딩 및 상기 카메라 틸트에 기초하여, 상기 카메라와 상기 관심 지점 사이의 방사상 평면에 위치된 하나 이상의 좌표를 계산하여 제2 데이터세트를 형성하는 단계; 및 상기 제1 데이터세트와 상기 제2 데이터세트를 비교하여 한 쌍의 일치하는 좌표를 식별하는 단계를 포함하고, 상기 일치하는 좌표는 상기 관심 지점의 상기 삼차원 좌표 위치를 나타낸다. 이 방법을 수행하는 시스템 및 소프트웨어도 또한 제공된다.

Description

공간 예측 근사 및 방사 컨벌루션 {SPATIAL PREDICTIVE APPROXIMATION AND RADIAL CONVOLUTION}
본 발명은 개괄적으로 삼차원 좌표 시스템에 대한 관심 지점(point of interest)의 위치 근사에 관한것이며, 더욱 구체적으로는 사용자에 의해 선택된 카메라 뷰(camera view) 내의 관심 지점의 위치 근사에 관한 것이다. 본 발명은 디지털 매핑 및 지리 정보 시스템 기술과 특히 관련이 있으며, 이하에서는 이와 관련하여 본 발명을 설명하는 것이 편리할 것이다.
관찰자에 의해 현장에서 관찰된 관심 지점에 대한 맵 좌표(map coordinate)의 설정은 비교적 거친 접근법을 포함한다. 그러한 접근법 중 하나가 삼각 측량법(triangulation)인데, 이는 거리 벡터들의 교차점에 기초하여, 관심 지점에서의 맵 좌표를 근사하는 데 사용될 수 있는 거리 벡터들을 설정하기 위해 기지(旣知)의 위치로부터 다양한 각도로 두 개, 또는 이상적으로는 세 개의 중첩하는 뷰를 설정하는 것을 포함한다. 그 결과는 수동으로 맵 또는 그리드(grid) 좌표 또는 바람직하게는 지리 식별 부호가 부여된(geo-coded) 전자 지형도(electronic topographic map) 상에 표현될 수 있는 위도와 경도 값으로 바뀔 수 있다. 다른 접근법은 관심 지점, 예컨대 화재 장소에 가깝다는 것을 나타내는 연기에 대한 방위(directional bearing) 및 피치/틸트(pitch/tilt)를 구하기 위해 오스본 디바이스(Osborne Device)의 사용을 포함할 수 있다.
이 종래의 접근법들은 시간이 걸리고 자원 집약적이며 불충분한 정확도만을 제공한다. 몇몇 기관은 삼각 측량 기술을 사용한 정확도의 일반적인 예상치(expectation)가 대략 +/- 300 미터 정도이고, 이상적인 환경, 즉, 시계(visibility)가 아주 좋고 삼각 측량 접근법의 세 개 이상의 중첩 뷰(overlapping view)를 사용하여 좌표를 설정하는 데 20분 또는 그 이상 필요로 할 것을 제안한다.
따라서, 종래 기술의 접근법과 관련된 문제들 중 적어도 하나를 완화시키는 삼차원 좌표 시스템에 대해 관심 지점의 위치를 근사하는 향상된 방법을 제공하는 것이 바람직할 것이다.
도면과 함께 상세한 설명을 참조하는 해당 기술분야의 당업자라면 본 발명의 다른 목적들 및 이점들을 명백히 알게 될 것이다.
본 발명의 일 측면에 따르면 삼차원 좌표 시스템에 대해 관심 지점의 위치를 근사하는 방법이 제공되며, 상기 방법은,
(a) 관심 지점이 카메라 뷰 내에 보일 수 있도록 상기 관심 지점 쪽으로 카메라를 배향하는 단계;
(b) 상기 삼차원 좌표 시스템에 대한 카메라 위치(location), 및 카메라 헤딩(heading)과 카메라 틸트(tilt)를 포함하는 카메라 포지션(position)을 포함하는 카메라 데이터를 검색하는 단계;
(c) 상기 카메라 헤딩에 따라 지형도 상에 위치된 하나 이상의 좌표를 식별하기 위해 관련된 지형도 데이터베이스에 질의하여 제1 데이터세트를 형성하는 단계;
(d) 상기 카메라 헤딩 및 상기 카메라 틸트에 기초하여, 상기 카메라와 상기 관심 지점 사이의 방사상 평면(radial plane)에 위치된 하나 이상의 좌표를 계산하여 제2 데이터세트를 형성하는 단계;
(e) 상기 제1 데이터세트와 상기 제2 데이터세트를 비교하여 한 쌍의 일치하는 좌표를 식별하는 단계
를 포함하고,
상기 일치하는 좌표는 상기 관심 지점의 상기 삼차원 좌표 위치를 나타낸다.
상기 카메라 뷰는 상기 카메라와 멀리 떨어져 위치된 클라이언트 사용자 단말기 상에 제공된 그래픽 사용자 인터페이스 상에 표시된다. 상기 카메라는 스틸 카메라 또는 더욱 바람직하게는 비디오 카메라일 수 있다. 상기 카메라의 위치는 고정되어 있어 알려져 있을 수 있고, 또는 카메라가 움직이는 차량이나 항공기에 장착되어 있는 경우처럼 동적일 수 있는데, 이 경우 카메라의 위치는 GPS 또는 다른 적당한 수단에 의해 결정되고 서버를 통해 상기 클라이언트 사용자 단말기에 실시간으로 전송된다.
일 실시예에 따르면, 카메라 데이터를 검색하는 단계는 상기 카메라 틸드 및 팬 값(pan value)에 기초하여 상기 관심 지점에 대응하는 카메라 헤딩을 계산하는 단계를 포함한다.
상기 방법은 상기 관심 지점의 삼차원 좌표 위치의 검증이 가능하도록 고도(height or altitue)의 차 및 상기 카메라 위치와 상기 관심 지점 사이의 수평 거리를 결정하는 단계를 더 포함할 수 있다.
다른 실시예에 따르면, 상기 카메라와 상기 관심 지점 사이의 방사상 평면에 위치된 하나 이상의 좌표는 상기 방사상 평면을 따라 미리 정해진 간격으로 계산된다. 바람직하게는, 상기 미리 정해진 간격은 유효 지형 간격(available topographic interval)이다.
또 다른 실시예에 따르면, 상기 관심 지점을 선택하는 단계는 세 개 이상의 지점을 선택하여 관심 지역(area of interest)을 나타내는 다각형을 규정하도록 상기 카메라를 배향하는 단계를 포함하고, 상기 다각형을 규정하는 지점 각각에 대해, 상기 방법은 단계 (b) 내지 (e)를 반복하여 상기 관심 지역을 규정하는 각 지점의 위치를 근사하는 단계를 더 포함한다.
또는, 상기 관심 지점을 선택하는 단계는, 상기 전자 지형도 상의 관심 지역을 나타내는 다각형을 규정하는 세 개 이상의 지점을 선택하는 단계, 및 상기 지형도 데이터베이스에 질의하여 상기 다각형을 규정하는 각 지점에 대응하는 지형도 좌표를 검색하는 단계를 포함한다.
상기 방법은 또한 관심 지역을 나타내는 상기 다각형을 규정하는 각 지점의 삼차원 좌표 위치의 검증이 가능하도록 고도의 차 및 상기 카메라 위치와 상기 다각형을 규정하는 각 지점 사이의 수평 거리를 결정하는 단계를 더 포함할 수 있다.
본 발명의 일 형태에서, 상기 방법 또한 상기 관심 지점 또는 관심 지역을 나타내는 다각형을 규정하는 상기 세 개 이상의 지점에 대응하는 상기 삼차원 좌표를 식별할 수 있게 해주는 지형도를 사용자에게 표시하는 단계를 더 포함한다.
본 발명의 다른 측면에 따르면, 사용자가 선택한(user selected) 카메라를 삼차원 좌표 시스템 내에 위치된 관심 지점 쪽으로 향하게 하는 방법이 제공되며, 상기 관심 지점은 지형도 그래픽 사용자 인터페이스 상에서 사용자에 의해 선택되고, 상기 방법은
(a) 지형도 데이터베이스에서 상기 관심 지역의 삼차원 좌표 위치를 검색하는 단계;
(b) 상기 삼차원 좌표 시스템에 대한 위치, 및 카메라 헤딩 및 카메라 틸트를 포함하는 초기 카메라 포지션을 포함하는 카메라 데이터를 검색하는 단계;
(c) 상기 삼차원 좌표 시스템에 대한 상기 카메라 위치를 사용하여, 요구된 카메라 헤딩 및 요구된 카메라 틸트를 포함하는 요구된 카메라 포지션을 결정하며, 상기 관심 지점은 카메라 뷰 내에 있는, 단계; 및
(d) 상기 요구된 카메라 헤딩 및 요구된 카메라 틸트를 상기 카메라에 전송하여 상기 카메라를 초기의 카메라 포지션에서 상기 요구된 카메라 포지션으로 이동시키는 단계를 포함한다.
본 발명의 또 다른 측면에 따르면, 삼차원 좌표 시스템 내에 위치된 관심 지점에 대한 최적 뷰를 제공하는 카메라를 식별하는 방법이 제공되며, 상기 관심 지점은 사용자에 의해 전자 지형도 상에서 선택되고, 상기 방법은
(a) 상기 삼차원 좌표 시스템에 대한 상기 관심 지점의 실제 위치를 지형도 데이터베이스로부터 검색하는 단계;
(b) 상기 관심 지점에 인접하여 위치된 하나 이상의 카메라를 식별하는 단계;
(c) 인접한 카메라 각각에 대해 상기 삼차원 좌표 시스템에 대한 카메라 위치를 검색하는 단계;
(d) 상기 카메라와 상기 관심 지점 사이의 카메라 헤딩에 따라 상기 지형도 상에 위치된 지형 고도값(topographic elevation value)을 포함하는 좌표를 검색하기 위해 상기 지형도 데이터베이스에 질의하는 단계;
(e) 인접한 카메라 각각에 대해 상기 카메라와 상기 관심 지점 사이의 방사상 평면을 따라 위치된 이론 고도값을 포함하는 일련의 이론 좌표를 계산하는 단계;
(f) 상기 지형 고도 값과 상기 이론 고도값을 비교하며, 상기 관심 지점에 대한 클리어 뷰(clear-view)는 상기 이론 고도값이 상기 지형 고도값 이상일 경우에만 상기 카메라로부터 이용 가능한, 단계; 및
(g) 상기 관심 지점에 대한 클리어 뷰가 이용 가능한 인접한 카메라를 식별하기 위해 인접한 카메라 각각에 대해 상기 단계 (d) 내지 (f)를 반복하는 단계를 포함한다.
일 실시예에서, 상기 방법은 관심 지점의 최적 뷰를 제공하는 카메라에 대한 카메라 헤딩 및 카메라 틸트를 포함하는 카메라 포지션을 계산하는 단계, 및 요구된 카메라 포지션을 카메라에 전송하여 상기 카메라를 초기 카메라 포지션에서 요구된 카메라 포지션으로 이동시키는 단계를 더 포함하며, 상기 관심 지점은 상기 카메라의 카메라 뷰 내에 있다.
상기 관심 지점에 대한 클리어 뷰가 하나 이상의 인접한 카메라로부터 이용 가능한 경우, 상기 관심 지점에 가장 가까이 위치된 카메라가 상기 관심 지점의 위치를 보기 위해 선택될 수 있다.
상기 관심 지점에 대한 클리어 뷰가 인접한 카메라로부터 이용 불가능한 경우, 상기 관심 지점에 가장 가까운 다른 지점에 대한 클리어 뷰를 제공하는 카메라가 선택될 수 있다.
본 발명의 일 형태에서, 상기 카메라는 상기 삼차원 좌표 시스템에 대해 고정된 위치를 가진다.
본 발명의 또 다른 측면에 따르면, 삼차원 좌표 시스템에 대한 관심 지점의 위치를 근사하는 시스템이 제공되며, 상기 시스템은
(a) 사용자가 카메라 뷰에서 관심 지점을 볼 수 있도록 상기 관심 지점 쪽으로 배향되는 카메라;
(b) 상기 삼차원 좌표 시스템에 대한 카메라 위치, 및 카메라 헤딩과 카메라 틸트를 포함하는 카메라 포지션을 포함하는 카메라 데이터를 저장하는 제1 데이터베이스;
(c) 전자 지형도 데이터를 저장하는 제2 데이터베이스; 및
(d) 상기 카메라 헤딩을 따라 상기 전자 지형도 상에 위치된 하나 이상의 좌표를 식별하여 제1 데이터세트를 형성하고, 상기 카메라 헤딩과 카메라 틸트에 기초하여 상기 카메라와 상기 관심 지점 사이의 방사상 평면 상에 위치된 하나 이상의 좌표를 계산하여 제2 데이터세트를 형성하는 프로세서를 포함하고,
상기 제1 데이터세트와 상기 제2 데이터 세트의 비교에 의해 상기 관심 지점의 상기 삼차원 좌표 위치를 나타내는 한 쌍의 일치하는 좌표를 식별한다.
바람직하게는, 상기 삼차원 좌표 시스템은 상기 관심 지점에 대응하는 삼차원 좌표의 위치를 전자 지형도 상에 표시하는 그래픽 사용자 인터페이스를 포함한다. 더욱 구체적으로는, 상기 그래픽 사용자 인터페이스는 또한 사용자가 선택한 카메라로부터의 카메라 뷰를 표시한다.
이하 본 발명에 대한 이해를 용이하게 하는 첨부도면을 참조하여 본 발명을 좀더 자세하게 설명하는 것이 편리할 것이다. 도면의 상세 사항 및 관련 설명은 첨부된 청구항들에 주어진 바와 같은 본 발명의 폭 넓은 인식에 대한 일반 원리(generality)를 대체하는 것으로 이해되어서는 안된다.
도 1은 일 실시예에 따른 본 발명의 방법을 구현하는 시스템의 일 예이다.
도 2는 본 발명의 방법을 구현하는 데 필요한 핵심 요소를 나타낸 도면이다.
도 3은 본 발명의 코어 프로세스(core process)의 동작을 나타낸 흐름도이다.
도 4는 일 실시예에 따른 본 발명의 방법의 타켓 모드(target mode)에서의 동작을 나타낸 흐름도이다.
도 5는 도 4에 도시된 방법에 따른 관심 지점 좌표의 근사치(approxiamtion)를 검증하는 방법을 나타낸 흐름도이다.
도 6은 일 실시예에 따른 본 발명의 방법의 지이오펜스 모드(geo-fence mode)에서의 동작을 나타낸 흐름도이다.
도 7은 일 실시예에 따른 본 발명의 방법의 역 룩업 모드(reverse lookup mode)에서의 동작을 나타낸 흐름도이다.
도 8은 일 실시예에 따른 본 발명의 방법의 가상 삼각 측량 모드(virtual triangulation mode)에서의 동작을 나타낸 흐름도이다.
도 9는 일 실시예에 따른 본 발명의 시스템을 교정하는 방법을 나타낸 흐름도이다.
도 10은 도 1의 컴퓨터에서 이용 가능한(computer-enabled) 시스템의 각종 기능 요소를 블록도 형태로 나타낸 개략도이다.
먼저 도 1을 참조하면, 본 발명의 방법을 구현하는 시스템(100)의 일 예가 나타나 있다. 이 시스템(100)은 카메라 뷰를 통해 보이는 지도 상의 관심 지점의 위치, 예컨대 화재 또는 물체의 위치를 결정하기 위한 공간 데이터(spatial data)와 함께, 단일 카메라 관점(single camera perspective)을 사용한다. 시스템(100)은 현장에 위치된 하나 이상의 카메라(110), 그래픽 사용자 인터페이스(130)를 제공하는 클라이언트 사용자 단말기(120), 그리고 서버(150) 및 클라이언트 사용자 단말기(120)와 통신하는 데이터베이스(140)를 포함한다. 하나 이상의 카메라(110), 클라이언트 사용자 단말기(120) 및 서버(150)는 인터넷 또는 사설 네트워크(private network)와 같은 적당한 통신 네트워크에 의해 상호연결되어 있다.
그래픽 사용자 인터페이스(130)는 공간적으로, 즉 전자 지형도 상에 관심 지점의 위치가 나타나는 전자 지형도를 사용자에게 표시할 뿐 아니라, 현상에 위치된 카메라에 의해 포착된 관심 지점의 현실 세계 위치(real world location)를 나타내는 카메라 뷰를 표시한다.
일반적으로 지형도 데이터를 포함하는 공간 데이터는 위도, 경도 및 고도(altitude or elevation) 형태로 예컨대 랜드 빅토리아(Land Victoria)와 같은 관련 기관에 의해 클라이언트 사용자 단말기(120)로부터 원격으로 데이터베이스(140)에 유지되어 있는 상업적으로 입수 가능한 지형도 데이터일 수 있다. 데이터베이스(140)에 저장된 공간 데이터에 대한 질의는 클라이언트 사용자 단말기(120)를 통해 사용자에 의해 개시된다. 사용자는 카메라 뷰 기능을 사용하고 그래픽 사용자 인터페이스(130) 상에 제공된 것을 제어하여 카메라 뷰를 관심 지점(point of interest, 이하 "POI"라고도 함) 쪽으로 배향한다. 공간 데이터는 데이터베이스(140) 내에 원격으로 유지될 수 있지만, 공간 데이터는 CD-ROM 또는 다른 휴대형 또는 비휴대형 데이터 스토리지 디바이스와 같은 기타 간편한 형태로 클라이언트 사용자 단말기(120)에 대해 국지적으로 또는 원격으로 액세스 가능하게 만들어질 수도 있다.
본 발명의 시스템(100)은 전자 지형도와 함께, 시스템(100)에의 입력을 제어하기 위해 카메라 뷰의 그래픽 사용자 인터페이스(130) 상에 제공된 카메라 제어, 예컨대 팬(Pan), 틸트(Tilt) 및 줌(Zoom)(이하 "PTZ" 제어라고도 함)을 사용한다. 시스템(100)은 카메라의 위치 및 포지션에 기초하여 카메라로부터 헤딩 및 틸트 데이터를 추출하고, 이 데이터를 카메라의 궤적(trajectory)(도 2에 방사상 평면(230)으로 나타남)과 지형(topography or terrain)이 교차하는 지점을 설정하기 위한 카메라와 동일한 헤딩(heading) 또는 베어링(bearing)에 대한 고도 데이터(카메라의 위치를 나타내는 삼차원 좌표로부터 알 수 있음)와 함께 처리한다. 바람직하게는 교차점은 전자 지형도 상의 표시를 위해 Lat/Long/Alt 포맷으로 전환된다.
네트워크 내의 다른 카메라들은 에러 검사의 제공 및/또는 정확도의 증대를 위해 단일 카메라 뷰로부터 취득된 데이터와 함께 작용 및/또는 이 취득된 데이터를 유효하게 하는 데 사용된다. 이것은 시계가 나쁜 환경 및/또는 관심 지점이 잘 보이지 않을 때 특히 유익하다. 그러한 경우, 관심 지점에 대한 다른 최적의 카메라 뷰를 식별하기 위해 가상 삼각 측량법을 인접한 카메라들의 중첩하는 뷰들 사이에서 조정할 수 있다.
단일 카메라 뷰를 사용하여 관심 지점의 위치를 설정하기 위해서는, 삼차원 좌표("튜플(tuple)") 카메라 위치는 알려져 있어야 한다. 따라서, 모든 고정 또는 이동 카메라의 위치는 알려지고 카메라 데이터 베이스에 (Cx,y,z 형태로) 저장될 것이다. 동적 위치를 가지는 이동 카메라의 경우, 즉, 이동 차량 또는 항공기에 장착된 카메라의 경우, 카메라의 위치에 대응하는 좌표는 GPS 또는 이와 유사한 수단과 같은 위치결정 시스템을 사용하여 결정되고 실시간으로 서버에 전송된다. 필드 카메라(field camera)는 진북 베어링(true north bearing)(방위각), 및 수평 방사상 평면 상의 설치 레벨(placed level)에 대해 교정될 수 있다. 이를 달성하기 위해, 필드 카메라는 Calx,y,z 포맷의 미리 정해지거나 기지의 위치 좌표를 가지는 기지의 측량점(survey point) 또는 랜드마크(landmark)를 사용하여 교정될 수 있다.
요컨대, 본 발명의 시스템은 네 가지 다른 모드로 동작할 수 있다:
1. 타겟 모드
작용 - 사용자는 카메라(PTZ) 제어를 사용하여, 관심 지점이 정지 영상 또는 비디오 영상으로서 그래픽 사용자 인터페이스 상에 표시되는 카메라 뷰의 대략 중심에 이를 때까지, 카메라를 배향시킨다. 그후 사용자는 그래픽 사용자 인터페이스를 통해 "타켓" 프로세스를 개시한다.
결과 - 관심 지점 위치(POIx,y,z)에 대응하는 전자 마커 및 좌표가 전자 지형도 상에 생성된다.
2. 지오펜스 모드
작용 - 사용자는 최소 세 지점을 선택하여 관심 지역을 규정하는 다각형을 형성한다. 이것은 사용자가 카메라(PTZ) 제어를 사용하여 관심 지역을 규정하는 다각형의 각 지점 쪽으로 카메라를 배향하는 것, 및/또는 사용자가 지도 상에서 직접 일련의 마우스 클릭을 하여 전자 지형도 상에 관심 지역을 규정하는 다각형을 형성할 수 있는 것을 포함할 수 있다. 관심 지역의 규정은 실제 타켓 관심 지점이 정확한 시선 방향(direct line of sight)에서 모호한 경우에 유용하다.
결과 - 다각형을 규정하는 각 지점에 대응하는 좌표와 함께 강조되거나 음영처리된 영역(다각형)이 전자 지형도 상에 생성된다.
3. 역 룩업 모드
작용 - 사용자는 전자 지형도 상에서 직접 클릭하여 전자 지형도 상에서 관심 지점 및 하나 이상의 카메라를 선택한다.
결과 - 전자 지형도 상에 전자 마커가 배치되고, 요구된 카메라 포지션이 선택된 카메라에 자동으로 전송되어, 카메라 뷰에 관심 지점이 나타나도록 하나 이상의 카메라가 배향되게 한다. 그후 카메라 각각으로부터의 카메라 뷰는 그래픽 사용자 인터페이스 상에 사용자에게 표시된다.
4. 가상 삼각 측량 모드
작용 - 사용자가 하나 이상의 카메라 및 관심 지점을 선택하고 시스템이 하나 이상의 카메라 중에서 어느 것이 관심 지점에 대해 최적의 시선 방향을 제공하는지를 결정한다. 그후 최적의 시선 방향을 가지는 카메라가 관심 지점 또는 지역쪽을 향하게 될 수 있다.
결과 - 사용자에게 관심 지점의 최적 뷰를 제공한다. 최적의 카메라 뷰는 스크린 마커와 함께 그래픽 사용자 인터페이스 상에서 사용자에게 식별되고 표시된다. 또, 전자 지형도 상에서 중첩하는 카메라 뷰들 또는 궤적들이 교차하는 지점은 VTx,y,z 형태로 계산되고 표시될 수 있다.
이하에 도 2 내지 도 8을 참조하여 전술한 모드들을 더욱 자세하게 설명한다.
먼저 도 2를 참조하면, 카메라 뷰에 관심 지점(POI)(220)이 보일 수 있도록 카메라(210)가 관심 지점(POI)(220)을 향해 배치된다. 그후, 시스템은 기지의 카메라 위치 좌표(Cx,y,z)를 검색하고, 카메라에 카메라 포지션 데이터(Cp,t,z)를 질의한다. 카메라 포지션 데이터(Cp,t,z)는 카메라(210)의 헤딩 또는 베어링 및 틸트를 제공하는 데 사용되어, 시스템이 카메라(210)와 관심 지점(220) 사이에 위치된 방사상 평면(230) 또는 카메라 궤적(또한 "빗변")을 결정할 수 있도록 한다.
카메라(210)와 관심 지점(220) 사이에, 카메라(210)와 동일한 헤딩 상이지만 지형 상에 위치된 기지의 지형 좌표(topographic coordinate)들이 지형도 데이터베이스에서 검색된다. 이 좌표들은 기지의 좌표(Gx,y,z)(240)들을 포함하는 제1 데이터세트를 형성한다. 중간 좌표(interim coordinate)(IPOIx,y,z)(250)들은 방사상 평면(230)을 따라 미리 정해진, 바람직하게는 규칙적인 간격으로 계산된다. 예를 들면, 이 간격은 지형도 데이터베이스로부터 이용 가능한 기본적인 지형 간격(즉, 기지의 좌표(Gx,y,z)(240)들 사이의 거리)에 대응할 수 있다.
도 3을 참조하면, 코어 프로세스 또는 서브 루틴은 제1 데이터세트와 제2 데이터세트를 계산 및 비교하는 데 사용된다(즉, 기지의 좌표(Gx,y,z)가 검색되고 중간 좌표(IPOIx,y,z) 및 특히 고도 데이터(IPOIz 및 Gz)가 계산된다). 서브 루틴은 단계 310에서 카메라 포지션 데이터(Cp,t,z)에 기초하여 방사상 평면(230)의 기울기를 계산하고, 단계 320에서 처리될 최대 거리(d)(도 2 참조)를 규정하는 것을 포함한다. 단계 330에서, 동일한 카메라 헤딩 상에 위치된 기지의 좌표 포지션(Gx,y,z)이 지형도 데이터베이스로부터 검색된다.
단계 340에서, 기지의 좌표(Gx,y,z)의 세트 각각에 대해, 원점(즉, 카메라 위치 Cx,y,z)에서의 거리가 계산되고 방사상 평면의 기울기를 사용하여 동일한 Gx,y 위치에서의 중간 좌표(IPOIz)의 이론 고도를 계산한다. 방사상 평면과 동일한 카메라 헤딩을 따라 모든 지점의 x,y 포지션이 용이하게 추론된다고 하면(즉, Gx,y와 IPOIx,y가 일치함), 본 발명의 목적에서 특히 관심을 가지는 것은 z 좌표 또는 고도값이다. 그결과 단계 350에서 비교는 기지의 고도값(Gz)과 x,y 포지션 각각에 대해 계산된 이론 고도값(IPOIz)의 비교에 비해 기본적으로 감소된다. 일치가 발생할 때(즉, Gz = IPOIz), 실제 관심 지점(POI)의 x,y,z 좌표가 식별되었다. 이 지점이 방사상 평면(또는 카메라 궤적)이 지형과 교차하는 지점이다. 그후 단계 360에서 x,y,z 좌표는 시스템에 의해 실제 POIx,y,z 좌표로서 기록되고 저장된다.
"히트(hit)" 및 "니어미스(near miss)" 임계값은 미리 정해질 수 있으므로, Gz와 IPOIz의 차가 정확히 영(zero)이 아니더라도 일치되는 것으로 간주되어 일치가 기록될 것이다. "히트" 임계값 내에서의 일치는 일치로 기록된다. 불일치는 "니어미스"로 기록된다.
도 4를 참조하면, "타켓" 모드에서 관심 지점의 위치를 근사하는 방법을 설명하는 흐름도를 나타낸다. 관심 지점은 단계 410에서 카메라 뷰 내에 관심 지점이 보일 수 있도록 카메라를 배치함으로써 선택된다.
일단 카메라 뷰 내에 관심 지점이 위치되면, 단계 420에서 사용자가 그래픽 사용자 인터페이스를 통해 "타겟" 모드로 근사 프로세스를 개시한다. 그후 단계 430에서 시스템은 기지의 카메라 위치 좌표(Cx,y,z)를 검색하고, 단계 440에서 카메라에 카메라 포지션 데이터(Cp,t,z)를 질의한다. 단계 450에서 카메라 포지션 데이터(Cp,t,z)는 각도로 변환되고, 교정 보정(calibration correction)이 적용되어 카메라의 헤딩이나 베어링 및 틸트를 제공한다.
그후 단계 460에서 시스템은 도 3을 참조하여 설명한 코어 프로세스를 실행하여 제1 데이터세트 및 제2 데이터세트를 계산 및 비교한다. 단계 470에서 코어 프로세스가 "히트"를 반환하면, 즉 Gz과 IPOIz의 차가 영(zero) 또는 "히트"로 규정한 미리 정해진 임계값 내에서 일치하는 경우, 단계 480에서 지형도 데이터베이스에 거리 주소 또는 공간 데이터와 같은 임의의 관련 데이터를 질의하고, 단계 490에서 시스템에 의해 x,y,z 좌표가 실제 POI 좌표(POIx,y,z)로서 기록 및 저장된다.
도 5를 참조하면, 단계 510에서 방사상 평면(즉, "빗변")의 길이(l) 및 카메라와 관심 지점 사이의 인접하는 수평 거리(d)를 계산하기 위해 실제 관심 지점 좌표(POIx,y,z)의 근사값을 카메라 위치(Cz)와 관심 지점(POIz) 사이의 고도의 차를 사용하여 검증할 수 있다(도 2도 참조). 이 변수들은 카메라 틸트의 유효성을 확인(validate)하고, 어떤 이탈(deviation)이 허용 범위 내인지를 결정하는 데 사용된다. 데이터의 추가적인 검증을 위해 다른 삼각법의 검사(trigonometric check)를 사용할 수도 있다.
도 6을 참조하면, 사용자가 관심 지역(관심 지점 또는 다른 물체들을 둘러쌀 수 있음)을 선택하는 경우, 그 관심 지역의 위치에 대한 근사치는 시스템을 "지오펜스" 모드로 동작시킴으로써 취득될 수 있다. 관심 지역은 사용자가 관심 지점을 둘러쌀 수 있는 다각형을 규정하도록 최소 세 지점을 선택하거나 또는 간단히 일반적인 관심 영역을 규정함으로써 선택될 수 있다. 다각형을 규정하는 복수의 지점은 사용자에 의한 도 4를 참조하여 설명한 카메라 뷰 기능 사용, 및/또는 단계 610에서 전자 지형도 상에서 마우스 클릭에 의해 선택될 수 있다. 단계 620에서 사용자는 그래픽 사용자 인터페이스를 통해 "지오펜스" 모드로 프로세스를 개시한다.
사용자가 전자 지형도 상에서 일련의 마우스 클릭을 통해 다각형을 규정하는 복수의 지점 중에서 하나 이상을 선택하면, 각각의 마우스 클릭은 지형도 데이터베이스에 대해 관심 지점을 규정하는 각 지점에 대응하는 기지의 좌표(Gx,y,z)에 대한 질의를 발생시시킨다.
다각형의 일부를 구성하는 지점을 나타내도록 카메라를 배향함으로써 규정된 관심 지역을 규정하는 다각형의 어느 하나 이상의 지점에 대해, 단계 630에서 시스템은 카메라 위치 데이터(Cx,y,z)를 검색하고 단계 640에서 대응하는 카메라 포지션 또는 오프셋 데이터(Cp,t,z)를 카메라에 질의한다. 카메라 포지션 데이터(Cp,t,z)는 각도로 변환되고 단계 650에서 교정 보정이 적용되어 카메라의 헤딩 및 틸트를 제공한다.
그후, 단계 660에서 도 3을참조하여 설명한 코어 프로세스를 실행하여 다각형을 규정하는 제1 지점에 대응하는 제1 데이터세트와 제2 데이터세트를 계산 및 비교한다. 단계 670에서 제1 데이터세트와 제2 데이터세트(즉, 검색된 기지의 좌표 Gx,y,z와 계산된 중간 좌표 IPOIx,y,z)가 비교된다. 비교한 결과 일치하면, 다각형을 규정하는 제1 지점의 x,y,z 좌표가 정해지고(즉, POIx,y,z) 전자 지형도 상에 마커가 배치된다. 이 단계들은 다각형을 규정하는 나머지 지점 각각에 대해 반복된다. 그후 완성된 다각형은 그래픽 사용자 인터페이스에 제공된 전자 지형도 상에 음영또는 강조된 영역으로 사용자에게 표시된다.
도 7을 참조하면, "역 룩업" 모드는, 단계 710에서 사용자가 "역 룩업" 세션에 참여하도록 선택한 하나 이상의 카메라를 단계 720에서 사용자에 의해 선택된 관심 지점 쪽을 향하도록 할 수 있게 한다. 관심 지점은 지점을 선택하는 마우스를 사용하여 선택된다. 다르게는 지점은 물리 주소(예컨대, 거리 주소)를 입력함으로써 선택될 수 있다. 그러면 단계 730에서 관심 지점의 위치에 대응하는 기지의 좌표를 지형도 데이터베이스에서 검색한다(즉, Gx,y,z = POIx,y,z).
"역 룩업" 세션에 참여하는 카메라 각각에 대해, 단계 740에서 시스템은 선택된 카메라에 대한 카메라 위치 데이터(Cx,y,z) 및 현재의 카메라 포지션 데이터(Cp,t,z)를 검색한다. 단계 750에서, 기지의 관심 지점 좌표(POIx,y,z) 및 카메라 위치(Cx,y,z)를 사용하여, 시스템은 요구된 카메라 포지션을 계산한다, 즉 카메라를 관심 지점 쪽으로 배향하기 위해 요구된 카메라 헤딩 및 카메라 틸트를 계산한다. 단계 760에서 요구된 카메라 포지션은 카메라에 전달되어 카메라가 현재의 포지션에서 관심 지점을 향해 이동되게 한다.
도 8을 참조하면, 관심 지점에 대한 최선의 시선 방향에 기초하여 최적의 카메라 뷰를 사용자에 제공하기 위해 "가상 삼각 측량" 모드가 사용된다. 단계 810에서 사용자는 주 카메라를 선택하고 "가상 삼각 측량" 모드를 개시한다. 단계 820에서 사용자에 의해 관심 지점이 선택된다.
단계 830에서 시스템은 지형도 데이터베이스에서 관심 지점에 대응하는 기지의 좌표(즉, Gx,y,z = POIx,y,z)를 검색하기 위해 지형도 데이터베이스에 질의한다. 그후 시스템은 카메라 데이터베이스에 질의하여 어느 카메라가 관심 지점에 가장 가까운지를 결정하거나, 다르게는 사용자가 가상 삼각 측량 세션에 참여하기 위한 주 카메라에 인접하는 하나 이상의 카메라를 수동으로 선택하였을 수도 있다. 사용자 또는 시스템이 선택한 것일 수 있는 인접한 카메라는 카메라 후보 리스트에 가상 삼각 측량 참여자로서 태그(tag)가 부가된다.
단계 840에서 참여하는 카메라 각각에 대해, 시스템은 기지의 카메라 포지션(Cx,y,z) 및 검색된 기지의 관심 지점 좌표(POIx,y,z)(즉, 단계 830에서 취득된 것)을 사용하여 요구된 카메라 포지션을 계산하고 도 3을 참조하여 설명한 이론적인 코어 프로세스를 처리하여 제1 데이터세트와 제2 데이터세트를 계산 및 비교한다. 단계 860에서, 코어 프로세스에 의해 생성된 "히트"들과 POIx,y,z(단계 830에서 Gx,y,z 형태로 취득된 것)의 거리에 기초하여 카메라 후보 리스트를 정렬하여 카메라 후보 리스트의 헤드가 가장 가까운 결과를 제공하는 카메라가 되도록 한다. 단계 870에서, 시스템은 카메라 후보 리스트의 헤드에 있는 카메라를 관심 지점 쪽으로 배향하도록 요구된 카메라 포지션을 계산한다. 단계 880에서 요구된 카메라 포지션이 카메라에 전송되어 카메라가 현재 포지션에서 관심 지점 쪽으로 배향되게 한다.
"히트" 결과와 POIx,y,z(단계 830에서 Gx,y,z 형태로 취득된 것)가 일치할 때, 카메라는 관심 지점에 대해 "분명한 시선 방향(clear line of sight)"을 가지는 것으로 여겨진다. 하나 이상의 인접한 카메라로부터 관심 지점에 대한 클리어 뷰가 이용 가능한 경우, 관심 지점에 가장 가까이 위치된 카메라가 관심 지점의 위치를 보기 위해 선택될 수 있다.
선택적으로, 시스템이 가상 삼각 측량 모드로 동작하는 동안에 각 카메라와 관심 지점 사이의 트레이스 라인(trace line)(카메라 헤딩 또는 베어링을 나타냄)이 전자 지형도 상에 제공될 수 있다. 이 트레이스 라인들은 사용자에게 시각 정보를 제공하여 시스템에 의해 결정된 관심 지점 좌표에 대해 추가적인 검사가 수행될 수 있게 한다. 시스템은 또한 둘 이상의 카메라로부터의 궤적 또는 트레이스 라인의 교차에 기초하여 POIx,y,z를 계산 및 표시하는 종래의 삼각 측량 특성을 제공한다.
도 9를 참조하면, 시스템은 카메라의 북쪽에 대한 오프셋(offset-to-north)을 설정하고, 현장에 각 카메라를 설치할 때의 결함 또는 카메라의 수평 정렬에 영향을 미칠 수 있는 기타 결함을 보상하기 위한 인터랙티브 교정 함수를 포함한다. 이 함수의 목적은 현장 또는 영역 내의 모든 카메라가 진북, 및 수평의 방사상 평면 상의 설치 레벨에 대해 교정되도록 하는 것이다.
기지의 랜드마크 또는 교정 지점의 위치에 대응하는 Lat/Long/Alt 데이터는 Cal1x,y,z, Cal2x,y,z, 등의 포맷으로 시스템의 데이터베이스에 입력된다. 각 카메라는 자신과 관련된 최소 두 개의 교정 지점을 필요로 하고, 카메라가 이 랜드마크들을 보도록 배향되는 경우 대응하는 카메라 포지션이 데이터베이스에 저장된다.
교정 프로세스는, 단계 910에서 시스템이 뷰 교정 지점 Cal1을 보도록 카메라를 배향하는 것을 포함한다. 그후 단계 920에서 카메라 뷰가 교정 지점 Cal1을 구성하는 랜드마크를 완전히 포착하고 그 랜드마크에 중심이 있어야 하면, 사용자는 세부 조정(minor adjustment)(PTZ 제어 사용)을 하도록 촉구받는다. 일단 사용자가, 카메라가 Cal1을 똑바로 가리키는 것으로 확인하였으면, 단계 930에서 카메라는 카메라 포지션 데이터(Cp,t,z)에 대한 문의를 받는다.
그후 단계 940에서 카메라는 교정 지점 Cal2를 보도록 배향된다. 단계 950에서 카메라 뷰가 교정 지점 Cal2를 구성하는 랜드마크를 완전히 포착하고 그 랜드마크에 중심이 있어야 하면, 사용자는 세부 조정(PTZ 제어 사용)을 하도록 재촉받는다. 일단 사용자가, 카메라가 Cal2을 똑바로 가리키는 것으로 확인하였으면, 단계 960에서 카메라는 카메라 포지션 데이터(Cp,t,z)에 대한 문의를 받는다.
그후 단계 970에서 카메라의 북쪽에 대한 오프셋이 계산된다. 교정 프로세스는 카메라 위치(Cx,y,z) 및 하나 이상의 기지의 교정 지점(예컨대, Cal1x,y,z 및/또는 Cal2x,y,z)를 사용하여 카메라와 교정 지점(들) 사이의 그리드 베어링(grid bearing)을 설정한다. 시스템은 (a) 카메라의 위치와 교정 지점 사이의 전방 방위각과, (b) 카메라가 교정 지점 쪽으로 배향될 때 카메라의 팬 값 사이의 차를 계산한다. 이 차는 카메라의 북쪽에 대한 오프셋을 설정한다. 바람직하게는, 하나 이상의 교정 지점이 사용되고 북쪽에 대한 오프셋 설정을 위해 결과는 평균된다.
단계 980에서, 카메라에서 교정 지점으로의 예상 경사각과 카메라가 교정 지점을 보도록 배치된 때에 카메라에 의해 보고된 실제 피치/틸트 각도를 비교하여, 적용되도록 요구된 틸트 보상의 요구된 각도가 계산된다. 그후 시스템은 예상 경사각과 카메라에 의해 보고된 두 개의 교정 지점에서의 틸트 각도 사이의 차에 기초하여, 팬의 각도에 대하여 조정되어야 할 틸트의 양을 결정한다. 적용되도록 요구된 틸트 보상이 영(zero)인 방사상 평면 내의 두 지점이 계산되고 영 교차점(zero crossing point)이라고 한다.
단계 990에서 계산된 결과가 시스템에 의해 새로운 교정 데이터로서 저장된다.
시스템(100)은 하드웨어, 소프트웨어 또는 이들의 조합으로 구현될 수 있고, 또한 하나 이상의 컴퓨터 시스템 또는 처리 시스템으로 구성될 수 있다. 특히, 클라이언트 사용자 단말기(120) 및 그 그래픽 사용자 인터페이스(130)뿐만 아니라, 서버(150)의 기능은 전술한 기능을 실행할 수 있는 하나 이상의 컴퓨터 시스템에 의해 제공될 수 있다.
도 10에 이러한 컴퓨터 시스템이 나타나 있다. 도 10에서, 예시적인 컴퓨터 시스템(1000)은 프로세서(1005)와 같은, 하나 이상의 프로세서를 포함한다. 프로세서(1005)는 통신 기반시설(communication infrastructure)(1010)에 연결되어 있다. 컴퓨터 시스템(1000)은 디스플레이 유닛(1020)에 공급하기 위한 통신 기반시설(1010)로부터의 그래픽, 텍스트 및 기타 데이터를 전달하는 디스플레이 인터페이스(1015)를 포함할 수 있다. 컴퓨터 시스템(1000)은 또한 주 메모리(1025), 바람직하게는 RAM(Random Access Memory)을 포함할 수 있고, 또한 부 메모리(1030)도 포함할 수 있다.
부 메모리(1030)는 예를 들면 하드 디스크 드라이브(1035), 자기 테이프 드라이브, 광 디스크 드라이브 등을 카메라 포함할 수 있다. 이동식(removable) 스토리지 디바이스(1040)는 잘 알려진 방식으로 이동식 스토리지 유닛(1045)에 대해 기록 및/또는 판독을 수행한다. 이동식 스토리지 유닛(1045)은 플로피 디스크, 자기 테이프, 광 디스크 등에 해당한다.
알 것인 바와 같이, 이동식 스토리지 유닛(1045)은 프로세서(1005)로 하여금 원하는 기능을 실행하도록 하는 일련의 명령어 형태로 컴퓨터 소프트웨어가 저장되어 있는 컴퓨터에서 이용 가능한 저장 매체를 포함한다. 다른 실시예에서, 부 메모리(1030)는 컴퓨터 프로그램 또는 명령어가 컴퓨터 시스템(1000) 내로 로딩될 수 있도록 해주는 다른 유사한 수단을 포함할 수 있다. 그러한 수단으로는 예를 들면 이동식 스토리지 유닛(1050)과 인터페이스(1055)를 포함할 수 있다.
컴퓨터 시스템(1000)은 또한 통신 인터페이스(1060)를 포함할 수 있다. 통신 인터페이스(1060)은 컴퓨터 시스템(100)과 외부 디바이스 사이에 소프트웨어 및 데이터가 전송될 수 있도록 해준다. 통신 인터페이스(1060)의 예로는 모뎀, 네트워크 인터페이스, 통신 포트, PCMCIA 슬롯 및 카드 등을 포함할 수 있다. 통신 인터페이스(1060)를 통해 전송되는 소프트웨어 및 데이터는 전자기 신호, 전자 신호, 광 신호 또는 통신 인터페이스(1060)에 의해 수신될 수 있는 기타 신호일 수 있는 신호(1065)의 형태이다. 신호는 전선이나 케이블, 광 섬유, 전화선, 셀룰러폰 링크, 무선 주파수 또는 기타 통신 채널과 같은 통신 경로(1070)를 통해 통신 인터페이스(1060)에 제공된다.
이상에서 설명한 설시예에서는 주로 컴퓨터 소프트웨어를 사용하여 본 발명을 구현하지만, 다른 실시예에서는 예를 들면 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 구성요소를 사용하는 하드웨어로 본 발명을 구현할 수도 있다. 본 명세서에 기술한 기능을 수행하기 위한 하드웨어 상태 머신의 구현은 해당 기술분야의 당업자에게 명백할 것이다. 다른 실시예에서는 하드웨어와 소프트웨어의 조합을 사용하여 본 발명을 구현할 수도 있다.
현장의 관심 지점 좌표의 근사는 다른 특성들에 의해 보완될 수 있다. 예를 들면, 관심 지점의 위치를 근사하는 시스템이 화재 장소(위치)의 근사에 사용되는 경우, 시스템은 SMS, 이메일, 음성 또는 라이브 채팅이나 음성 통신을 통해 화재 장소를 팀(예컨대, 소방 대원 또는 커뮤니티)에 전자적으로 통지할 뿐 아니라, 시스템에 의해 생성된 네비게이션 데이터에 기초하여 현장 대원의 경로를 계산하는, 예컨대 현장 대원 또는 커뮤니티에게 그들의 현재 위치에 기초하여 관심 지점에 대한 방향을 전송하는 수단을 더 포함할 수 있다. 시스템에의 입력으로는 기타 공간 데이터, 날씨, 위성 사진이나 데이터, 번개 감지를 사용할 수 있다.
본 발명의 시스템은, 매핑 또는 삼각 측량 프로세스에 대해 특별한 지식이 없는 완전히 미숙한 사용자가 프로세스를 개시하여 단일 카메라를 사용하여 순식간에 정확한 결과에 이를 수 있게 한다.
이 프로세스는 위치 근사의 정확도 레벨 및 속도를 향상시킨다. 이 프로세스는 또한 프로세스를 수행하는 데 필요한 인적 자원의 수 및 숙달 정도를 감소시키고, 종래 기술의 처리 시간을 수 십분(보통 15-20 + 수 분 또는 그 이상)에서 수 초로 감소시킨다.
이상에서는 본 발명을 제한된 수의 실시예와 관련하여 설명하였지만, 해당 기술분야의 당업자라면 이상의 상세한 설명을 미루어 볼 때 많은 대안, 변경 및 변형이 가능하다는 것을 알 것이다. 따라서, 본 발명은 개시된 본 발명의 사상 및 범위 내에 드는 그러한 모든 대안, 변경 및 변형을 포함하려는 의도를 갖고 있다.

Claims (20)

  1. 삼차원 좌표 시스템에 대해 관심 지점의 위치를 근사하는 방법으로서,
    (a) 관심 지점이 카메라 뷰 내에 보일 수 있도록 상기 관심 지점 쪽으로 카메라를 배향하여 관심 지점을 선택하는 단계;
    (b) 상기 삼차원 좌표 시스템에 대한 카메라 위치, 및 카메라 헤딩과 카메라 틸트를 포함하는 카메라 배향을 포함하는 카메라 데이터를 검색하는 단계;
    (c) 상기 카메라 헤딩에 따라 지형도 상에 위치된 하나 이상의 세트의 삼차원 좌표를 식별하기 위해 관련된 지형도 데이터베이스에 질의하여 제1 데이터세트를 형성하는 단계;
    (d) 상기 카메라 헤딩 및 상기 카메라 틸트에 기초하여, 상기 카메라와 상기 관심 지점 사이의 카메라 궤적에 위치된 하나 이상의 좌표를, 상기 카메라 궤적을 따라 일정한 미리 정해진 간격으로 계산하여 제2 데이터세트를 형성하는 단계;
    (e) 상기 제1 데이터세트와 상기 제2 데이터세트를 비교하여 한 쌍의 일치하는 삼차원 좌표 세트를 식별하는 단계로서, 일치하는 좌표는 상기 관심 지점의 상기 삼차원 좌표 위치를 나타내는, 식별 단계; 및
    (f) 상기 카메라 틸트를 검증하기 위해 상기 카메라 위치와 상기 관심 지점의 위치 사이의 고도 차를 이용하여 상기 관심 지점의 삼차원 좌표 위치를 검증하는 단계
    를 포함하고,
    상기 카메라 틸트가 허용 범위 이내로 검증되는 경우, 상기 관심 지점의 삼차원 좌표 위치의 포지션이 검증되는 것인, 삼차원 좌표 시스템에 대해 관심 지점의 위치를 근사하는 방법.
  2. 제1항에 있어서,
    상기 카메라 데이터를 검색하는 단계는 상기 카메라 틸드 및 팬 값에 기초하여 상기 관심 지점에 대응하는 카메라 헤딩을 계산하는 단계를 포함하는, 삼차원 좌표 시스템에 대해 관심 지점의 위치를 근사하는 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 관심 지점의 삼차원 좌표 위치의 검증이 가능하도록 고도(height or altitude)의 차 및 상기 카메라 위치와 상기 관심 지점 사이의 수평 거리를 결정하는 단계를 더 포함하는, 삼차원 좌표 시스템에 대해 관심 지점의 위치를 근사하는 방법.
  4. 제1항 또는 제2항에 있어서,
    상기 카메라 궤적을 따르는 미리 정해진 간격은 유효 지형 간격(available topographic interval)에 대응하는, 삼차원 좌표 시스템에 대해 관심 지점의 위치를 근사하는 방법.
  5. 제1항 또는 제2항에 있어서,
    상기 관심 지점을 선택하는 단계는, 세 개 이상의 지점을 선택하여 관심 지역을 나타내는 다각형을 규정하도록 상기 카메라를 배향하는 단계를 포함하고,
    상기 다각형을 규정하는 지점 각각에 대해, 상기 방법은 단계 (b) 내지 (e)를 반복하여 상기 관심 지역을 규정하는 각 지점의 위치를 근사하는 단계를 더 포함하는, 삼차원 좌표 시스템에 대해 관심 지점의 위치를 근사하는 방법.
  6. 제1항 또는 제2항에 있어서,
    상기 관심 지점을 선택하는 단계는, 전자 지형도 상의 관심 지역을 나타내는 다각형을 규정하는 세 개 이상의 지점을 선택하는 단계, 및 상기 지형도 데이터베이스에 질의하여 상기 다각형을 규정하는 각 지점에 대응하는 지형도 좌표를 검색하는 단계를 포함하는, 삼차원 좌표 시스템에 대해 관심 지점의 위치를 근사하는 방법.
  7. 제5항에 있어서,
    관심 지역이 위치되어 있는 상기 다각형을 규정하는 각 지점의 삼차원 좌표 위치의 검증이 가능하도록 상기 카메라 위치와 상기 다각형을 규정하는 각 지점 사이의 수평 거리 및 고도의 차를 결정하는 단계를 더 포함하는, 삼차원 좌표 시스템에 대해 관심 지점의 위치를 근사하는 방법.
  8. 제6항에 있어서,
    관심 지역이 위치되어 있는 상기 다각형을 규정하는 각 지점의 삼차원 좌표 위치의 검증이 가능하도록 상기 카메라 위치와 상기 다각형을 규정하는 각 지점 사이의 수평 거리 및 고도의 차를 결정하는 단계를 더 포함하는, 삼차원 좌표 시스템에 대해 관심 지점의 위치를 근사하는 방법.
  9. 제5항에 있어서,
    상기 관심 지점이 위치되어 있는 다각형을 규정하는 상기 세 개 이상의 지점에 대응하는 상기 삼차원 좌표를 식별할 수 있게 해주는 지형도를 사용자에게 표시하는 단계를 더 포함하는, 삼차원 좌표 시스템에 대해 관심 지점의 위치를 근사하는 방법.
  10. 제6항에 있어서,
    상기 관심 지점이 위치되어 있는 다각형을 규정하는 상기 세 개 이상의 지점에 대응하는 상기 삼차원 좌표를 식별할 수 있게 해주는 지형도를 사용자에게 표시하는 단계를 더 포함하는, 삼차원 좌표 시스템에 대해 관심 지점의 위치를 근사하는 방법.
  11. 제7항에 있어서,
    상기 관심 지점이 위치되어 있는 다각형을 규정하는 상기 세 개 이상의 지점에 대응하는 상기 삼차원 좌표를 식별할 수 있게 해주는 지형도를 사용자에게 표시하는 단계를 더 포함하는, 삼차원 좌표 시스템에 대해 관심 지점의 위치를 근사하는 방법.
  12. 삼차원 좌표 시스템에 대한 관심 지점의 위치를 근사하는 시스템으로서,
    (a) 사용자가 카메라 뷰에서 관심 지점을 볼 수 있도록 상기 관심 지점 쪽으로 배향되는 카메라;
    (b) 상기 삼차원 좌표 시스템에 대한 카메라 위치, 및 카메라 헤딩과 카메라 틸트를 포함하는 카메라 포지션을 포함하는 카메라 데이터를 저장하는 제1 데이터베이스;
    (c) 지형도 데이터를 저장하는 제2 데이터베이스;
    (d) 상기 카메라 헤딩을 따라 상기 지형도 상에 위치된 복수의 세트의 삼차원 좌표를 식별하여 제1 데이터세트를 형성하고, 상기 카메라 헤딩과 카메라 틸트에 기초하여, 상기 카메라와 상기 관심 지점 사이의 카메라 궤적에 위치된 복수의 세트의 삼차원 좌표를, 상기 카메라 궤적을 따라 일정한 미리 정해진 간격으로 계산하여 제2 데이터세트를 형성하는 프로세서로서, 상기 제1 데이터세트와 상기 제2 데이터 세트의 비교에 의해 상기 관심 지점의 삼차원 좌표 위치를 나타내는 한 쌍의 일치하는 삼차원 좌표 세트를 식별하는, 프로세서; 및
    (e) 상기 카메라 틸트를 검증하기 위해 상기 카메라 위치와 상기 관심 지점의 위치 사이의 고도 차를 이용하여 관심 지점의 삼차원 좌표 위치를 검증하기 위한 검증 모듈
    을 포함하고, 상기 카메라 틸트가 허용 범위 이내로 검증되는 경우, 상기 관심 지점의 삼차원 좌표 위치의 포지션이 검증되는 것인, 삼차원 좌표 시스템에 대한 관심 지점의 위치를 근사하는 시스템.
  13. 제12항에 있어서,
    상기 관심 지점에 대응하는 삼차원 좌표의 위치가 사용자에게 표시되는 지형도 인터페이스를 더 포함하는, 삼차원 좌표 시스템에 대한 관심 지점의 위치를 근사하는 시스템.
  14. 삼차원 좌표 시스템에 대한 관심 지점의 위치를 근사하는 시스템으로서,
    프로세서; 및
    상기 프로세서로 하여금 제1항 또는 제2항에 따른 방법을 실행하게 하는 일련의 명령어를 저장하는 관련 메모리 디바이스
    를 포함하는, 삼차원 좌표 시스템에 대한 관심 지점의 위치를 근사하는 시스템.
  15. 삼차원 좌표 시스템에 대한 관심 지점의 위치를 근사하는 시스템에 사용하기 위한 컴퓨터 소프트웨어가 저장되는 컴퓨터 판독가능 저장 매체로서,
    상기 시스템은,
    프로세서; 및
    상기 프로세서로 하여금 제1항 또는 제2항에 따른 방법을 실행하게 하는 일련의 명령어를 포함하는 컴퓨터 소프트웨어를 저장하는 관련 메모리 디바이스를 포함하는, 컴퓨터 판독가능 저장 매체.
  16. 삭제
  17. 삭제
  18. 삭제
  19. 삭제
  20. 삭제
KR1020117000446A 2008-06-16 2009-06-16 공간 예측 근사 및 방사 컨벌루션 KR101663669B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AU2008903046 2008-06-16
AU2008903046A AU2008903046A0 (en) 2008-06-16 Spatial predictive approximation and radial convolution
PCT/AU2009/000769 WO2009152567A1 (en) 2008-06-16 2009-06-16 Spatial predictive approximation and radial convolution

Publications (2)

Publication Number Publication Date
KR20110016993A KR20110016993A (ko) 2011-02-18
KR101663669B1 true KR101663669B1 (ko) 2016-10-07

Family

ID=41433590

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020117000446A KR101663669B1 (ko) 2008-06-16 2009-06-16 공간 예측 근사 및 방사 컨벌루션

Country Status (9)

Country Link
US (1) US9058689B2 (ko)
EP (1) EP2304692A4 (ko)
JP (1) JP5575758B2 (ko)
KR (1) KR101663669B1 (ko)
CN (1) CN102119402B (ko)
AU (1) AU2009260182B2 (ko)
CA (1) CA2727687C (ko)
NZ (1) NZ590428A (ko)
WO (1) WO2009152567A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110109747A1 (en) * 2009-11-12 2011-05-12 Siemens Industry, Inc. System and method for annotating video with geospatially referenced data
US9228838B2 (en) 2011-12-20 2016-01-05 Fluke Corporation Thermal imaging camera with compass calibration
KR20130084720A (ko) * 2012-01-18 2013-07-26 삼성전기주식회사 영상 처리 장치 및 방법
US8996203B2 (en) * 2012-04-02 2015-03-31 The Boeing Company Searchlight location system
US9714833B2 (en) 2013-08-23 2017-07-25 Insight Robotics Limited Method of determining the location of a point of interest and the system thereof
CN104090970B (zh) * 2014-07-17 2018-02-02 百度在线网络技术(北京)有限公司 兴趣点的展现方法及装置
WO2016065375A1 (en) * 2014-10-27 2016-05-06 Fts Computertechnik Gmbh Computer vision monitoring for a computer vision system
US20190094331A1 (en) * 2017-09-25 2019-03-28 Continental Automotive Systems, Inc. System and method of infrastructure sensor self-calibration
US11182954B2 (en) 2018-09-07 2021-11-23 Hivemapper Inc. Generating three-dimensional geo-registered maps from image data
CN109782810B (zh) * 2018-12-26 2020-06-02 中国人民解放军战略支援部队航天工程大学 基于图像引导的视频卫星运动目标跟踪成像方法及其装置
DE102020124688A1 (de) * 2019-09-27 2021-04-01 Electronic Theatre Controls, Inc. Systeme und verfahren zur standortbestimmung von leuchten
CN113344264B (zh) * 2021-05-28 2024-02-27 深圳市无限动力发展有限公司 轨迹闭合的判断方法、装置、计算机设备和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001189888A (ja) 1999-12-28 2001-07-10 Ntt Data Corp 撮影指示装置、撮影指示方法及び記録媒体
JP2005207862A (ja) 2004-01-22 2005-08-04 Fuji Heavy Ind Ltd 目標位置情報取得システム及び目標位置情報取得方法
JP2005323253A (ja) 2004-05-11 2005-11-17 Fuji Photo Film Co Ltd 捜索システム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4954837A (en) 1989-07-20 1990-09-04 Harris Corporation Terrain aided passive range estimation
JP3104909B2 (ja) * 1989-12-05 2000-10-30 ソニー株式会社 画像処理装置
JP2695393B2 (ja) * 1995-04-10 1997-12-24 川崎重工業株式会社 位置特定方法および装置
IL117521A0 (en) 1996-03-17 1996-10-31 Israel Aircraft Ind Ltd Malat A fire imaging system and method
JPH11102495A (ja) * 1997-09-29 1999-04-13 Ntt Data Corp 監視システムおよび方法
JP2001359083A (ja) 2000-06-13 2001-12-26 Minolta Co Ltd 移動体に搭載された撮像装置
US6664529B2 (en) * 2000-07-19 2003-12-16 Utah State University 3D multispectral lidar
CN1414518A (zh) * 2002-09-18 2003-04-30 北京航空航天大学 虚拟现实数据标准化方法
JP4116393B2 (ja) 2002-10-24 2008-07-09 能美防災株式会社 火源探査システム
JP2004145638A (ja) 2002-10-24 2004-05-20 Nohmi Bosai Ltd 火源探査システム
JP3976662B2 (ja) * 2002-10-24 2007-09-19 能美防災株式会社 火源探査システム
IL154701A0 (en) * 2003-03-02 2004-05-12 Yaniv Malchi Passive target acquisition system and a true north locating system
US6744397B1 (en) * 2003-06-11 2004-06-01 Honeywell International, Inc. Systems and methods for target location
US7359038B1 (en) * 2006-06-22 2008-04-15 Donoghue Patrick J Passive determination of ground target location
CN101154313A (zh) * 2006-09-28 2008-04-02 长江航道规划设计研究院 三维仿真数字信息航道系统及实现方法
JP5291299B2 (ja) 2007-05-17 2013-09-18 積水化学工業株式会社 導電ペースト
CN100533486C (zh) * 2007-08-07 2009-08-26 深圳先进技术研究院 一种数字城市全自动生成的方法
JP5297984B2 (ja) 2009-11-11 2013-09-25 ジーエスケー販売株式会社 錠前のこじ開け防止装置
US8374431B2 (en) * 2010-07-27 2013-02-12 Aerotec, Llc Method and apparatus for direct detection, location, analysis, identification, and reporting of vegetation clearance violations

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001189888A (ja) 1999-12-28 2001-07-10 Ntt Data Corp 撮影指示装置、撮影指示方法及び記録媒体
JP2005207862A (ja) 2004-01-22 2005-08-04 Fuji Heavy Ind Ltd 目標位置情報取得システム及び目標位置情報取得方法
JP2005323253A (ja) 2004-05-11 2005-11-17 Fuji Photo Film Co Ltd 捜索システム

Also Published As

Publication number Publication date
US20110102580A1 (en) 2011-05-05
AU2009260182B2 (en) 2015-11-26
CA2727687C (en) 2017-11-14
NZ590428A (en) 2013-11-29
AU2009260182A1 (en) 2009-12-23
WO2009152567A1 (en) 2009-12-23
US9058689B2 (en) 2015-06-16
CA2727687A1 (en) 2009-12-23
JP2011525968A (ja) 2011-09-29
JP5575758B2 (ja) 2014-08-20
EP2304692A1 (en) 2011-04-06
CN102119402B (zh) 2013-12-25
EP2304692A4 (en) 2014-03-12
KR20110016993A (ko) 2011-02-18
CN102119402A (zh) 2011-07-06

Similar Documents

Publication Publication Date Title
KR101663669B1 (ko) 공간 예측 근사 및 방사 컨벌루션
KR101661269B1 (ko) 휴대용 디바이스 상의 이미지 주석
US10613231B2 (en) Portable GNSS survey system
EP2737338B1 (en) Method for ensuring continuity of service of a personal navigation device and device thereof
US9367962B2 (en) Augmented image display using a camera and a position and orientation sensor
US20110310087A1 (en) User interface transition between camera view and map view
US20080036758A1 (en) Systems and methods for determining a global or local position of a point of interest within a scene using a three-dimensional model of the scene
US20200265644A1 (en) Method and system for generating merged reality images
KR101886932B1 (ko) 지리정보시스템과 노면영상정보의 동시간 활용을 통한 지표레이더탐사 위치확인 시스템
WO2017200429A2 (ru) Способ и система измерения расстояния до удаленных объектов
US20180328733A1 (en) Position determining unit and a method for determining a position of a land or sea based object
KR101573289B1 (ko) 위치 측정 방법 및 이를 이용한 휴대 단말기
CA3141746C (en) Improvements in and relating to targeting
US11143508B2 (en) Handheld device for calculating locations coordinates for visible but uncharted remote points
US20200413217A1 (en) Software for Distance and Object Identification Deployed on Mobile Devices
RU2660631C1 (ru) Способ и система для формирования изображений совмещенной реальности
KR20150107970A (ko) 복수의 영상 획득 장치를 포함하는 모바일 단말기의 위치 및 자세 결정 방법 및 시스템
CN112762939B (zh) 一种基于数字地图的目标坐标获取系统和方法
CN118365702B (zh) 一种单目摄像机的位姿定位方法和系统
JP6713560B1 (ja) 地番情報提供システム、地番情報提供方法
CN118225093A (zh) 一种水表位置标定方法

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20190604

Year of fee payment: 4