KR20050085926A - 모바일 네비게이션 유닛을 위한 진보된 3d 시각화를 위한시스템 및 방법 - Google Patents

모바일 네비게이션 유닛을 위한 진보된 3d 시각화를 위한시스템 및 방법 Download PDF

Info

Publication number
KR20050085926A
KR20050085926A KR1020057012242A KR20057012242A KR20050085926A KR 20050085926 A KR20050085926 A KR 20050085926A KR 1020057012242 A KR1020057012242 A KR 1020057012242A KR 20057012242 A KR20057012242 A KR 20057012242A KR 20050085926 A KR20050085926 A KR 20050085926A
Authority
KR
South Korea
Prior art keywords
scenegraph
mobile unit
frustum
object data
observation
Prior art date
Application number
KR1020057012242A
Other languages
English (en)
Other versions
KR101013633B1 (ko
Inventor
하우케 슈미트
투우린 쉔
아론 리
Original Assignee
로베르트 보쉬 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 로베르트 보쉬 게엠베하 filed Critical 로베르트 보쉬 게엠베하
Publication of KR20050085926A publication Critical patent/KR20050085926A/ko
Application granted granted Critical
Publication of KR101013633B1 publication Critical patent/KR101013633B1/ko

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/957Browsing optimisation, e.g. caching or content distillation
    • G06F16/9577Optimising the visualization of content, e.g. distillation of HTML documents
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B29/00Maps; Plans; Charts; Diagrams, e.g. route diagram
    • G09B29/10Map spot or coordinate position indicators; Map reading aids
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Databases & Information Systems (AREA)
  • Automation & Control Theory (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Processing Or Creating Images (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)

Abstract

모바일 유닛을 위한 3차원 시각 네비게이션을 제공하는 시스템은 모바일 유닛의 순간 위치를 계산하는 위치 계산 유닛과, 순간 위치로부터 관찰 프러스텀을 결정하는 관점 제어 유닛과, 관찰 프러스텀과 관련된 지리 객체 데이터를 얻도록 적어도 1개의 지리-데이터베이스와 통신 상태에 있으며 지리 객체 데이터를 조직화하는 장면 그래프를 발생시키는 장면 그래프 매니저와, 실시간으로 장면 그래프를 그래픽 렌더링하는 장면 그래프 렌더러를 포함한다. 묘사를 향상시키기 위해, 장면 그래프에서 상이한 해상도의 화상을 조합하는 방법은 모바일 유닛이 묘사된 지리 객체에 대해 이동할 때 돌연한 변화를 감소시킨다. 지리 객체 데이터에 대한 정보의 저장 및 런-타임 접근을 위한 데이터 구조는 관찰 프러스텀을 기초로 하여 데이터의 요구형 로딩을 가능하게 하며 네비게이션 시스템이 사용자에게 보이는 객체들만 요구에 따라 동적으로 로딩하게 한다.

Description

모바일 네비게이션 유닛을 위한 진보된 3D 시각화를 위한 시스템 및 방법{SYSTEM AND METHOD FOR ADVANCED 3D VISUALIZATION FOR MOBILE NAVIGATION UNITS}
본 발명은 시각 네비게이션 시스템에 관한 것으로, 특히 그래픽 랜드마크 객체의 요구형 로딩을 위한 계층적 방법을 포함하는 모바일 네비게이션을 위한 지리 참조 데이터의 시각 디스플레이를 위한 시스템 및 방법, 그리고 국소 지리 환경을 효율적으로 그리고 정확하게 묘사하는 다중 해상도 화상 합성을 위한 방법에 관한 것이다.
고정 관찰자의 시야로(관찰자에 의해 선택된 특정 관점으로부터) 국소 지리 환경의 외관을 정확하게 시각적으로 렌더링하도록 컴퓨터 그래픽 소프트웨어를 사용하는 것은 관찰자의 관점에 따라 장면을 재구성하는 문제점에 추가하여 장면의 다양한 텍스쳐 및 그래픽 세부 정도를 정확하게 시뮬레이션하는 것과 관련된 어려움 때문에 그 자체로서 힘든 작업이다. 그러나, 현재 개발 중에 있는 현대적인 시각 네비게이션 시스템은 훨씬 더 큰 요구형 그래픽 소프트웨어를 배치하여: 네비게이션 보조로서 역할하도록 이동하는 관찰자의 시각 환경을 정확하게 시뮬레이션하게 한다. 실시간으로 차량 내의 운전자 등의 이동하는 관찰자의 국소 지리 환경을 묘사하도록 렌더링 소프트웨어를 사용하는 것은 분명히 고정된 관찰자의 환경을 렌더링하는 것보다 훨씬 더 힘든데, 이는 관찰자의 위치가 변화됨에 따라 관찰자의 관찰 범위 내의 지리 객체 그리고 이들 객체의 외관이 변화되며 그에 따라 신규 그래픽 객체(국소 "관심 지점"), 텍스쳐, 특징부 및 시야 그리고 다른 참조 데이터가 실시간으로 국소 네비게이션 환경에 관한 정보를 정확하게 렌더링 및 제공하도록 용이하게 다운로딩될 수 있게 하는 계속적인 업데이팅 기구를 요구하기 때문이다.
기존에 사용하고 있는 일부의 시각 네비게이션 시스템은 사용자 입력을 기초로 하여 사실적인 환경의 3차원 시각화를 제공하지만, 이들 시스템은 어느 것도 모바일 네비게이션을 지원하지 않고, 이와 같이 네비게이션 보조를 위한 경로 안내 애플리케이션을 제공하지 않거나, 렌더링 가능한 관점 또는 표시될 수 있는 그래픽 특징부의 측면에서 제한된다.
따라서, 어떤 관점에 따라 고도의 세부 정도로 모바일 관찰자의 환경을 사실적으로 렌더링하며 표시된 객체에 관한 경로 안내 및 참조 정보 등의 네비게이션 보조도 제공하는 자동차 네비게이션 시스템 또는 개인 휴대 단말기(PDA: personal digital assistance) 등의 모바일 유닛을 위한 시각화 시스템이 필요하다.
도1a는 제1 방위에 따른 관찰자의 관찰 프러스텀의 개략도이다.
도1b는 도1에 도시된 도면으로부터 약간 변화된 방위에 따른 관찰 프러스텀의 개략도이다.
도2a는 본 발명에 의해 제공된 모바일 유닛의 현재 위치에 따른 헬리콥터 시야로의 대도시 환경의 예시적인 3차원 렌더링이다.
도2b는 모바일 유닛이 도시된 경로를 따라 소정 거리만큼 이동한 후의 도2a의 환경의 3차원 헬리콥터 시야 렌더링이다.
도2c는 모바일 유닛이 도시된 경로를 따라 훨씬 더 멀리 이동한 후의 도2a 및 도2b의 환경의 3차원 헬리콥터 시야 렌더링이다.
도3은 본 발명의 예시 실시예에 따른 시각 네비게이션 시스템을 도시하고 있다.
도4a는 2차원 영역 내에 지리적으로 분산된 랜드마크의 추상도를 도시하고 있다.
도4b는 도4a의 경계 영역의 공간 구획 그리고 경계 영역 내에서의 랜드마크 객체의 위치를 나타내는 나무형 구조를 도시하고 있다.
도5a는 경계 박스와 타일 사이의 내포 관계를 설명하는 네비게이션 시스템의 2차원 그래픽 경계 영역의 예시적인 추상도를 도시하고 있다.
도5b는 도5a의 내포 경계 박스 관계를 나타내는 계층적 나무형 구조를 도시하고 있다.
도6a는 본 발명의 실시예에 따른 저장 매체 또는 메모리 내의 RIF(Resource Index Filed)의 물리적인 레이아웃의 예시도를 도시하고 있다.
도6b는 도5b의 계층적 나무형 구조에 대응하는 RIF 파일의 예시적인 컨텐츠를 도시하고 있다.
도7a는 본 발명의 실시예에 따른 저장 매체 또는 메모리 내의 LOD(Level of Details)의 물리적인 레이아웃의 예시도를 도시하고 있다.
도7b는 도5b의 계층적 나무형 구조의 타일 TILE1 내지 TILE7에 대응하는 LOD의 예시적인 컨텐츠를 도시하고 있다.
도8a는 최대 거리로부터 관찰될 때 제시된 본 발명에 따른 제1 조합 다중 해상도 화상을 도시하고 있다.
도8b는 도8a보다 작은 거리로부터 관찰될 때의 본 발명에 따른 제2 조합 다중 해상도 화상을 도시하고 있다.
도8c는 도8b보다 작은 거리로부터 관찰될 때의 본 발명에 따른 제3 조합 다중 해상도 화상을 도시하고 있다.
도8d는 최소 거리로부터 관찰될 때의 본 발명에 따른 제4 조합 다중 해상도 화상을 도시하고 있다.
도9는 본 발명의 네비게이션 시스템에 의해 수행된 다중 해상도 화상 합성을 위한 방법의 실시예의 플로 다이어그램이다.
도10은 거리의 함수로서 각각의 3개의 해상도 레벨을 위해 사용된 조합 인자의 그래프를 도시하고 있다.
전술된 필요성을 충족시키기 위해, 본 발명은 모바일 유닛의 순간 위치를 계산하는 위치 계산 유닛과, 모바일 유닛의 순간 위치를 기초로 하여 관찰 프러스텀을 결정하는 관점 제어 유닛과, 적어도 1개의 지리-데이터베이스로부터 관찰 프러스텀과 관련된 지리 객체 데이터를 얻으며 얻어진 지리 객체 데이터를 조직화하는 장면 그래프를 발생시키는 적어도 1개의 지리-데이터베이스와 통신 상태의 장면 그래프 매니저와, 실시간으로 3차원 묘사로서 장면 그래프를 그래픽 렌더링하는 장면 그래프 렌더러를 포함하는 모바일 유닛을 위한 3차원 시각 네비게이션을 제공하는 시스템을 제공한다.
묘사의 사실성을 향상시키기 위해, 본 발명은 모바일 유닛이 묘사된 지리 영역을 향해 근접하게 또는 묘사된 지리 영역으로부터 멀리 떨어지게 이동함에 따라 일어날 수 있는 최종 묘사면에서의 불균일성 및 돌연한 변화를 감소시키기 위해 관찰 프러스텀에 관한 상이한 해상도의 화상을 조합하는 방법을 제공한다.
추가로, 네비게이션 시각화의 효율을 증가시키기 위해, 본 발명은 지리 랜드마크 객체 또는 POIs(Points of Interest)에 대한 정보의 저장 및 런-타임 접근을 위한 데이터 구조도 기재하고 있다. 데이터 구조는 관찰 프러스텀 및/또는 사용자 요청을 기초로 하여 객체의 요구형 로딩을 가능하게 할 수 있다. 데이터 구조는 시스템이 모바일 유닛의 사용자에게 보일 수 있으며/있거나 관심 있는 객체들만 요구에 따라 동적으로 로딩하게 함으로써 로딩 시간, 메모리 사용, 처리 요건 및 디스플레이 렌더링 리소스를 최소화할 수 있다.
본 발명에 따른 시스템은 모바일 네비게이션, 방위 및 참조를 위한 지리 영역의 임의의 관점으로부터의 3차원 그래픽 시각화의 시퀀스를 발생시킨다. 그래픽 시각화 또는 렌더링은 국소 지리 정보가 이용 가능한 어떤 형태의 데이터 객체의 표현을 포함할 수 있다. 이러한 데이터는 위성, 공중 또는 지상 시야 화상, 디지털 도로 지도, 빌딩의 기하학적 모델, 풍경의 텍스쳐 설명, 그리고 역 및 호텔 등의 묘사된 환경 내의 특징부 또는 빌딩을 설명하는 어떤 종류의 식별 정보 또는 교통 정보, 날씨 상태, 시각(점멸) 등의 동적 데이터를 (제한 없이) 포함할 수 있다.
도1a 및 도1b는 국소 환경을 렌더링하는 데 사용되는 정보 파라미터가 관찰자의 관점(방위)에 따라 변화되는 방식을 도시하고 있다. 도1a에서, "북쪽"으로 향해진 관찰자(5)는 2차원 시계 A 즉 객체(7, 8, 9)를 포함하는 대략 원추 형상의 영역을 갖는다. 시계 A는 관찰자가 인지할 수 있는 모든 3차원 공간을 포함하는 3차원 "관찰 프러스텀"(15)을 결정한다. 관찰 프러스텀(15) 내의 객체는 원근법, 인간 시각 및 그래픽 묘사의 알려진 규칙에 따라 (평면 'A-A'와 같이 개략적으로 도시된) 2차원 도면 상으로 돌출된다. 관찰자가 작은 각도만큼 "서쪽"을 향해 돌 때, 관찰자의 관찰 범위는 시계 A의 일부와 겹치는 신규 시계 B를 포함하고, 변화된 관찰 프러스텀(16)을 한정한다. 신규 관찰 프러스텀(16)은 신규 객체(10)를 포함하고, 반면에 객체(7)는 신규 관찰 프러스텀의 외측에 있으며 더 이상 관찰 가능하지 않다.
이와 같이, 관찰자의 방위가 변화됨에 따라 관찰자의 환경을 적절하게 렌더링하기 위해, 렌더링 시스템은 종전에 렌더링되지 않은 [객체(10)에 대한] 신규 데이터를 검색 및 렌더링하여야 하고, 종전에 검색 및 렌더링된 [객체(7)에 대한] 데이터를 제외하여야 한다. 이러한 방식으로, 시스템은 신규 정보를 다운로딩하며 "종전" 데이터를 제외하면서 계속적인 변동 상태에 있다. 지리 그래픽 데이터의 양은 전형적으로 대부분의 시각 네비게이션 시스템을 위한 내부 메모리 리소스의 용량을 초과하므로, 신규 데이터가 가능하면 최대 정도까지 관찰자가 보는 것과 부합하는 실시간으로 연속하는 시퀀스를 렌더링하게 즉시 다운로딩될 수 있도록 시스템이 외부 데이터베이스 리소스로의 신속하고 효율적인 접근을 하게 하는 것이 극히 중요하다. 고도의 사실성을 성취하기 위해, 시각화 시스템은 변화가 인간의 눈에 대해 끊이지 않게 그리고 직접적으로 보이게 할 정도로 충분히 빠르게 초당 60회 업데이트의 속도로 시각화를 업데이트한다.
도2a, 도2b 및 도2c는 관찰자가 묘사된 경로를 따라 이동할 때의 대도시 환경의 3개의 순차적인 3차원 렌더링을 도시하고 있고, 본 발명의 시각 네비게이션 시스템이 관찰자의 이동을 고려하여 그에 따라 시각화를 업데이트하는 방식을 설명하고 있다. 도2a는 녹색 삼각형으로서 도시된 모바일 유닛(200)의 위치를 기초로 하여 대도시 지역 내의 장면의 "헬리콥터" 시야 렌더링을 묘사하고 있다. 도시된 바와 같이, 자동차 내에 합체될 수 있는 모바일 유닛은 전경 내의 (좌측 상에 도시된) 빌딩(203, 204) 및 (우측 상에 도시된) 빌딩(205) 사이의 도로(201)를 따라 이동하고 있으며 교량(215)에 접근하고 있다. 또한, 묘사는 "제임스 먼로" 교량으로서 교량을 식별하는 참조 텍스트를 포함한다. 여러 개의 빌딩을 포함하는 원경 섹션(207)이 교량(215)의 원위 단부에 놓인다. 그래픽 북쪽의 방향을 지시하는 황색 삼각형 컴퍼스(208)가 모바일 유닛(200) 바로 위의 상부에 도시되어 있다. 추가로, 사전에 선택된 목적지로의 제안된 경로가 청색 곡선(210)으로 도시되어 있다.
모바일 유닛(200)이 제안된 경로(210)를 따라 교량(215)을 향해 전방으로 이동함에 따라, 국소 환경의 그래픽 렌더링은 도2b에 도시된 바와 같이 약간 변화된다. 분별될 수 있는 바와 같이, 모바일 유닛(200)의 표현은 전방으로 이동하고, 원경 섹션(207)은 약간 확대되고, 빌딩(203 내지 205)은 원근법의 규칙에 따라 비례로 확대된다. 모바일 유닛이 도2c에 도시된 바와 같이 교량(215)을 향해 더욱 더 멀리 이동함에 따라, 전경 내의 빌딩(203 내지 205) 및 원경 내의 빌딩(207)은 더욱 더 멀리 확대된다. 추가로, 시야로부터 종전에 숨겨져 있던 빌딩(205)의 일부가 이제 보이고, 빌딩(203)이 사라지고, 그에 따라 관찰자가 경로(210)를 따라 이동하면서 관찰하는 것을 시뮬레이션한다.
도3은 본 발명의 예시 실시예에 따른 진보된 3차원 시각화를 위한 네비게이션 시스템의 블록 다이어그램이다. 네비게이션 시스템(25)은 모바일 유닛과 동일한 장소에 위치된 내부 구성 요소(30) 그리고 "지리-데이터베이스(geo-database)" 등의 멀리 떨어져 위치된 외부 구성 요소(61, 62)를 모두 포함한다. 지리-데이터베이스(61, 62)는 2개의 분리된 유닛으로서 도시되어 있지만 시스템의 내부 구성 요소(30)에 의해 접근될 수 있는 동일한 장소에 위치되거나 멀리 떨어져 위치된 임의의 개수의 데이터베이스를 나타내고자 한다는 것이 이해되어야 한다. 지리-데이터베이스(61, 62)는 지도 정보, 기하학적 및 텍스쳐 그래픽 정보 그리고 식별 정보를 포함하는 다양한 지리 영역에 관한 대량의 데이터를 담는다. 그러나, 각각의 지리-데이터베이스는 다른 데이터베이스 내에 물리적으로 저장되는 그래픽 정보에 관한 참조 또는 메타-데이터만 대신에 담을 수 있다. 이러한 방식으로, 특정 데이터베이스는 어떤 형태 예컨대 특정 그래픽 영역 내에 위치되는 레스토랑의 객체 등의 정보를 제공하도록 효율적으로 문의될 수 있는 추가의 데이터베이스로 접근하는 디렉토리 서버로서 기능할 수 있다. 데이터로의 접근을 합리화하는 지리-데이터 메타-데이터의 사용은 다음에 상세하게 설명될 것이다.
시각 네비게이션 시스템(25)은 로컬 메모리 내에 저장되어 (관찰자의 위치인 것으로 여겨지는) 모바일 유닛의 마이크로프로세서 상에서 실행되는 프로그램으로서 실시될 수 있는 위치 계산 유닛(35)을 포함한다. 위치 계산 유닛(35)은 위치 센서(40)로부터의 입력을 수용하며 입력된 정보를 기초로 하여 직교 좌표계 (x, y, z) 공간에서 모바일 유닛의 순간 위치(좌표)를 계산한다. 하나의 실시예에 따르면, 위치 센서(40)는 "절대" 위치 정보를 제공하는 GPS 수신기 그리고 "상대" 위치 정보가 적분에 의해 계산될 수 있는 선형 가속 및 각속도 정보를 제공할 수 있는 관성 센서를 모두 포함한다. 대신에 또는 추가로, 위치 센서(40)는 차륜 속도 센서 등의 주행 기록 센서를 포함할 수 있다. 회전 이동에 응답하는 적절한 관성 센서가 구비될 때, 위치 계산 유닛은 모바일 유닛의 순간 방위도 계산할 수 있다.
위치 계산 유닛(35)은 렌더링될 관찰 프러스텀의 경계를 결정하도록 위치 정보 및 방위 정보를 사용하는 관점 제어 유닛(45)에 대한 모바일 유닛의 계산된 위치(그리고 가능하면 방위)를 통과한다. 또한, 관점 제어 유닛(45)은 향상된 기능성을 제공하도록 사용자 입력 모듈(50) 및 경로 계산 모듈(52)과 상호 작용하여 사용자 입력 모듈 및 경로 계산 모듈로부터의 입력을 수용한다. 예컨대, 키패드 또는 버튼 제어부 등의 사용자 입력 모듈(50)을 통해, 시각화 시스템의 사용자가 줌 아웃/인하도록 관찰 모드를 변화시킬 수 있거나 관찰의 피치 각도를 변화시킬 수 있다. 추가로, 사용자는 시각화를 위해 상이한 위치 및 방위 파라미터를 특정하기 위해 사용자 입력부(50)를 통해 위치 계산 유닛(35)을 무시할 수 있다.
또한, 사용자는 사용자 입력부(50)를 통해 관찰 관점 모드를 선택할 수 있다. 하나의 모드에서, 렌더링된 관점은 헬리콥터가 자동차를 따를 수 있는 방식과 유사하게 특정한 소정 거리 및 각도에서 모바일 유닛의 위치를 따르는 "헬리콥터" 시야를 나타낼 수 있다. 또 다른 모드에서, 관점은 가상 장면이 관찰자가 보는 장면과 부합하도록 모바일 유닛의 위치 및 진로를 직접적으로 반영할 수 있다. 각각의 경우에, 선택된 모드는 관점 제어 유닛(45)에 의해 계산된 관찰 프러스텀에 영향을 준다.
경로 계산 모듈(52)이 (도시된 바와 같은) 시스템 내에 설치되면, 이는 선택된 경로를 따라 결정 지점(예컨대, 교차로) 등의 경로 정보를 제공할 수 있다. 미리보기 모드가 사용자 입력부(50)를 통해 선택되면, 경로 계산 모듈(52)로부터 관점 제어 유닛(45)으로의 결정 지점 정보의 전송은 경로의 다가올 섹션의 시각화가 모바일 유닛이 그 섹션에 도착하기 전에 미리보기에서 사용자에게 제시되도록 다가올 결정 지점에 대한 관점을 시작시킬 수 있다.
관점 제어 유닛(45)이 현재에 선택된 관점 모드에 따라 관찰 프러스텀을 결정한 후, 관점 제어 유닛은 데이터 저장 객체에 대해 조직화 및 접근하는 장면 그래프 매니저 모듈(55)에 관찰 프러스텀 좌표를 제공한다. 장면 그래프 매니저 모듈(55)은 "장면 그래프(scenegraph)"로서 불리는 현재의 장면 내에 묘사될 모든 객체의 구조 설명을 유지한다. 장면 그래프 매니저(55)는 관점 제어 유닛(45)으로부터 수용된 관찰 프러스텀을 기초로 하여 관심 있는 지리 영역을 결정하며 다음에 이러한 지리 영역 내에 놓인 객체에 대해 지리-데이터베이스(61, 62)에 문의한다. 신규 객체가 장면 그래프 내로 합체되고, 반면에 관심 있는 지리 영역 내에 더 이상 놓이지 않은 객체는 장면 그래프로부터 제거된다. 사용자 입력 모듈(50)을 통해 입력된 사용자 입력은 장면 그래프 매니저(55)가 장면 그래프 내에 포함하는 객체의 형태를 여과 또는 선택하는 데 사용될 수 있다. 예컨대, 사용자는 묘사될 레스토랑만 특정할 수 있다. 다음에, 장면 그래프 매니저는 이들 기준과 부합하는 장면 그래프에 객체를 문의 및 추가한다. 추가로, 장면 그래프는 모바일 유닛 자체를 나타내는 객체를 계속해서 포함할 수 있다.
로딩 시간, 메모리 사용, 처리 요건 및 디스플레이 렌더링 리소스를 최소화하기 위해, 장면 그래프 매니저(55)는 사용자에게 보이고/보이거나 관심 있으며 특정 레벨의 세부 정도와 관련되는 데이터 저장 객체들만 지리-데이터베이스(61, 62)로부터 요구에 따라 동적으로 로딩할 수 있다. 이러한 정보를 얻도록 지리-데이터베이스(61, 62)에 문의하기 위해, 장면 그래프 매니저(55)는 효율적인 접근을 위해 객체 데이터를 조직화하도록 특정하게 한정된 데이터 구조를 사용하는 객체 데이터의 요구형 로딩을 위한 계층적 방법을 채용한다.
본 발명의 예시 실시예에서, 2개의 데이터 구조가 요구에 따라 랜드마크 객체를 로딩하는 안내부로서 사용될 수 있다. "RIF 파일"로서 불리는 제1 데이터 구조는 랜드마크 객체의 "메타-데이터"를 위한 저장을 제공할 수 있다. "LOD 파일"로서 불리는 제2 데이터 구조는 다중 레벨의 세부 정도에서 랜드마크 객체에 관한 "실제 데이터"를 저장할 수 있다. RIF 및/또는 LOD 파일은 예컨대 저장 매체 및/또는 컴퓨터 메모리 내에 저장될 수 있다.
RIF 파일 내에 저장된 메타-데이터는 특정 관점 및 그 레벨의 세부 정도에서 보일 수 있는 리소스를 결정할 때 장면 그래프 매니저를 보조할 수 있다. 메타-데이터는 실제 데이터에 비해 크기면에서 작을 수 있다. 따라서, 실제 데이터로부터 메타-데이터를 분리함으로써, 메모리 사용, 처리 요건 및 초기 애플리케이션 시작 시간은 실제 데이터가 요구될 때까지 로딩될 필요가 없기 때문에 상당히 감소될 수 있다. 예컨대, 네비게이션 시스템의 초기화 단계 중, RIF 파일은 실제 데이터를 로딩하지 않고 시스템 메모리 내로 로딩될 것이 요구되는 리소스를 결정하도록 읽혀질 수 있다. 런-타임 중, 장면 그래프 매니저는 RIF 파일 내에 저장된 정보를 기초로 하여 LOD 파일을 통해 실제 데이터에 접근할 수 있다(즉, RIF 파일 내에 저장된 메타-데이터는 시스템 메모리 내로 로딩될 실제 데이터의 일부를 결정하도록 디렉토리로서 역할할 수 있다).
LOD 파일 내에 저장된 실제 데이터는 다중 해상도로 시스템의 리소스에 대한 정보를 나타낼 수 있다. 전형적으로 계층적 나무형 구조의 중간이 아닌 레벨에서만 잎 노드로서 실제 데이터를 저장하는 종래의 시스템과 달리, LOD 파일은 중간 노드 내에서의 데이터의 저장도 제공할 수 있다. 이러한 방식으로, 계층적 나무형 구조는 주어진 관점 배치 구성에서 특정 해상도에 대한 요구 데이터의 선택적인 로딩을 가능하게 함으로써 다중-해상도 정보에 접근하도록 적절한 배열 구성을 제공할 수 있다. 예컨대, 10000 ft 관점에서의 100 m 해상도 텍스쳐는 데이터의 배열 구성이 불필요한 횡방향 이동을 회피할 수 있으므로 1 m 해상도보다 오히려 더욱 빠르게 선택될 수 있다. 이와 같이, 데이터가 계층적 나무형 구조의 모든 레벨들 사이에 분포되도록 배열함으로써, 편리하고 효율적인 데이터의 접근이 요구된 해상도에 대해 성취될 수 있다.
도4a는 점선에 의해 경계가 표시된 2차원 영역 내에 지리적으로 분산된 랜드마크 객체(101 내지 105)의 추상도를 도시하고 있다. 좌표 X, Y, X', 및 Y'는 경계 영역(110)을 추가로 묘사하고 있다. 구체적으로, 좌표 X 및 Y는 경계 영역(110)을 4개의 사분면 즉 제1 사분면 Ⅰ, 제2 사분면 Ⅱ, 제3 사분면 Ⅲ 및 제4 사분면 Ⅳ으로 분할하도록 서로 교차한다. 좌표 X' 및 Y'는 4개의 사분면들 중 2개를 하위-사분면으로 추가로 세분하도록 좌표 X, Y와 교차한다. 특히, 좌표 Y'는 사분면 Ⅲ을 하위-사분면 Ⅲ1 및 하위-사분면 Ⅲ2로 세분하도록 좌표 X와 교차한다. 좌표 X'는 사분면 Ⅳ를 하위-사분면 Ⅳ1 및 하위-사분면 Ⅳ2로 세분하도록 좌표 Y와 교차한다.
사분면 Ⅰ 내지 Ⅳ 및 하위-사분면 Ⅲ1, Ⅲ2, 1, Ⅳ2로의 경계 영역(110)의 세분은 랜드마크 객체(101 내지 105)의 위치의 더욱 정확한 설명을 용이하게 한다. 도4a에 도시된 바와 같이, 랜드마크(지리) 객체(101)는 제1 사분면 Ⅰ에 위치되고, 랜드마크 객체(102)는 하위-사분면 Ⅲ2에 위치되고, 랜드마크 객체(103)는 하위-사분면 Ⅲ1에 위치되고, 랜드마크 객체(104)는 하위-사분면 Ⅳ2에 위치되고, 랜드마크 객체(105)는 하위-사분면 Ⅳ1에 위치된다.
또한, 랜드마크 객체(101 내지 105)의 위치의 설명은 "뿌리 노드" 및 다수개의 "가지 노드" 및 "잎"을 갖는 "나무형" 구조로서 나타낼 수 있다. 가지 노드는 경계 영역(110)의 공간적 구획을 나타낼 수 있으며 잎은 랜드마크 객체(101 내지 105)를 나타낼 수 있다. 가지 노드 및 잎은 경계 영역(110)의 공간적 구획과 랜드마크 객체(101 내지 105)의 위치 사이의 관계를 형성하도록 특정하게 배열될 수 있다. 특히, 가지 노드 및 잎은 계층적 방식으로 배열될 수 있다. 즉, 가지 노드는 뿌리 노드 또는 또 다른 가지 노드의 "자식"인 것으로 배열될 수 있으며 잎은 가지 노드의 "자식"인 것으로 배열될 수 있다.
도4b는 경계 영역 내에서의 랜드마크 객체(101 내지 105)의 위치뿐만 아니라 경계 영역(110)의 공간 구획을 나타내도록 나무형 구조(150)의 예시 실시예를 도시하고 있다. 나무형 구조(150)는 뿌리 노드(140), 4개의 가지 노드(141 내지 144) 그리고 5개의 랜드마크 객체(101 내지 105)를 포함한다. 뿌리 노드(140), 가지 노드(141 내지 144) 및 5개의 랜드마크 객체(101 내지 105)는 계층적 방식으로 배열된다. 특히, 뿌리 노드(140)는 나무형 구조(150)의 "기부" 또는 "뿌리"로서 배열되고, 가지 노드(141 내지 144)는 뿌리 노드(140)의 "자식"인 것으로 배열되고, 5개의 랜드마크 객체(101 내지 105)는 "잎"인 것으로 배열된다. 5개의 랜드마크 객체(101 내지 105)는 가지 노드(141 내지 144)의 "자식"으로서 추가로 배열된다. 특히, 랜드마크 객체(101)는 가지 노드(142)의 자식인 것으로 배열되고, 랜드마크 객체(103, 102)는 가지 노드(144)의 자식인 것으로 배열되고, 랜드마크 객체(104, 105)는 가지 노드(141)의 자식인 것으로 배열된다.
나무형 구조(150)의 이러한 계층적 배열 구성은 예컨대 네비게이션 시스템에서 유용할 수 있는 데이터 구조를 구성하는 적절한 골격을 제공할 수 있다. 특히, 나무형 구조(150)의 계층적 배열 구성은 생성, 분석 및 조종하기 용이할 수 있다. 나아가, 나무형 구조(150)의 계층적 배열 구성은 그 노드의 랜드마크 객체가 네비게이션의 관찰 프러스텀 외측에 있으면 나무의 가지 노드가 "가지치기"될 수 있는 "신속한 거절" 시험이 수행되게 할 수 있다. 예컨대, 네비게이션 시스템의 사용자가 제1 사분면 Ⅰ 내에 있는 것으로 생각되면, 랜드마크 객체(101)는 사용자의 관찰 프러스텀 내에 있는 것으로 추정될 수 있으며 반면에 랜드마크 객체(102 내지 105)는 사용자의 관찰 프러스텀 외측에 있는 것으로 추정될 수 있다. 이와 같이, 제1 사분면 Ⅰ과 관련된 가지 노드 즉 가지 노드(142)는 "로딩"될 수 있고, 반면에 다른 가지 노드 즉 가지 노드(141, 143, 144)는 "가지치기"될 수 있으며 후속적으로 방문될 필요가 없다. 이와 같이, 나무형 구조(150)의 계층적 배열 구성은 현재의 시야 또는 사용자의 요청의 함수로서 요구에 따른 실제 데이터(랜드마크 객체 또는 Point of Interest POI)의 로딩을 가능하게 할 수 있다.
본 발명의 예시 실시예에서, 나무형 구조(150)의 각각의 노드는 시스템의 지리 영역에 대한 정보를 제공할 수 있다. 특히, 나무형 구조(150)의 각각의 노드는 1개 이상의 "타일"에 의해 세분될 수 있는 "경계 박스"(즉, 경계 영역, 사분면, 하위-사분면 등)와 관련될 수 있다. 타일은 경계 박스 내의 특정 위치에 대한 한 세트의 특징부 및 관련 데이터를 포함하는 논리 유닛이다. 특징부는 예컨대 도로 사인, 빌딩 또는 공중 사진을 포함할 수 있다. 관련 데이터는 타일[예컨대, 빌딩의 다각형의 개수, 각각의 다각형 내의 측면의 개수 및 그 (x, y, z) 좌표 등] 내의 특징부의 설명을 포함할 수 있다.
도5a는 경계 박스와 타일 사이의 "내포" 관계를 설명하고 있다. 도5a는 경계 박스와 타일 사이의 내포 관계를 설명하는 네비게이션 시스템의 2차원 지리 경계 영역의 예시적인 추상도(250)를 도시하고 있다. Bounding Box 1은 전체 시스템의 북쪽, 남쪽, 동쪽 및 서쪽 경계를 한정하고, Bounding Box 1은 1개 이상의 타일 경계 박스를 각각 포함하는 경계 박스(2 내지 6)를 포함하도록 세분된다. 특히, Bounding Box 2는 TILE Bbox 2를 포함하고, Bounding Box 3은 TILE Bbox 3을 포함하고, Bounding Box 4는 TILE Bbox 4를 포함하고, Bounding Box 5는 TILE Bbox 5 및 TILE Bbox 6을 포함하고, Bounding Box 6은 TILE Bbox 7을 포함한다.
도5b는 도5a의 내포 경계 박스 관계를 나타내는 계층적 나무형 구조(260)를 도시하고 있다. 나무형 구조(260)는 특정 경계 박스 1 내지 6과 각각 관련되는 노드 N1 내지 N6을 포함한다. 특히, 노드 N1은 Bounding Box 1과 관련되고, 노드 N2는 Bounding Box 2와 관련되고, 노드 N3은 Bounding Box 3과 관련되고, 노드 N4는 Bounding Box 4와 관련되고, 노드 N5는 Bounding Box 5와 관련되고, 노드 N6은 Bounding Box 6과 관련된다. 노드 N1 내지 N6은 경계 박스 1 내지 6의 내포 관계를 나타내도록 계층적 방식으로 배열된다. 특히, 노드 N1은 네비게이션 시스템의 전체 지리 영역을 포함하는 것으로 관련된 Bounding Box 1을 나타내는 나무형 구조(260)의 기부 또는 뿌리에 있는 것으로 배열된다. 추가로, 노드 N2, N4, N5 및 N6은 관련 경계 박스 2, 4, 5 및 6이 Bounding Box 1 내에 놓인 것을 나타내는 뿌리 노드 N1의 "자식"인 것으로 배열된다. 나아가, 노드 N3은 관련된 경계 박스 3이 경계 박스 2 내에 놓인 것을 나타내는 노드 N2의 자식인 것으로 배열된다.
노드 N1 내지 N6은 각각 관련된 타일 경계 박스 TILE Bbox 1 내지 TILE Bbox 7의 내포 관계를 나타내는 하나 이상의 부착된 TILE1 내지 TILE7을 갖는다. 특히, TILE1은 관련된 TILE Bbox 1이 Bounding Box 1 내에 놓인 것을 나타내는 노드 N1에 부착되고, TILE2는 관련된 TILE Bbox 2가 Bounding Box 2 내에 놓인 것을 나타내는 노드 N2에 부착되고, TILE3은 관련된 TILE Bbox 3이 Bounding Box 3 내에 놓인 것을 나타내는 N3에 부착되고, TILE4는 TILE Bbox 4가 Bounding Box 4 내에 놓인 것을 나타내는 노드 N4에 부착되고, TILE5 및 TILE6은 관련된 TILE Bbox 5 및 TILE Bbox 6이 Bounding Box 5 내에 놓인 것을 나타내는 노드 N5에 부착되고, TILE7은 관련된 TILE Bbox 7이 Bounding Box 6 내에 놓인 것을 나타내는 N6에 부착된다.
타일 즉 타일 데이터에 대한 한 세트의 특징부 및 관련 데이터는 타일의 치수 및/또는 나무형 구조의 부모-자식 관계를 설명하는 데이터로부터 분리된 상태로 유지될 수 있다. 계층적 데이터(메타 데이터)로부터 특징부-관련 데이터(실제 데이터)의 이러한 분리는 성능면에서 전체적인 개선을 제공할 수 있다. 특히, 분리는 사용자의 가시 공간 내에서 빠른 거절/수용을 가능하게 할 수 있다. 예컨대, 북쪽, 남쪽, 동쪽, 서쪽 경계를 한정하는 타일과 관련된 메타 데이터가 4개의 숫자에 의해 특정된 바와 같은 경계 박스를 포함하면, 교차 또는 중첩이 용이하게 결정될 수 있다. 이와 같이, 타일은 포함할 수 있는 각각의 특징부를 조사하지 않고 수용 또는 거절될 수 있다. 따라서, 타일의 특징부는 특징부가 네비게이션의 시계 내부 또는 외부에 있는 것을 결정하기 위해 검사될 필요가 없다. 나아가, 실제 데이터의 변화는 실제 특징부 데이터가 메타 데이터와 독립적이므로 메타 데이터의 인덱싱에 영향을 주지 않을 수 있다.
본 발명의 예시 실시예에서, 메타 데이터 및 실제 데이터의 분리는 2개의 데이터 구조 즉 RIF 및 LOD 파일을 통해 실시될 수 있다.
다음의 표1은 RIF 파일의 예시적인 포맷을 설명하고 있다:
URL 스트링
Dimension {2|3}
Bbox [floats]2*Dimension
Tiles {Tiles, [TileID, Bbox]#Tiles}
Nchildren {#Children, [Bbox, Tiles, Nchildren]*}
표1에 도시된 바와 같이, RIF 파일은 "URL" 필드, "Dimension" 필드, "Bbox" 필드, "Tiles" 필드 및 "Nchildren" 필드를 포함할 수 있다. URL 필드는 로컬 파일 또는 원격 객체일 수 있는 RIF 파일의 위치를 정의하는 스트링이다. Dimension 필드는 2차원 도로 지도를 지시하는 "2" 또는 3차원 도로 지도를 지시하는 "3" 중 하나일 수 있다. Bbox 필드는 관련된 노드에 대한 경계 박스의 각각의 수치에서 상한 및 하한을 정의하는 부동 소수점 숫자의 목록을 포함한다. Tiles 필드는 일련의 튜플에 의해 후속되는 숫자 즉 관련된 노드에 대한 타일의 양을 지시하는 숫자인데, 일련의 튜플은 각각의 타일에 대한 "TileID" 및 Bbox를 포함한다. Nchildren 필드는 일련의 튜플에 의해 후속되는 숫자 즉 관련된 노드와 관련된 자식의 양을 지시하는 숫자인데, 튜플은 각각의 자식의 경계 박스, 관련된 타일 및 자식의 수를 순환적으로 한정하도록 Bbox 필드, Tiles 필드 및 Nchildren 필드를 포함한다.
도6a는 저장 매체 또는 메모리 내의 RIF의 물리적인 레이아웃의 예시도를 도시하고 있다. RIF 파일(300)은 표1에 정의된 바와 같은 구조에 따라 해석될 수 있는 인접한 바이트의 시퀀스로서 저장될 수 있다. 예컨대, URL 필드(301)는 메모리의 초기 부분을 점유하고, Dimension 필드(302)는 메모리의 다음 부분을 점유하고, Bounding Box 필드(303), 다수개의 타일 필드(304), Tile Data TD/Bounding Box 쌍의 시퀀스(305), 그리고 다수개의 자식의 순환 시퀀스, Bounding Box 및 Tile 필드(306)가 후속된다.
도6b는 도5b의 계층적 나무형 구조(260)에 대응하는 RIF 파일의 예시적인 컨텐츠(350)를 도시하고 있다. 구체적으로, 컨텐츠(350)는 RIF 파일이 /bosch/resources/tiles 아래에 위치되고; 네비게이션 시스템의 경계 박스가 2개의 치수로 영역을 지리적으로 설명하고; 뿌리 노드가 Tile Bbox 1과 관련되는 TileID 1을 갖는 하나의 타일(#Tiles=1)을 포함하는 Bounding Box 1과 관련되고; 뿌리 노드가 4명의 자식(#Children=4)을 포함하고; 뿌리 노드의 제1 자식이 Tile Bbox 2와 관련되는 TileID 2를 갖는 하나의 타일(#Tiles=1)을 포함하는 Bounding Box 2와 관련되고; 뿌리 노드의 제1 자식이 Tile Bbox 3과 관련되는 TileID 3을 갖는 1개의 타일(#Tiles=1)을 포함하는 Bounding Box 3과 관련된 1명의 자식(#Children=1)을 포함하고; 뿌리 노드의 제1 자식의 자식이 어떠한 자식도 없고(#Children=0); 뿌리 노드의 제2 자식이 Tile Bbox 4와 관련되는 TileID 4를 갖는 하나의 타일(#Tiles=1)을 포함하는 Bounding Box 4와 관련되고; 뿌리 노드의 제2 자식이 어떠한 자식도 없고(#Children=0); 뿌리 노드의 제3 자식이 각각 Tile Bbox 5 및 Tile Bbox 6과 관련되는 TileID 5 및 TileID 6을 갖는 2개의 타일(#Tiles=2)을 포함하는 Bounding Box 5와 관련되고; 뿌리 노드의 제3 자식이 어떠한 자식도 없고(#Children=0); 뿌리 노드의 제4 자식이 Tile Bbox 7과 관련되는 TileID 7을 갖는 하나의 타일(#Tiles=1)을 포함하는 Bounding Box 6과 관련되고; 뿌리 노드의 제4 자식이 어떠한 자식도 없다(#Children=0)는 것을 특정한다.
LOD 파일은 레벨의 총 개수, 타일의 총 개수 그리고 RIF 파일 내에 참조된 바와 같은 실제 데이터를 한정할 수 있는 다른 데이터에 대한 정보를 저장한다. 다음의 표2는 LOD 파일의 예시적인 포맷을 설명하고 있다:
Nlevels 정수
Ntiles 정수
TileDatas {FilePtr, Level, TileID}*
FeatureDatas {#Features, [FeatureID, FeatureSize, floatsFeatureSize]*}+
표2에 도시된 바와 같이, LOD 파일은 "Nlevels" 필드, "Ntiles" 필드, "TileDatas" 필드 및 "FeatureDatas" 필드를 포함할 수 있다. Nlevels 필드는 계층에서 레벨의 총 개수를 나타내는 정수이다. Ntiles 필드는 계층에서 타일의 총 개수를 나타내는 정수이다. TileDatas 필드는 각각의-타일-데이터의 위치를 저장하는 튜플의 시퀀스인데, 각각의 튜플은 FeatureDatas 필드 내의 저장 위치를 지시하는 파일-포인터 필드, 관련된 타일의 세부 정도의 레벨을 지시하는 세부 정도 레벨 필드 그리고 관련된 타일을 위한 타일 식별자를 포함한다. FeatureDatas 필드는 각각의-특징부-데이터에 의해 후속된 특징부의 개수, 특징부 id를 포함하는 각각의-특징부 데이터, 다수개의 부동 소수점 숫자에 의해 나타낸 바와 같은 특징부 크기 그리고 실제 데이터를 한정하는 어레이이다.
도7a는 저장 매체 또는 메모리 내에서의 LOD의 물리적인 레이아웃의 예시도를 도시하고 있다. LOD 파일(400)은 표2에 정의된 바와 같은 구조에 따라 해석될 수 있는 인접한 바이트의 시퀀스로서 저장될 수 있다. 예컨대, Nlevels 필드(401)는 메모리의 초기 부분을 점유하고, Ntiles 필드(402)는 메모리의 다음 부분을 점유하고, Tile Data TD 및 Feature Data FD가 후속된다. File Data TD는 Feature Data FD 내로 인덱싱되도록 File Pointer 필드[예컨대, FilePtr 필드(403) 및 FilePtr 필드(430)]를 포함하고, 그에 따라 특정 타일과 관련된 특정 특징부로의 더욱 빠른 접근을 가능하게 한다.
도7b는 도5b의 계층적 나무형 구조(260)의 타일 TILE1 내지 TILE7에 대응하는 LOD의 예시적인 컨텐츠(450)를 도시하고 있다. 구체적으로, 컨텐츠(450)는 나무형 데이터 구조가 3개의 레벨(Nlevels=3)을 갖고; 나무형 구조가 총 7개의 타일(Ntile=7)을 포함하고; TileID=1을 갖는 제1 타일이 Level=0에서 일어나 FilePtr1을 통해 제1 특징부 목록 F1로 향하고; TileID=2를 갖는 제2 타일이 Level=1에서 일어나 FilePtr2를 통해 특징부 목록 F2로 향하고; TileID=3을 갖는 제3 타일이 Level=2에서 일어나 FilePtr3을 통해 특징부 목록 F3으로 향하고; TileID=4를 갖는 제4 타일이 Level=1에서 일어나 FilePtr4를 통해 특징부 목록 F4로 향하고; TileID=5를 갖는 제5 타일이 Level=1에서 일어나 FilePtr5를 통해 특징부 목록 F5로 향하고; TileID=6을 갖는 제6 타일이 Level=1에서 일어나 FilePtr7을 통해 특징부 목록 F7로 향하는 것을 특정한다.
RIF 및 LOD 파일의 골격은 개선된 성능을 제공할 수 있다. 효율적인 페이징 기구가 지리-데이터베이스 또는 저장 매체로부터 예컨대 그래픽 메모리 등의 모바일 유닛의 로컬 메모리 리소스로의 데이터의 스와핑 인/아웃을 수행하도록 지원된다. 이와 같이, 네비게이션 시스템에 의해 요구된 계산 복잡성은 최소화될 수 있다. 예컨대, RIF 파일의 나무형 데이터 구조의 횡방향 이동은 O(log N) 계산 단계(여기에서 N은 노드의 개수)만 요구할 수 있으며 실제 데이터의 획득은 데이터 구조와 관련된 타일 데이터가 실제 랜드마크 객체의 정보를 즉시 위치시키도록 파일 포인터를 저장하기 때문에 O(l)만 요구할 수 있다. 예컨대, 전형적인 도시 표현이 6개 레벨의 세부 정도를 갖고서 저장될 수 있는데, 각각의 레벨은 4개의 타일 및 4명의 자식을 갖고, 각각의 타일은 50개의 특징부(예컨대, 빌딩 구조물)를 갖는다. 이와 같이, 이러한 표현은 1365개의 타일(40+41+42+43+44+45=1365) 및 68250개의 특징부(50×1365=68250)를 요구할 수 있다. 그러나, 실제 데이터(즉, 특징부 데이터)의 획득은 6개 레벨의 횡방향 이동 그리고 그 후 약간의 포인터 방향 재설정만 요구할 수 있다.
또한, RIF 및 LOD 파일의 골격은 애플리케이션이 시작될 때 메모리 내로 모든 데이터를 다운로딩할 어떠한 요건도 없을 수 있으며 그에 따라 사용자에 대한 응답 시간을 감소시키기 때문에 빠른 초기화 시간을 제공할 수 있다. 이와 같이, 실제 메모리 사용은 엄청난 시스템 리소스 없이 사용자-가시 영역에 의해 요구된 특징부들만의 저장을 수용하도록 감소될 수 있다. 또한, RIF 및 LOD 파일의 사용은 타일 내의 리소스만 처리할 필요가 있으며 그에 따라 렌더링을 위해 다른 장치로 보내기 전에 데이터를 사전-처리할 필요성을 제거하기 때문에 감소된 사전-처리 요건을 제공할 수 있다. 감소된 데이터 사용은 빠른 처리 시간도 제공할 수 있다. 추가로, RIF 및 LOD 파일의 사용은 네비게이션 시스템의 끼워진 그래픽 프로세서가 제한된 계산/렌더링 파워를 가질 수 있으므로 네비게이션 시스템의 개선된 디스플레이 성능도 제공할 수 있다.
하나의 예시 방법에 따르면, 시스템 초기화 시간에, RIF 파일은 나무형 계층적 포맷으로 런-타임 데이터 구조를 생성하여 네비게이션 시스템의 런-타임 작업 중 메타-데이터에 접근하도록 장면 그래프 매니저에 의해 읽혀진다. RIF 파일은 RIF의 나무형 데이터 구조의 레벨의 개수에 의해 설명된 바와 같은 시스템의 세부 정도의 레벨뿐만 시스템(2 또는 3)의 치수를 설명하는 필드처럼 전체적으로 읽혀지지 않는다. 런-타임 나무형 데이터 구조의 노드는 어떠한 관련된 경계 박스 또는 부착된 타일도 없는 것으로서 구성 및 초기화될 수 있다.
사용자가 시스템을 조종할 때, 런-타임 나무형 데이터 구조 내의 노드는 RIF 파일로부터 적절한 정보를 검색함으로써 필요에 따라 동적으로 추가 및 삭제될 수 있다. 노드가 추가되면, 임의의 부착된 타일에 대응하는 실제 데이터는 LOD 파일로부터 가져올 수 있다. 특히, TileID는 타일 데이터에 인덱스를 제공하며 대응하는 파일 포인터가 특징부 데이터로의 접근을 제공한다. 추가로, 사용자가 상이한 가시 영역으로 이동하여 관찰 프러스텀이 변화된 후, 불필요한 타일 및 특징부 데이터가 제외될 수 있으며 그에 따라 시스템 리소스를 자유롭게 한다.
특징부 데이터가 접근되면, (도3에 도시된) 네비게이션 시스템의 추가의 구성 요소 즉 장면 그래프 렌더링 모듈(60)은 그 기하 형상 그리고 외관 정보를 기초로 하여 장면 그래프 내의 모든 객체를 반복적으로 표시한다. 특정 실시예에 따르면, 객체 기하 형상은 삼각형 또는 다각형 등의 일련의 "원시(primitive)" 요소로 분해될 수 있다. 다음에, 이들 요소는 당업계에 공지된 바와 같은 3차원 그래픽 알고리즘의 라이브러리가 구비된 그래픽 엔진을 사용하여 렌더링될 수 있다. 그래픽 엔진은 등록 상표 Microsoft Windows 2000, NT, MacOS 9 및 리눅스 등의 운영 시스템과 더불어 포함된 OpenGL(Open Graphics Library) 등의 소프트웨어 라이브러리를 사용하여 실시될 수 있다. 대신에, 그래픽 렌더링 모듈(60)의 그래픽 엔진은 다양한 제조업자로부터 그래픽 카드의 형태로 구매 가능한 3D 가속 하드웨어를 사용하여 실시될 수 있다.
또한, 장면 그래프 렌더링 모듈은 본 발명의 또 다른 태양 즉 로컬 메모리 내에서의 화상의 상주 그리고 화상을 렌더링하는 데 사용된 계산 리소스의 양을 최소화하는 것을 보조하는 다중 해상도 화상 합성의 사용을 실시할 수 있다. 추가로, 다중 해상도 합성은 관찰자가 시계의 일부를 향해 이동하거나 시계의 일부를 줌 인함에 따라 거친 해상도 텍스쳐 화상으로부터 미세한 해상도 텍스쳐 화상으로 갈 때 인지된 해상도 점프를 최소화함으로써 시각화를 개선한다.
도8a 내지 도8d는 다양한 공간 해상도에서 해안 지방의 계조 화상 공중 텍스쳐 시야를 사용하여 조합된 다중 해상도 화상을 도시하고 있다. 도8a는 2개의 숫자 마킹('01)으로써 식별된 거친 해상도 화상 그리고 4개의 숫자 마킹('0131)으로써 식별된 더욱 높은 해상도 화상의 텍스쳐 조합을 도시하고 있다. 도시된 바와 같이, 더욱 높은 해상도 화상('0131)에 대한 식별은 더욱 거친 화상에 대한 대응하는('01) 식별보다 훨씬 작게 보이는데, 이는 미세한 해상도 화상이 거친 화상보다 작은 면적에 부속되며 거친 화상 면적의 작은 부분만 점유한다는 것을 지시한다.
관찰자가 줌 인(도8b에 도시됨)하면서 해안선의 작은 영역을 관찰할 때, 거친 화상은 점차로 사라지며 높은 레벨의 화상은 마킹 '0313이 커지며 급격하게 초점이 맞는 상태로 시계를 완전히 덮는다. 추가로 줌 인함에 따라, 도8c에 도시된 바와 같이, '0131 마킹은 점차로 사라지고, 반면에 다음의 높은 해상도 레벨에 대한 마킹('013131)이 도로(601a, 601b) 등의 영역의 세부 특징부와 더불어 점차로 출현하는 것으로 도시되어 있다. 도8d는 마킹 '013131이 시계를 지배하는 최고 해상도(가장 미세한 세부 정도) 텍스쳐를 도시하고 있다. 이러한 방식으로, 높은 해상도 화상은 점차로 초점 맞는 상태로 오며 반면에 거친 화상은 사라지고, 그에 따라 사실적으로 보이는 매끄러운 전이를 성취한다.
도9는 본 발명의 네비게이션 시스템에 의해 수행된 다중 해상도 화상 합성을 위한 방법의 실시예의 플로 다이어그램이다. 우선, 시스템은 관찰자의 위치, 주시 방향 그리고 가능하면 전술된 바와 같은 관점 제어 및 위치 계산 모듈을 사용하여 최종 디스플레이에 영향을 주는 다른 계산 제한을 포함하는 관찰자 관찰 파라미터를 결정한다(701). 다음에, 관찰자의 시계에 대응하는 관찰 프러스텀은 방위 그리고 관찰자가 관찰할 수 있는 공간을 함께 한정하는 관찰자의 위치로부터 결정된다(702). 전술된 바와 같이, 관찰 프러스텀을 기초로 하여, 장면 그래프 매니저는 가시 상태의 화상 타일을 식별하고(703), 장면 그래프를 발생시키고, 관찰 프러스텀의 외측에 있는 타일을 제외한다.
각각의 타일이 저장되는 데이터 세트의 계층적 성질로 인해, 관찰 프러스텀 또는 지리 영역(2차원 경계 박스) 내의 가시 상태의 타일은 거친 수준으로부터 미세한 수준까지 상이한 해상도의 다중 버전의 화상을 포함할 수 있다. 화상 데이터베이스로부터 경계 박스와 관련된 타일의 그룹을 사전에 로딩함으로써, 장면 그래프 매니저는 조합 목적을 위해 다양하며 상이한 해상도의 화상을 사용 가능한 상태로 유지한다. 용이한 접근을 위해 로컬 메모리 내에서 이러한 제한된 화상의 그룹을 사용 가능한 상태로 유지하는 것은 경계 박스와 관련되지 않은 저장된 화상의 더 큰 세트가 다운로딩되지 않으며 메모리 또는 계산 리소스를 소비하지 않기 때문에 로컬 메모리 리소스를 과도하게 확장시키지 않는다.
다음에, 조합 인자는 각각의 화상 타일에 대한 해상도 레벨 및 거리를 기초로 하여 전달 함수를 적용함으로써 결정되는데(704), 이는 최종의 조합된 화상에 대한 경계 박스 내의 각각의 화상 타일의 기여를 성립시킨다. 각각의 해상도 레벨에 대한 조합 인자의 결정의 설명예가 후속된다. 관심 있는 지리 지점에 대한 계층적 객체 데이터 구조가 특정 객체(또는 특정 지리 영역)에 대한 3개의 텍스쳐 해상도 레벨을 포함하는데, 여기에서 레벨 0은 가장 거친 레벨이고, 레벨 1은 중간 해상도 레벨을 나타내고, 레벨 2는 최고 해상도 레벨을 나타낸다.
거리의 함수로서 각각의 3개의 해상도 레벨을 위해 사용되는 조합 인자의 그래프가 도10에 도시되어 있다. 관찰된 객체로부터 큰 거리(z0)에서, 해상도 레벨 0에 대한 조합 인자는 최대이며 반면에 레벨 1 및 레벨 2에 대한 조합 인자는 0인데, 이는 레벨 0의 텍스쳐만 관찰된 화상을 렌더링하는 데 사용된다는 것을 지시한다. 관찰자가 거리 z0으로부터 거리 z1로 객체/영역으로 더 근접하게 이동함에 따라, 해상도 레벨 0에 대한 조합 인자는 감소되며 해상도 레벨 1에 대한 조합 인자는 점차로 증가되고, 관찰된 화상 내로 조합된다. 관찰자가 더욱 더 근접한 거리 z2를 향해 이동함에 따라, 해상도 레벨 2에 대한 조합 인자는 최대 수준을 향해 점차로 증가되고, 해상도 레벨 1에 대한 조합 인자는 z1과 z2 사이의 어떤 거리에서 최대 수준에 도달한 후 점차로 감소되고, 해상도 레벨 0에 대한 조합 인자는 0까지 감소된다. 도시된 바와 같이, 3개의 상이한 해상도 레벨에 대한 각각의 조합 인자에서의 점차적인 변화는 모든 레벨의 해상도에 걸쳐 모든 거리에서 연속의 해상도를 제공한다.
각각의 레벨에 대한 조합 인자를 사용하여 텍스쳐 및 화상을 렌더링하기 위해, 각각의 그래픽 영역은 그 각각의 조합 인자를 갖는 각각의 해상도 레벨에 대해 1회씩 다중 패스로 렌더링된다. 이로 인한 조합은 해상도 레벨에 대한 조합 인자 b(x)에 의해 승산된 해상도 레벨 (x)에 대한 화소 p(i, x)의 합 p(i)로서 각각의 위치 (i)에서 계산된다(705). n 레벨의 해상도에 대해, 계산은 다음과 같다:
p(i)=b(0)*p(i, 0)+b(1)*p(i, 1)+...+b(n)*p(i, n)
조합된 다중 해상도 화상의 발생은 사진, 도로 지도 및 위상 화상으로부터 얻어진 사실적인 텍스쳐를 갖는 3차원 시뮬레이션을 제공하며 종래의 시각 네비게이션 시스템에서 보여진 인공적인 다각형 근사법에 의존하지 않는다. 추가로, 다중 패스 렌더링은 거친 수준으로부터 미세한 수준으로 갈 때 고도의 세부 물체의 갑작스러운 출현에 의해 유발된 혼란스러운 시각 효과를 최소화한다. 나아가, 이러한 방법은 전술된 텍스쳐 화상을 저장하도록 계층적 포맷과 연관하여 효율적으로 수행될 수 있다. 특히, 최초의 위성/도로 지도 화상을 타일들로 분열시킨 다음에 텍스쳐 타일이 관찰 프러스텀 내에서 사용자에게 보이는지의 여부에 따라 요구에 따라 이들을 로딩함으로써 엄청난 계산 리소스 없이 화상 세부 물체의 동적 합성을 제공하는 것이 가능하다.
전술된 설명에서, 본 발명의 방법 및 시스템은 제한적인 것으로 간주되지 않는 다수개의 예를 참조하여 설명되었다. 오히려, 여기에 개시된 방법 및 장치의 원리의 변형은 당업자에 의해 행해질 수 있다는 것이 이해 및 예측될 것이고, 이러한 변형, 변화 및/또는 치환은 첨부된 청구의 범위 내에 기재된 바와 같은 본 발명의 범주 내에 포함되게 하고자 한다.

Claims (22)

  1. 모바일 유닛을 위한 3차원 시각 네비게이션을 제공하는 시스템에 있어서,
    모바일 유닛의 순간 위치를 계산하는 위치 계산 유닛과;
    모바일 유닛의 위치를 기초로 하여 관찰 프러스텀을 결정하는 관점 제어 유닛과;
    적어도 1개의 지리-데이터베이스와 통신 상태에 있고, 적어도 1개의 지리-데이터베이스로부터 관찰 프러스텀과 관련된 지리 객체 데이터를 얻으며 얻어진 지리 객체 데이터를 조직화하는 장면 그래프를 발생시키는 장면 그래프 매니저와;
    실시간으로 3차원 묘사로서 장면 그래프를 그래픽 렌더링하는 장면 그래프 렌더러를 포함하는 것을 특징으로 하는 시스템.
  2. 제1항에 있어서, 위치 계산 유닛은 모바일 유닛의 순간 방위를 추가로 계산하는 것을 특징으로 하는 시스템.
  3. 제2항에 있어서, 선택된 경로와 관련된 정보를 포함하고, 관점 제어 유닛이 경로 정보를 기초로 관찰 프러스텀을 미리보기 작업 모드에서 변형시킬 수 있도록 관점 제어 유닛에 경로 정보를 제공하는 경로 계산 유닛을 추가로 갖는 것을 특징으로 하는 시스템.
  4. 제2항에 있어서, 위치 센서와; 방위 센서를 추가로 포함하고, 위치 계산 유닛은 위치 센서 및 방위 센서에서 발생된 신호를 기초로 하여 모바일 유닛의 위치 및 방위를 계산하는 것을 특징으로 하는 시스템.
  5. 제4항에 있어서, 위치 센서는 GPS 수신기를 포함하는 것을 특징으로 하는 시스템.
  6. 제5항에 있어서, 위치 센서는 관성 센서 장치를 포함하는 것을 특징으로 하는 시스템.
  7. 제2항에 있어서, 관점 제어 유닛의 작동을 변경하도록 관점 제어 유닛에 사용자 선택을 제공하는 사용자 입력 모듈을 추가로 포함하는 것을 특징으로 하는 시스템.
  8. 제7항에 있어서, 관점 제어 유닛은 다음의 선택 가능한 관찰 모드 즉 (a) 헬리콥터 시야와; (b) 관점 위치가 모바일 유닛의 위치와 부합하는 모드와; (c) 관점 위치 및 방위가 모바일 유닛의 위치 및 방위와 부합하는 모드 중 하나에 따라 관찰 프러스텀을 결정하는 것을 특징으로 하는 시스템.
  9. 제1항에 있어서, 장면 그래프는 디지털 도로 지도, 위성 화상, 디지털 표고 모델 중 적어도 1개를 포함하는 것을 특징으로 하는 시스템.
  10. 제9항에 있어서, 장면 그래프는 복수개의 해상도의 위성 화상을 포함하는 것을 특징으로 하는 시스템.
  11. 제1항에 있어서, 장면 그래프 매니저는 지리 객체 데이터의 요구형 로딩을 위한 계층적 방법을 사용하고, 계층적 방법은 소정 관찰 프러스텀에 관한 지리 객체 데이터에 효율적으로 접근하도록 한정된 데이터 구조를 채용하는 것을 특징으로 하는 시스템.
  12. 모바일 유닛의 시각 네비게이션 시스템에 지리 객체 데이터를 제공하는 시스템에 있어서,
    지리 영역의 실시간 시각 네비게이션을 가능하게 하도록 지리 객체 데이터를 저장하는 적어도 1개의 특화된 지리-데이터베이스와;
    모바일 유닛과 통신하며 적어도 1개의 지리-데이터베이스 내의 저장된 데이터로의 접근을 제공하는 전송 모듈을 포함하는 것을 특징으로 하는 시스템.
  13. 제12항에 있어서, 적어도 1개의 특화된 지리 데이터베이스는 위상 화상, 빌딩 텍스쳐, 디지털 표고 모델 및 도로 지도 데이터베이스 중 적어도 1개를 저장하는 것을 특징으로 하는 시스템.
  14. 모바일 유닛을 위한 3차원 시각 네비게이션을 제공하는 시스템에 있어서,
    모바일 유닛의 순간 위치를 계산하는 위치 계산 유닛과;
    모바일 유닛의 위치를 기초로 하여 관찰 프러스텀을 결정하는 관점 제어 유닛과;
    적어도 1개의 지리-데이터베이스와;
    적어도 1개의 지리-데이터베이스와 통신 상태에 있고, 적어도 1개의 지리-데이터베이스로부터 관찰 프러스텀과 관련된 지리 객체 데이터를 얻으며 얻어진 지리 객체 데이터를 조직화하는 장면 그래프를 발생시키는 장면 그래프 매니저와;
    실시간으로 3차원 묘사로서 장면 그래프를 그래픽 렌더링하는 장면 그래프 렌더러를 포함하는 것을 특징으로 하는 시스템.
  15. 제14항에 있어서, 장면 그래프 매니저는 적어도 1개의 지리-데이터베이스로부터의 지리 객체 데이터의 요구형 로딩을 위한 계층적 방법을 사용하고, 계층적 방법은 소정 관찰 프러스텀에 관한 지리 객체 데이터에 효율적으로 접근하도록 한정된 데이터 구조를 채용하는 것을 특징으로 하는 시스템.
  16. 제14항에 있어서, 선택된 경로와 관련된 정보를 포함하고, 관점 제어 유닛이 경로 정보를 기초로 관찰 프러스텀을 미리보기 작업 모드에서 변형시킬 수 있도록 관점 제어 유닛에 경로 정보를 제공하는 경로 계산 유닛을 추가로 갖는 것을 특징으로 하는 시스템.
  17. 모바일 유닛에서의 3차원 시각 네비게이션의 방법에 있어서,
    모바일 유닛의 순간 위치를 계산하는 단계와;
    모바일 유닛의 위치를 기초로 하여 관찰 프러스텀을 결정하는 단계와;
    적어도 1개의 지리-데이터베이스와 관련된 지리 객체 데이터를 얻는 단계와;
    얻어진 지리 객체 데이터를 조직화하는 장면 그래프를 발생시키는 단계와;
    실시간으로 3차원 묘사로서 장면 그래프를 그래픽 렌더링하는 단계를 포함하는 것을 특징으로 하는 방법.
  18. 제17항에 있어서, 이동 경로를 선택하는 단계와; 이동 경로에 대응하는 경로 정보를 사용하여 관찰 프러스텀을 변형시키는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
  19. 제17항에 있어서, 모바일 유닛의 순간 방위를 계산하는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
  20. 제19항에 있어서, 사용자 입력을 기초로 하여 관찰 프러스텀을 변형시키는 단계를 추가로 포함하는 것을 특징으로 하는 방법.
  21. 제19항에 있어서, 결정된 관찰 프러스텀에 관한 지리 객체 데이터에 효율적으로 접근하도록 데이터 구조를 한정하는 것을 특징으로 하는 방법.
  22. 제19항에 있어서, 장면 그래프는 디지털 도로 지도, 위성 화상 및 디지털 표고 모델 중 적어도 1개를 포함하는 것을 특징으로 하는 방법.
KR1020057012242A 2002-12-31 2003-11-20 모바일 네비게이션 유닛을 위한 진보된 3d 비주얼화를 위한 시스템 및 방법 KR101013633B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/334,772 2002-12-31
US10/334,772 US6885939B2 (en) 2002-12-31 2002-12-31 System and method for advanced 3D visualization for mobile navigation units

Publications (2)

Publication Number Publication Date
KR20050085926A true KR20050085926A (ko) 2005-08-29
KR101013633B1 KR101013633B1 (ko) 2011-02-11

Family

ID=32655165

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020057012242A KR101013633B1 (ko) 2002-12-31 2003-11-20 모바일 네비게이션 유닛을 위한 진보된 3d 비주얼화를 위한 시스템 및 방법

Country Status (6)

Country Link
US (1) US6885939B2 (ko)
EP (1) EP1581782B1 (ko)
JP (1) JP4338645B2 (ko)
KR (1) KR101013633B1 (ko)
ES (1) ES2391452T3 (ko)
WO (1) WO2004059256A1 (ko)

Families Citing this family (114)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7135961B1 (en) * 2000-09-29 2006-11-14 International Business Machines Corporation Method and system for providing directions for driving
US7930434B2 (en) * 2003-03-05 2011-04-19 Microsoft Corporation System and method for managing communication and/or storage of image data
US7075535B2 (en) * 2003-03-05 2006-07-11 Sand Codex System and method for exact rendering in a zooming user interface
US7254271B2 (en) * 2003-03-05 2007-08-07 Seadragon Software, Inc. Method for encoding and serving geospatial or other vector data as images
US7912299B2 (en) * 2004-10-08 2011-03-22 Microsoft Corporation System and method for efficiently encoding data
US7546419B2 (en) * 2004-06-01 2009-06-09 Aguera Y Arcas Blaise Efficient data cache
US7042455B2 (en) * 2003-05-30 2006-05-09 Sand Codex Llc System and method for multiple node display
US7133054B2 (en) * 2004-03-17 2006-11-07 Seadragon Software, Inc. Methods and apparatus for navigating an image
KR100703444B1 (ko) * 2003-06-03 2007-04-03 삼성전자주식회사 네비게이션 시스템에서 위치 정보에 관련된 영상의 다운로드 및 표시 장치 및 방법
US7725256B2 (en) * 2003-07-29 2010-05-25 The University Of North Dakota Weather Information Network Enabled Mobile System (WINEMS)
US7616220B2 (en) * 2003-12-23 2009-11-10 Intel Corporation Spatio-temporal generation of motion blur
US7155336B2 (en) 2004-03-24 2006-12-26 A9.Com, Inc. System and method for automatically collecting images of objects at geographic locations and displaying same in online directories
CA2559726C (en) 2004-03-24 2015-10-20 A9.Com, Inc. System and method for displaying images in an online directory
DE102004038740A1 (de) * 2004-08-10 2006-02-23 Robert Bosch Gmbh Verfahren zur Darstellung von Karteninformationen
US8195386B2 (en) * 2004-09-28 2012-06-05 National University Corporation Kumamoto University Movable-body navigation information display method and movable-body navigation information display unit
JP4831071B2 (ja) * 2004-10-15 2011-12-07 マイクロソフト コーポレーション イメージ・データの通信および/または格納を管理するシステムおよび方法
FR2877751B1 (fr) * 2004-11-09 2012-11-16 Patrick Mazeri Moteur de recherche et de navigation 3d dans un paysage p par strate 2d sur bases de donnees d'intervenants i appartenant a un paysage p
US20060235941A1 (en) * 2005-03-29 2006-10-19 Microsoft Corporation System and method for transferring web page data
US7728869B2 (en) * 2005-06-14 2010-06-01 Lg Electronics Inc. Matching camera-photographed image with map data in portable terminal and travel route guidance method
JP4783603B2 (ja) * 2005-08-26 2011-09-28 株式会社デンソー 地図表示装置、地図表示方法、地図表示プログラム、及びそのプログラムを記録した記録媒体
JP2007133489A (ja) * 2005-11-08 2007-05-31 Sony Corp 仮想空間画像表示方法、装置、仮想空間画像表示プログラム及び記録媒体
US20080046175A1 (en) * 2006-07-31 2008-02-21 Nissan Technical Center North America, Inc. Vehicle navigation system
US8453060B2 (en) * 2006-08-25 2013-05-28 Microsoft Corporation Panoramic ring user interface
ES2345995T3 (es) * 2006-09-15 2010-10-07 Saab Ab Dispositivo de simulacion y procedimiento de simulacion de a bordo.
DE102006045887B4 (de) * 2006-09-28 2011-02-10 Siemens Ag Verfahren zur Bereitstellung von kodierten Geobilddaten
US8487957B1 (en) * 2007-05-29 2013-07-16 Google Inc. Displaying and navigating within photo placemarks in a geographic information system, and applications thereof
DE102007030226A1 (de) * 2007-06-29 2009-01-08 Robert Bosch Gmbh Kameragestütztes Navigationssystem und Verfahren zu seinem Betrieb
IL184972A0 (en) * 2007-08-01 2008-11-03 Camero Tech Ltd System and method for volume visualization in through-the-obstacle imaging system
US8326048B2 (en) * 2007-10-04 2012-12-04 Microsoft Corporation Geo-relevance for images
US8468117B1 (en) * 2008-01-22 2013-06-18 Salesforce.Com, Inc. System, method and computer program product for creating a visual component for tenants of an on-demand database service
US8250454B2 (en) * 2008-04-03 2012-08-21 Microsoft Corporation Client-side composing/weighting of ads
US8359157B2 (en) * 2008-04-07 2013-01-22 Microsoft Corporation Computing navigation device with enhanced route directions view
US7921114B2 (en) * 2008-04-10 2011-04-05 Microsoft Corporation Capturing and combining media data and geodata in a composite file
US20090289937A1 (en) * 2008-05-22 2009-11-26 Microsoft Corporation Multi-scale navigational visualtization
US20090319940A1 (en) * 2008-06-20 2009-12-24 Microsoft Corporation Network of trust as married to multi-scale
US8682736B2 (en) * 2008-06-24 2014-03-25 Microsoft Corporation Collection represents combined intent
WO2010015031A1 (en) * 2008-08-07 2010-02-11 James Kell Pty Limited Displaying representations of a building
US8612485B2 (en) * 2008-08-11 2013-12-17 Sony Corporation Deferred 3-D scenegraph processing
US8849477B2 (en) * 2008-10-14 2014-09-30 Honeywell International Inc. Avionics display system and method for generating three dimensional display including error-compensated airspace
US8065082B2 (en) * 2008-11-14 2011-11-22 Honeywell International Inc. Display systems with enhanced symbology
US20100138294A1 (en) * 2008-12-03 2010-06-03 Microsoft Corporation Provision of location-based advertising
EP2359325A1 (en) * 2008-12-19 2011-08-24 Tele Atlas B.V. Dynamically mapping images on objects in a navigation system
US8294766B2 (en) * 2009-01-28 2012-10-23 Apple Inc. Generating a three-dimensional model using a portable electronic device recording
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
WO2012170946A2 (en) 2011-06-10 2012-12-13 Flir Systems, Inc. Low power and small form factor infrared imaging
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
EP2236985A1 (fr) * 2009-03-31 2010-10-06 France Telecom Gestion de données dans un système d'informations géographiques
US8362925B2 (en) * 2009-05-05 2013-01-29 Honeywell International Inc. Avionics display system and method for generating flight information pertaining to neighboring aircraft
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US8558847B2 (en) * 2009-07-13 2013-10-15 Raytheon Company Displaying situational information based on geospatial data
DE102009037835B4 (de) * 2009-08-18 2012-12-06 Metaio Gmbh Verfahren zur Darstellung von virtueller Information in einer realen Umgebung
US8532924B2 (en) * 2009-09-02 2013-09-10 Alpine Electronics, Inc. Method and apparatus for displaying three-dimensional terrain and route guidance
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US20110279446A1 (en) 2010-05-16 2011-11-17 Nokia Corporation Method and apparatus for rendering a perspective view of objects and content related thereto for location-based services on mobile device
US20110279453A1 (en) * 2010-05-16 2011-11-17 Nokia Corporation Method and apparatus for rendering a location-based user interface
US20120311474A1 (en) * 2011-06-02 2012-12-06 Microsoft Corporation Map-based methods of visualizing relational databases
KR101778353B1 (ko) 2011-06-10 2017-09-13 플리어 시스템즈, 인크. 적외선 이미징 장치용 불균일성 교정 기술
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
WO2012170954A2 (en) 2011-06-10 2012-12-13 Flir Systems, Inc. Line based image processing and flexible memory system
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US9639857B2 (en) 2011-09-30 2017-05-02 Nokia Technologies Oy Method and apparatus for associating commenting information with one or more objects
EP2581268B2 (en) * 2011-10-13 2019-09-11 Harman Becker Automotive Systems GmbH Method of controlling an optical output device for displaying a vehicle surround view and vehicle surround view system
US8525088B1 (en) * 2012-03-21 2013-09-03 Rosemont Aerospace, Inc. View-point guided weapon system and target designation method
US10156455B2 (en) 2012-06-05 2018-12-18 Apple Inc. Context-aware voice guidance
US9269178B2 (en) * 2012-06-05 2016-02-23 Apple Inc. Virtual camera for 3D maps
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
KR101374654B1 (ko) 2012-10-08 2014-03-17 팅크웨어(주) 항공사진 기반의 내비게이션 서비스를 위한 영상 처리 시스템 및 방법
JP6064544B2 (ja) * 2012-11-27 2017-01-25 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び端末装置
EP2936443A1 (en) 2012-12-21 2015-10-28 Metaio GmbH Method for representing virtual information in a real environment
US9091628B2 (en) 2012-12-21 2015-07-28 L-3 Communications Security And Detection Systems, Inc. 3D mapping with two orthogonal imaging views
KR101459636B1 (ko) * 2013-04-08 2014-11-07 현대엠엔소프트 주식회사 네비게이션 장치의 지도 표시방법 및 네비게이션 장치
US9002637B2 (en) * 2013-04-16 2015-04-07 The Boeing Company Systems and methods for generating a navigation chart
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor
CN105021205A (zh) * 2014-04-28 2015-11-04 高德软件有限公司 导航预览方法、相关设备和导航预览系统
CN110832348B (zh) 2016-12-30 2023-08-15 辉达公司 用于自主车辆的高清晰度地图的点云数据丰富
US10404277B2 (en) * 2017-07-07 2019-09-03 iDensify LLC Compression and decompression engines and compressed domain processors
US10901119B2 (en) * 2018-03-28 2021-01-26 Robert Bosch Gmbh Method and system for efficient rendering of accumulated precipitation for weather effects
US10876844B2 (en) 2018-12-26 2020-12-29 Beijing Voyager Technology Co., Ltd. Systems and methods for loading and tracking maps on a vehicle
CN114072784A (zh) * 2018-12-26 2022-02-18 北京航迹科技有限公司 用于在车辆上加载物体几何数据的系统和方法
US20200209005A1 (en) * 2018-12-26 2020-07-02 Didi Research America, Llc Systems and methods for loading object geometry data on a vehicle
US10783714B2 (en) 2019-01-29 2020-09-22 Verizon Patent And Licensing Inc. Methods and systems for automatically tailoring a form of an extended reality overlay object
US11604800B1 (en) * 2021-07-28 2023-03-14 International Business Machines Corporation Generating a visualization of data points returned in response to a query based on attributes of a display device and display screen to render the visualization
US20230083822A1 (en) * 2021-09-16 2023-03-16 International Business Machines Corporation Optimized rendering of web pages

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5144685A (en) 1989-03-31 1992-09-01 Honeywell Inc. Landmark recognition for autonomous mobile robots
US6199015B1 (en) * 1996-10-10 2001-03-06 Ames Maps, L.L.C. Map-based navigation system with overlays
US6480194B1 (en) * 1996-11-12 2002-11-12 Silicon Graphics, Inc. Computer-related method, system, and program product for controlling data visualization in external dimension(s)
US5995903A (en) 1996-11-12 1999-11-30 Smith; Eric L. Method and system for assisting navigation using rendered terrain imagery
WO1998033151A1 (fr) * 1997-01-24 1998-07-30 Sony Corporation Dispositif, procede et support permettant de generer des donnees graphiques
WO1998033146A1 (fr) * 1997-01-24 1998-07-30 Sony Corporation Generateur de donnees de formes, procede de generation de donnees de formes et moyens associes
KR100362817B1 (ko) * 1997-10-27 2002-11-30 마쯔시다덴기산교 가부시키가이샤 삼차원 지도 표시장치, 그것에 사용되는 모델 변형용 데이터, 삼차원 다각형 데이터 또는 삼차원 이미지 데이터 작성장치, 그의 데이터에 기초하여 표시를 실행하는 네비게이션 장치, 삼차원 지도 표시방법, 및 모델 변형용 데이터를 기억한 매체
US6199014B1 (en) * 1997-12-23 2001-03-06 Walker Digital, Llc System for providing driving directions with visual cues
AUPP152098A0 (en) 1998-01-28 1998-02-19 Joyce Russ Advertising Pty Ltd Navigational apparatus using visual description of the route
US6278479B1 (en) 1998-02-24 2001-08-21 Wilson, Hewitt & Associates, Inc. Dual reality system
US6285317B1 (en) * 1998-05-01 2001-09-04 Lucent Technologies Inc. Navigation system with three-dimensional display
US6356840B2 (en) * 1998-06-12 2002-03-12 Mitsubishi Denki Kabushiki Kaisha Navigation device with a three dimensional display
US20020047798A1 (en) * 1999-06-25 2002-04-25 Timothy James Platt Image acquisition and retrieval system employing position data
US6453238B1 (en) * 1999-09-16 2002-09-17 Sirf Technology, Inc. Navigation system and method for tracking the position of an object
EP1111532A1 (en) * 1999-12-20 2001-06-27 TELEFONAKTIEBOLAGET LM ERICSSON (publ) Method for transporting physical objects, transportation system and transportation means
AU2001239926A1 (en) * 2000-02-25 2001-09-03 The Research Foundation Of State University Of New York Apparatus and method for volume processing and rendering
US6489922B1 (en) * 2000-04-22 2002-12-03 American Gnc Corporation Passive/ranging/tracking processing method for collision avoidance guidance and control
DE10036023A1 (de) 2000-07-22 2002-01-31 Fahrradfabrik Hans Schauff Visuelles Navigationssystem
US6903707B2 (en) * 2000-08-09 2005-06-07 Information Decision Technologies, Llc Method for using a motorized camera mount for tracking in augmented reality
DE50014953D1 (de) * 2000-08-24 2008-03-20 Siemens Vdo Automotive Ag Verfahren und Navigationsgerät zum Abfragen von Zielinformation und zum Navigieren in einer Kartenansicht
JP2002107161A (ja) * 2000-10-03 2002-04-10 Matsushita Electric Ind Co Ltd 移動体用進路誘導装置
SE519884C2 (sv) * 2001-02-02 2003-04-22 Scalado Ab Metod för zoomning och för att framställa en zoomningsbar bild
TWI246665B (en) * 2001-07-12 2006-01-01 Ding-Jang Tzeng Method for aiding the driving safety of road vehicle by monocular computer vision
KR100453225B1 (ko) * 2001-12-26 2004-10-15 한국전자통신연구원 3차원 가상 현실 구현을 위한 클라이언트 시스템과 이를이용한 가상 현실 구현 방법
US20030135327A1 (en) * 2002-01-11 2003-07-17 Seymour Levine Low cost inertial navigator
US6831641B2 (en) * 2002-06-17 2004-12-14 Mitsubishi Electric Research Labs, Inc. Modeling and rendering of surface reflectance fields of 3D objects
GB2392072B (en) * 2002-08-14 2005-10-19 Autodesk Canada Inc Generating Image Data

Also Published As

Publication number Publication date
JP2006513407A (ja) 2006-04-20
ES2391452T3 (es) 2012-11-26
EP1581782A1 (en) 2005-10-05
JP4338645B2 (ja) 2009-10-07
US20040128070A1 (en) 2004-07-01
EP1581782B1 (en) 2012-10-03
US6885939B2 (en) 2005-04-26
WO2004059256A1 (en) 2004-07-15
KR101013633B1 (ko) 2011-02-11

Similar Documents

Publication Publication Date Title
KR101013633B1 (ko) 모바일 네비게이션 유닛을 위한 진보된 3d 비주얼화를 위한 시스템 및 방법
US7305396B2 (en) Hierarchical system and method for on-demand loading of data in a navigation system
KR102360660B1 (ko) 맵 데이터 처리 방법, 컴퓨터 디바이스 및 저장 매체
US9858717B2 (en) System and method for producing multi-angle views of an object-of-interest from images in an image dataset
AU2010218137B2 (en) System and method of indicating transition between street level images
EP2689213B1 (en) Management of icons for digital maps
US7551172B2 (en) Sending three-dimensional images over a network
KR101799945B1 (ko) 3차원 지도 묘화 시스템, 지물 데이터 생성 방법, 3차원 지도 묘화 방법 및 컴퓨터 판독가능한 기록 매체
EP2643821B1 (en) Path planning for street level navigation in a three-dimensional environment, and applications thereof
US20090289937A1 (en) Multi-scale navigational visualtization
US8532924B2 (en) Method and apparatus for displaying three-dimensional terrain and route guidance
US20130325903A1 (en) System and Method for Storing and Retrieving Geospatial Data
US20080294332A1 (en) Method for Image Based Navigation Route Corridor For 3D View on Mobile Platforms for Mobile Users
JP4511825B2 (ja) 複数のイメージからマルチ分解能イメージを生成する方法
EP2518443A1 (en) Method of generating a database, navigation device and method of determining height information
EP2589933B1 (en) Navigation device, method of predicting a visibility of a triangular face in an electronic map view
KR20150132178A (ko) 3차원 지도 표시 장치
JP4640011B2 (ja) 画像処理装置、遠景画像表示方法および遠景画像表示プログラム
CN111226095A (zh) 数字地图的动态重新样式化
Čypas et al. Preparation of 3D digital city model development technology based on geoinformation systems
KR20220146064A (ko) 사용자 맞춤형 전자지도 정보 제공 시스템
WO2007018329A1 (en) Sytem and method for 3d graphic acceleration in synthesis cdma environment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140121

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150129

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160125

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170126

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180126

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190122

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20200128

Year of fee payment: 10