KR101415402B1 - 네비게이션 정보를 제시하기 위해 3차원 맵 객체를 변환하는 방법 및 장치 - Google Patents

네비게이션 정보를 제시하기 위해 3차원 맵 객체를 변환하는 방법 및 장치 Download PDF

Info

Publication number
KR101415402B1
KR101415402B1 KR1020127017109A KR20127017109A KR101415402B1 KR 101415402 B1 KR101415402 B1 KR 101415402B1 KR 1020127017109 A KR1020127017109 A KR 1020127017109A KR 20127017109 A KR20127017109 A KR 20127017109A KR 101415402 B1 KR101415402 B1 KR 101415402B1
Authority
KR
South Korea
Prior art keywords
map object
map
transforming
user
information
Prior art date
Application number
KR1020127017109A
Other languages
English (en)
Other versions
KR20120098858A (ko
Inventor
주하 아라스브오리
Original Assignee
노키아 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 노키아 코포레이션 filed Critical 노키아 코포레이션
Publication of KR20120098858A publication Critical patent/KR20120098858A/ko
Application granted granted Critical
Publication of KR101415402B1 publication Critical patent/KR101415402B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3644Landmark guidance, e.g. using POIs or conspicuous other objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3682Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities output of POI information on a road map

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Instructional Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

사용자에게 네비게이션 정보를 제시하기 위한 접근법이 제공된다. 하나 이상의 3차원 맵 객체를 표현하는 이미지가 검색된다. 맵 객체 중 하나 상의 지점이 선택된다. 하나의 맵 객체는 네비게이션 엘리먼트를 표현하기 위해 선택된 지점에서 변환된다. 변환된 맵 객체의 제시는 적어도 부분적으로 모바일 디바이스의 그래픽 사용자 인터페이스를 사용하여 야기된다.

Description

네비게이션 정보를 제시하기 위해 3차원 맵 객체를 변환하는 방법 및 장치{METHOD AND APPARATUS FOR TRANSFORMING THREE-DIMENSIONAL MAP OBJECTS TO PRESENT NAVIGATION INFORMATION}
관련 출원
본 출원은 그 전체가 본 명세서에 참조로서 포함되어 있는 발명의 명칭이 "네비게이션 정보를 제시하기 위해 3차원 맵 객체를 변환하는 방법 및 장치(Method and Apparatus for Transforming Three-Dimensional Map Objects to Present Navigation Information)"인 2009년 12월 1일 출원된 미국 특허 출원 제 12/628,632호의 이득을 청구한다.
서비스 공급자(예를 들어, 무선, 셀룰러 등) 및 디바이스 제조업자는 예를 들어 강제적인 네트워크 서비스를 제공함으로써 소비자에 가치 및 편의성을 전달하기 위해 계속 도전되고 있다. 특히, 이들 서비스는 디바이스 상의 위치 및 네비게이션 서비스를 포함할 수 있다. 그러나, 종종 이들 서비스와 연관된 사용자 인터페이스는 특히 디바이스가 제한된 디스플레이 영역을 갖는 모바일 디바이스일 때 사용자의 디바이스의 스크린에 적절한 또는 완전한 네비게이션 정보를 제공하지 않거나 제공할 수 없다. 다른 경우에, 사용자 인터페이스는 사용자를 위한 제시된 네비게이션 정보의 사용 가능성을 제한하는 방식으로 제시될 수 있다. 예를 들어, 사용자는 인터페이스가 부가의 목적으로 혼란스럽기 때문에 디바이스 상에 표시된 객체의 중요성을 이해하는 것이 가능하지 않을 수도 있다. 따라서, 사용자는 인터페이스가 어렵거나 성가실 수 있기 때문에 위치 또는 네비게이션 서비스의 이용 가능한 기능을 완전히 이용하는 것이 불가능할 수 있다. 따라서, 서비스 공급자 및 디바이스 제조업자는 사용자에 의해 더 용이하고 신속하게 이해될 수 있는 방식으로 네비게이션 정보를 제시하는 사용자 인터페이스를 제공하는데 있어 상당한 기술적 과제에 직면한다.
따라서, 3차원 맵 객체를 변환하는 것을 통해 네비게이션 정보를 제시하는 사용자 인터페이스를 제공하기 위한 접근법에 대한 요구가 존재한다.
일 실시예에 따르면, 방법은 하나 이상의 3차원 맵 객체를 표현하는 이미지를 검색하는 단계를 포함한다. 방법은 맵 객체 중 하나 상의 지점을 선택하는 단계를 또한 포함한다. 방법은 네비게이션 엘리먼트를 표현하기 위해 선택된 지점에서 하나의 맵 객체를 변환하는 것을 추가로 포함한다. 방법은 모바일 디바이스의 그래픽 사용자 인터페이스를 사용하여 변환된 맵 객체의 제시를 적어도 부분적으로 야기하는 단계를 부가적으로 포함한다.
다른 실시예에 따르면, 장치는 적어도 하나의 프로세서와, 컴퓨터 프로그램 코드를 포함하는 적어도 하나의 메모리를 포함하고, 적어도 하나의 메모리 및 컴퓨터 프로그램 코드는, 적어도 하나의 프로세서와 함께, 적어도 부분적으로 장치가 하나 이상의 3차원 맵 객체를 표현하는 이미지를 검색하게 하도록 구성된다. 장치는 또한 맵 객체 중 하나 상의 지점을 선택하게 한다. 장치는 추가로 네비게이션 엘리먼트를 표현하기 위해 선택된 지점에서 하나의 맵 객체를 변환하게 한다. 장치는 부가적으로 모바일 디바이스의 그래픽 사용자 인터페이스를 사용하여 변환된 맵 객체의 제시를 적어도 부분적으로 야기하게 한다.
다른 실시예에 따르면, 하나 이상의 프로세서에 의해 실행될 때, 장치가 적어도 부분적으로 하나 이상의 3차원 맵 객체를 표현하는 이미지를 검색하게 하는 하나 이상의 명령의 하나 이상의 시퀀스를 전달하는 컴퓨터 판독 가능 저장 매체가 제공된다. 장치는 또한 맵 객체의 하나 상의 지점을 선택하게 한다. 장치는 추가로 네비게이션 엘리먼트를 표현하기 위해 선택된 지점에서 하나의 맵 객체를 변환하게 한다. 장치는 부가적으로, 적어도 부분적으로 모바일 디바이스의 그래픽 사용자 인터페이스를 사용하여 변환된 맵 객체의 제시를 야기하게 한다.
다른 실시예에 따르면, 장치는 하나 이상의 3차원 맵 객체를 표현하는 이미지를 검색하기 위한 수단을 포함한다. 장치는 맵 객체 중 하나 상의 지점을 선택하기 위한 수단을 또한 포함한다. 장치는 네비게이션 엘리먼트를 표현하기 위해 선택된 지점에서 하나의 맵 객체를 변환하기 위한 수단을 추가로 포함한다. 장치는 부가적으로 모바일 디바이스의 그래픽 사용자 인터페이스를 사용하여 변환된 맵 객체의 제시를 적어도 부분적으로 야기하기 위한 수단을 포함한다.
게다가, 본 발명의 다양한 예시적인 실시예에서, 이하의 것이 적용 가능한데, 방법은 (1) 데이터 및/또는 (2) 정보 및/또는 (3) 적어도 하나의 신호의 프로세싱을 용이하게 하고 그리고/또는 프로세싱하는 단계를 포함하고, (1) 데이터 및/또는 (2) 정보 및/또는 (3) 적어도 하나의 신호는 본 발명의 임의의 실시예와 관련하는 것으로서 본 출원에 개시된 방법(또는 프로세스) 중 임의의 하나 또는 임의의 조합에 적어도 부분적으로 기초한다(또는 적어도 부분적으로 이들로부터 유도된다).
본 발명의 다양한 예시적인 실시예에서, 이하의 것이 또한 적용 가능한데, 방법은 적어도 하나의 서비스로의 액세스를 허용하도록 구성된 적어도 하나의 인터페이스로의 액세스를 용이하게 하는 단계를 포함하고, 적어도 하나의 서비스는 본 출원에 개시된 네트워크 또는 서비스 공급자 방법(또는 프로세스) 중 임의의 하나 또는 임의의 조합을 수행하도록 구성된다.
본 발명의 다양한 예시적인 실시예에서, 이하의 것이 또한 적용 가능한데, 방법은 (1) 적어도 하나의 디바이스 사용자 인터페이스 엘리먼트 및/또는 (2) 적어도 하나의 디바이스 사용자 인터페이스 기능을 생성하는 것을 용이하게 하고 그리고/또는 수정을 용이하게 하는 단계를 포함하고, (1) 적어도 하나의 디바이스 사용자 인터페이스 엘리먼트 및/또는 (2) 적어도 하나의 디바이스 사용자 인터페이스 기능은 본 발명의 임의의 실시예와 관련하는 것으로서 본 출원에 개시된 방법 또는 프로세스 중 하나 또는 임의의 조합으로부터 발생하는 데이터 및/또는 정보 및/또는 본 발명의 임의의 실시예에 관련하는 것으로서 본 출원에 개시된 방법(또는 프로세스) 중 하나 또는 임의의 조합으로부터 발생하는 적어도 하나의 신호에 적어도 부분적으로 기초한다.
본 발명의 다양한 예시적인 실시예에서, 이하의 것이 또한 적용 가능한데, 방법은 (1) 적어도 하나의 디바이스 사용자 인터페이스 엘리먼트 및/또는 (2) 적어도 하나의 디바이스 사용자 인터페이스 기능을 생성하고 그리고/또는 수정하는 단계를 포함하고, (1) 적어도 하나의 디바이스 사용자 인터페이스 엘리먼트 및/또는 (2) 적어도 하나의 디바이스 사용자 인터페이스 기능은 본 발명의 임의의 실시예와 관련하는 것으로서 본 출원에 개시된 방법(또는 프로세스) 중 하나 또는 임의의 조합으로부터 발생하는 데이터 및/또는 정보 및/또는 본 발명의 임의의 실시예에 관련하는 것으로서 본 출원에 개시된 방법(또는 프로세스) 중 하나 또는 임의의 조합으로부터 발생하는 적어도 하나의 신호에 적어도 부분적으로 기초한다.
다양한 예시적인 실시예에서, 방법(또는 프로세스)은 서비스 공급자측에서 또는 모바일 디바이스측에서 또는 동작이 양 측에서 수행되는 상태로 서비스 공급자와 모바일 디바이스 사이의 임의의 공유된 방식으로 성취될 수 있다.
본 발명의 또 다른 양태, 특징 및 장점은 본 발명을 수행하기 위해 고려되는 최선의 모드를 포함하는 다수의 특정 실시예 및 구현예를 간단히 예시함으로써, 이하의 상세한 설명으로부터 즉시 명백하다. 본 발명은 또한 다른 및 상이한 실시예가 가능하고, 그 다수의 상세는 모두 본 발명의 사상 및 범주로부터 벗어나지 않고 다양한 명백한 관점에서 수행될 수 있다. 따라서, 도면 및 설명은 한정적인 것이 아니라 본질적으로 예시적인 것으로서 간주되어야 한다.
도 1은 일 실시예에 따른 3차원 맵 객체를 변환하는 것을 통해 네비게이션 정보를 제시하는 사용자 인터페이스를 제공하는 것이 가능한 사용자 장비를 포함하는 시스템의 다이어그램.
도 2는 일 실시예에 따른 3차원 맵 객체를 변환하는 것을 통해 네비게이션 정보를 제시하는 것이 가능한 사용자 장비의 구성 요소의 다이어그램.
도 3은 일 실시예에 따른 3차원 맵 객체를 변환함으로써 네비게이션 정보를 제시하기 위한 프로세스의 흐름도.
도 4a는 일 실시예에 따른 3차원 맵 객체를 변환하기 위한 프로세스의 흐름도.
도 4b는 다양한 실시예에 따른 3차원 엘리먼트의 예시적인 변환의 다이어그램.
도 5a 내지 도 5f는 다양한 실시예에 따른 도 3 및 도 4a의 프로세스에 이용된 사용자 인터페이스의 다이어그램.
도 6은 본 발명의 실시예를 구현하는데 사용될 수 있는 하드웨어의 다이어그램.
도 7은 본 발명의 실시예를 구현하는데 사용될 수 있는 칩셋의 다이어그램.
도 8은 본 발명의 실시예를 구현하는데 사용될 수 있는 이동 단말(예를 들어, 핸드셋)의 다이어그램.
본 발명의 실시예가 첨부 도면에 한정이 아니라 예시로서 도시되어 있다.
3차원 맵 객체를 변환하는 것을 통해 네비게이션 정보를 제시하기 위한 방법, 장치 및 컴퓨터 프로그램의 예가 개시된다. 이하의 설명에서, 설명의 목적으로, 수많은 특정 상세가 본 발명의 실시예의 철저한 이해를 제공하기 위해 설명된다. 그러나, 본 발명의 실시예가 이들 특정 상세를 갖지 않고 또는 등가의 배열을 갖고 실시될 수 있다는 것이 당 기술 분야의 숙련자에게 명백하다. 다른 경우에, 공지의 구조 및 디바이스가 본 발명의 실시예를 불필요하게 불명료하게 하지 않기 위해 블록 다이어그램 형태로 도시된다.
도 1은 일 실시예에 따른 3차원(3D) 맵 객체를 변환하는 것을 통해 네비게이션 정보를 제시하기 위한 사용자 인터페이스를 제공하는 것이 가능한 사용자 장비를 포함하는 시스템의 다이어그램이다. 사용자 디바이스(예를 들어, 모바일 핸드셋, 컴퓨터, 네비게이션 디바이스 등)의 어레이 상에 네비게이션 및 맵핑 서비스를 실행하거나 번들화하는 것이 서비스 공급자 및 디바이스 제조업자에게 인기가 증가하고 있다. 이러한 디바이스는 네비게이션 및 맵핑 정보를 제공하기 위해 위치 기반 기술[예를 들어, 위성 위치 확인 시스템(GPS) 수신기, 셀룰러 삼각 측량, 보조형-GPS(A-GPS) 등]을 이용할 수 있다. 이들 서비스를 위한 하나의 증가하는 경향은 2차원 맵을 지나 이동하고 관심 위치 및/또는 루트의 3D 맵 또는 표현에 기초하여 위치 서비스를 제공하는 것이다. 예를 들어, 현대식 디바이스는 사용자의 전방의 빌딩을 나타내는 비디오 이미지 상에 그래픽 및 텍스트를 중첩하기 위해 증대된 실제 모드를 이용할 수 있다. 더욱이, 특정 디바이스는 네비게이션 정보를 제공하기 위해 빌딩 및 거리의 3D 표현(예를 들어, 렌더링된 3D 모델 또는 맵 이미지)을 이용할 수 있다. 이들 디바이스는 부가의 네비게이션 정보를 제공하기 위해 빌딩 및 거리의 실제 이미지 대신에 또는 오버레이된 그래픽 또는 이미지 객체(예를 들어, 맵 객체)를 사용할 수 있다.
그러나, 이들 통상의 3D-기반 인터페이스는 사용자 디바이스 상에 정보를 표시하기 위해 다소 성가실 수 있다. 예를 들어, 모바일 디바이스의 경우에, 이용 가능한 디스플레이는 일반적으로 제한되어 있고 표시를 위한 다수의 엘리먼트(예를 들어, 관심 지점, 네비게이션 명령 등)가 존재할 때 신속하게 혼란스러워질 수 있다. 이 혼란스러운 디스플레이는 사용자가 중요한 네비게이션 정보를 신속하게 식별하게 하는 것을 더 어렵게 한다. 이 신속한 식별은 사용자가 목적지에 도달하기 위해 실시간 네비게이션 명령에 의존할 때 특히 중대하다.
부가적으로, 다수의 사용자가 현재 네비게이션 서비스 및 디바이스에서 유비쿼터스인 통상의 평범한 표현 및 네비게이션 사용자 인터페이스에 의해 인상을 받지 않는다. 이와 같이, 사용자는 디바이스의 특징을 지루해하게 될 수 있고 훨씬 적은 빈도로 디바이스를 사용하기 시작할 수도 있다. 더욱이, 이러한 지루함은 또한 이들이 디바이스로부터의 경보 또는 통지에 더 이상의 주목하지 않고 명심하지 않기 때문에 사용자가 중요한 네비게이션 정보를 누락할 수 있게 한다.
이 문제점을 처리하기 위해, 도 1의 시스템(100)은 3D 맵 객체를 변환함으로써 맵 또는 네비게이션 정보의 제시 능력을 소개하고 있다. 이 접근법에서, 시스템(100)은 사용자에 관심이 있을 수 있는 맵 객체를 결정하고, 객체를 시각적으로 향상시키고 이들 객체를 사용자에게 더 현저하게 하기 위해 객체 중 하나 이상의 3D 표현을 변환한다. 이 방식으로, 시스템(100)은 이 정보에 사용자의 주의를 끌 수 있는 방식으로 사용자에 중요할 수 있는 맵핑 또는 네비게이션 정보를 강조할 수 있어, 이에 의해 사용자가 정보를 간과할 수 있는 가능성을 적게 만든다. 본 명세서에 사용될 때, 특정 실시예에서, 네비게이션 정보는 사용자의 위치(예를 들어, 맵 좌표), 다른 위치[예를 들어, 목적지, 관심 지점(POI), 위치 사이의 관계(예를 들어, 위치 사이의 주행 방향, 위치의 상대 위치, 위치 사이의 연관) 등]에 대한 정보를 칭한다. 사용자 장비(UE)(101)는 통신 네트워크(105)를 경유하여 맵 플랫폼(103)으로부터 맵 정보(예를 들어, 3D 맵)를 검색할 수 있다. 3D 맵은 UE(101) 상의 애플리케이션[예를 들어, 네비게이션 애플리케이션(107)]에 의해 이용될 수 있다. 더욱이, 맵 정보는 맵 플랫폼(103)과 연관된 맵 데이터베이스(109) 내에 포함될 수 있다. 특정 실시예에서, 맵 정보는 사용자에게 네비게이션 정보 및 안내를 제공하기 위해 네비게이션 애플리케이션(107)에 의해 이용될 수 있는 정보이다. 맵 정보는 맵, 위성 이미지, 거리 및 경로 정보, 관심 지점(POI) 정보, 맵과 연관된 신호화 정보, 맵과 연관된 객체 및 구조물, 사람 및 사람의 위치에 대한 정보, 정보와 연관된 좌표 정보 등 또는 이들의 조합을 포함할 수 있다. POI는 사람이 예를 들어 관심있거나 유용한 것으로 발견할 수 있는 특정 지점 위치일 수 있다. 관심 지점의 예는 공항, 제과점, 댐, 랜드마크, 레스토랑, 호텔, 사람의 위치 또는 관심 있고, 유용하거나 소정의 방식으로 중요한 임의의 지점을 포함할 수 있다. 몇몇 실시예에서, 사용자에 제시된 맵 정보 및 맵은 시뮬레이션된 3D 환경일 수 있다. 특정 실시예에서, 시뮬레이션된 3D 환경은 지역의 거리, 빌딩, 특징 등의 위치에 근사하도록 생성된 3D 모델이다. 이 모델은 이어서 UE(101) 상에 표시를 위해 실질적으로 임의의 각도 또는 시점으로부터 위치를 렌더링하는데 사용될 수 있다. 네비게이션 프로그램[예를 들어, 네비게이션 애플리케이션(107)]에서, 3D 모델 또는 환경은 예를 들어 네비게이션 애플리케이션(107)이 3D 환경을 통해 이동을 애니메이팅할 수 있게 하여 더 동적이고 잠재적으로 더 유용하거나 관심 있는 맵핑 디스플레이를 사용자에게 제공한다. 일 실시예에서, 구조물은 간단한 객체(예를 들어, 구조물의 치수를 설명하는 3차원 모델)를 사용하여 저장된다. 또한, 더 복잡한 객체는 3D 표현 내에 구조물 및 다른 객체를 표현하도록 이용될 수 있다. 복잡한 객체는 복잡한 객체를 부분 또는 요소로 분할하는 다수의 더 소형의 또는 간단한 객체를 포함할 수 있다. 3D 모델을 생성하기 위해, 다른 정보가 다양한 데이터베이스 뿐만 아니라 3D 모델로 구조물 및 다른 객체를 결정하기 위해 위치 스탬프와 연관된 이미지의 프로세싱과 같은 데이터 입력 방법으로부터 수집될 수 있다.
대안적으로 또는 부가적으로, UE(101)의 이미지 캡처 모듈(111)은 위치 정보(예를 들어, 맵핑 및 네비게이션 정보)를 사용자에게 제시하기 위해 네비게이션 애플리케이션(107)과 함께 이용될 수 있다. 사용자는 3D 객체가 UE(101) 상에서 물리적 환경의 이미지 상에 중첩되게 하는 네비게이션 애플리케이션(107)과 연관된 증대된 실제 인터페이스를 제시받을 수 있다. 네비게이션 애플리케이션(107)에 의해 이용된 3D 객체는 네비게이션 정보를 사용자에게 제시하도록 변환될 수 있다. 특정 실시예에서, 사용자 인터페이스는 맵 데이터베이스(109)로부터의 3D 객체가 물리적 이미지의 위에 중첩되어 배치되는 하이브리드 물리적 및 가상 환경을 표시할 수 있다.
예로서, UE(101)의 사용자는 네비게이션 정보를 수신하기 위해 네비게이션 애플리케이션(107)을 이용할 수 있다. 전술된 바와 같이, 특정 시나리오 하에서, 네비게이션 정보는 POI 정보, 위치 정보, 방향 또는 위치에 대한 연관 또는 이들의 조합을 포함할 수 있다. 일 예에서, 디폴트 세팅은 사용자가 3D 환경과 연관된 빌딩, 구조물 및 다른 객체와 연관된 POI에 대한 정보를 뷰잉할 수 있게 할 수 있다. 사용자는 POI 정보를 뷰잉하기 위해 빌딩을 향해 사용자의 UE(101)를 포인팅할 수 있다. 네비게이션 애플리케이션(107)은 빌딩을 위치 좌표와 연관시킬 수 있다. 다음에, 네비게이션 애플리케이션(107)은 도 2에 더 상세히 도시된 바와 같이 위치 정보에 기초하여 맵 플랫폼(103)으로부터 빌딩과 연관된 POI 정보를 검색할 수 있다. 일단 POI 정보가 빌딩과 연관되면, 빌딩의 부분 또는 빌딩의 3D 모델은 POI 정보와 연관된 3D 아이콘으로 변환될 수 있다. 이 변환은 전이 제시가 빌딩 내의 POI의 이용 가능성의 사용자의 주의를 끌고 통지하기 위해 사용될 수 있기 때문에 사용자의 경험을 향상시킬 수 있다. 전이 제시는 POI 정보를 제시하기 위한 변환의 애니메이션일 수 있다(예를 들어, POI 아이콘으로 변환하는 빌딩 객체의 부분의 애니메이션). 다른 실시예에서, 전이 제시 애니메이션은 예를 들어 사용자의 주의를 더 끌어들이고 특정 네비게이션 정보에 대한 사용자 관심을 증가시키기 위해 오디오 경보 또는 미사여구, 멀티미디어 디스플레이 등을 수반할 수 있다. 이와 같이, 전이 제시(예를 들어, 3D 모델의 부분의 변환)는 이들의 네비게이션 경험을 다른 친구 또는 사용자들과 공유하기 위해 사용자에게 자극의 레벨을 제공할 수 있다.
다른 예에서, 네비게이션 정보는 특정 위치로의 연관을 포함할 수 있다. 이 예에서, 사용자는 3D 모델 환경 내의 3D 객체에 의해 표현되는 실세계(예를 들어, 빌딩) 내의 객체에 UE(101)를 포인팅할 수 있다. 네비게이션 애플리케이션(107)은 특정 위치(예를 들어, 사용자의 친구의 주소 또는 POI)와 3D 객체 사이의 관계를 결정할 수 있다. 다음에, 3D 객체의 부분은 도 4에 더 상세히 설명되는 바와 같이 변환될 수 있어 특정 위치를 향한 방향 지시기를 제공할 수 있다. 이 변환은 더 즉시 식별 가능한 네비게이션 정보를 사용자에게 제공함으로써 네비게이션 애플리케이션(107)을 갖는 사용자의 경험을 부가로 향상시킬 수 있고 네비게이션 애플리케이션(107)의 능력을 다른 친구와 공유하도록 사용자를 격려할 수 있다.
더욱이, 맵 데이터베이스(109) 내에 저장된 맵 정보는 실세계 빌딩 및 다른 부지의 3D 모델로부터 생성될 수 있다. 이와 같이, 객체는 실세계 위치와 연관될 수 있다[예를 들어, 위성 위치 확인 시스템(GPS) 좌표와 같은 위치 좌표에 기초하여]. 특정 실시예에서, UE(101)는 맵 정보를 이용하기 위해 UE(101)의 위치를 결정하도록 GPS 위성(113)을 이용할 수 있다. 맵 정보는 다각형과 같은 다수의 개별적이지만 인접한 간단한 3D 형상으로 구성된 물리적 환경(예를 들어, 빌딩) 내의 객체 및 구조물의 3D 모델(예를 들어, 복합 3D 모델)을 포함할 수 있다. 3D 모델링의 통상의 접근법은 객체의 완전한 3D 모델을 형성하는 다른 다각형으로부터 별도로 크기 및 형상의 각각의 다각형에 액세스하고 변환하는 능력을 포함한다.
예로서, 시스템(100)의 통신 네트워크(105)는 데이터 네트워크(도시 생략), 무선 네트워크(도시 생략), 전화 네트워크(도시 생략) 또는 이들의 임의의 조합과 같은 하나 이상의 네트워크를 포함한다. 데이터 네트워크는 임의의 근거리 통신망(LAN), 도시권 통신망(MAN), 원거리 통신망(WAN), 공개 데이터 통신망(예를 들어, 인터넷) 또는 상업적으로 소유된 것과 같은 임의의 다른 적합한 패킷 교환 네트워크, 예를 들어 독점 케이블 또는 광파이버 네트워크와 같은 독점 패킷 교환 네트워크일 수 있다는 것이 고려된다. 게다가, 무선 네트워크는 예를 들어 셀룰러 네트워크일 수 있고, 글로벌 진화를 위한 향상 데이터 전송율(EDGE), 범용 패킷 무선 서비스(GPRS), 이동 통신 시스템을 위한 글로벌 시스템(GSM), 인터넷 프로토콜 멀티미디어 서브시스템(IMS), 범용 이동 통신 시스템(UMTS) 등, 뿐만 아니라 예를 들어 마이크로파 액세스를 위한 전세계 상호 운용성(WiMAX), 장기 진화(LTE) 네트워크, 코드 분할 다중 접속(CDMA), 광대역 코드 분할 다중 접속(WCDMA), 무선 충실도(WiFi), 위성, 모바일 애드혹 네트워크(MANET) 등과 같은 임의의 다른 적합한 무선 매체일 수 있다.
UE(101)는 임의의 유형의 모바일 단말, 고정 단말 또는 모바일 핸드셋, 스테이션, 유닛, 디바이스, 네비게이션 디바이스, 멀티미디어 컴퓨터, 멀티미디어 태블릿, 인터넷 노드, 커뮤니케이터, 데스크탑 컴퓨터, 랩탑 컴퓨터, 개인 휴대 정보 단말(PDA) 또는 이들의 임의의 조합을 포함하는 휴대용 단말이다. UE(101)는 사용자로의 임의의 유형의 인터페이스(예를 들어, "착용 가능한" 회로 등)를 지원할 수 있는 것이 또한 고려된다.
예로서, UE(101) 및 맵 플랫폼(103)은 공지의, 새로운 또는 아직 개발중인 프로토콜을 사용하여 서로 그리고 통신 네트워크(105)의 구성 요소와 통신한다. 이와 관련하여, 프로토콜은 통신 네트워크(105) 내의 네트워크 노드가 어떻게 통신 링크를 통해 송신된 정보에 기초하여 서로 상호 작용하는지를 규정하는 규칙의 세트를 포함한다. 프로토콜은 다양한 유형의 물리적 신호를 생성하고 수신하는 것으로부터 이들 신호를 전송하기 위한 링크를 선택하는 것, 이들 신호에 의해 지시된 정보의 포맷, 컴퓨터 시스템 상에서 실행하는 소프트웨어 애플리케이션이 정보를 송신하거나 수신하는 것을 식별하는 것에 이르는 각각의 노드 내의 상이한 동작의 레이어에서 효과적이다. 네트워크를 통해 정보를 교환하기 위한 프로토콜의 개념적으로 상이한 레이어는 개방 시스템 상호 접속(OSI) 기준 모델에 설명되어 있다.
네트워크 노드들 사이의 통신은 데이터의 개별 패킷을 교환함으로써 통상적으로 실행된다. 각각의 패킷은 통상적으로 (1) 특정 프로토콜과 연관된 헤더 정보 및 (2) 헤더 정보를 따르고 이 특정 프로토콜에 독립적으로 프로세싱될 수 있는 정보를 포함하는 페이로드 정보를 포함한다. 몇몇 프로토콜에서, 패킷은 (3) 페이로드를 따르고 페이로드 정보의 종료를 지시하는 트레일러 정보를 포함한다. 헤더는 패킷의 소스, 그 목적지, 페이로드의 길이 및 프로토콜에 의해 사용된 다른 특성과 같은 정보를 포함한다. 종종, 특정 프로토콜을 위한 페이로드 내의 데이터는 OSI 기준 모델의 상이한 더 상위의 레이어와 연관된 상이한 프로토콜을 위한 헤더 및 페이로드를 포함한다. 특정 프로토콜을 위한 헤더는 통상적으로 그 페이로드 내에 포함된 다음의 프로토콜을 위한 유형을 지시한다. 더 상위의 레이어 프로토콜은 더 하위의 레이어 프로토콜 내에 캡슐화되는 것으로 일컬어진다. 인터넷과 같은 다수의 이종 네트워크를 가로지르는 패킷 내에 포함된 헤더는 통상적으로 물리적(레이어 1) 헤더, 데이터 링크(레이어 2) 헤더, 인터네트워크(레이어 3) 헤더 및 전송(레이어 4) 헤더 및 OSI 기준 모델에 의해 규정된 바와 같은 다양한 애플리케이션 헤더(레이어 5, 레이어 6 및 레이어 7)를 포함한다.
일 실시예에서, 네비게이션 애플리케이션(107) 및 맵 플랫폼(103)은 클라이언트-서버 모델에 따라 상호 작용할 수 있다. 클라이언트-서버 모델에 따르면, 클라이언트 프로세스는 서버 프로세스에 요청을 포함하는 메시지를 송신하고, 서버 프로세스는 서비스를 제공함으로써(예를 들어, 맵 정보를 제공함) 응답한다. 서버 프로세스는 또한 클라이언트 프로세스로의 응답을 갖는 메시지를 반환할 수 있다. 종종, 클라이언트 프로세스 및 서버 프로세스는 호스트라 칭하는 상이한 컴퓨터 디바이스 상에서 실행되고, 네트워크 통신을 위한 하나 이상의 프로토콜을 사용하여 네트워크를 통해 통신한다. 용어 "서버"는 통상적으로 서비스를 제공하는 프로세스 또는 프로세스가 동작하는 호스트 컴퓨터를 칭하는데 사용된다. 유사하게, 용어 "클라이언트"는 통상적으로 요청을 행하는 프로세스 또는 프로세스가 동작하는 호스트 컴퓨터를 칭하는데 사용된다. 본 명세서에 사용될 때, 용어 "클라이언트" 및 "서버"는 문맥으로부터 달리 명백하지 않으면, 호스트 컴퓨터보다는 프로세스를 칭한다. 게다가, 서버에 의해 수행된 프로세스는 무엇보다도 신뢰성, 확장성 및 중복성을 포함하는 이유로 다수의 호스트(때때로 티어라 칭함) 상의 다수의 프로세스로서 실행하도록 분해될 수 있다.
도 2는 일 실시예에 따른 3차원 맵 객체를 변환하는 것을 통해 네비게이션 정보를 제시하는 것이 가능한 사용자 장비의 구성 요소의 다이어그램이다. 예로서, UE(101)는 3D 맵 객체를 변환하는 것을 통해 네비게이션 정보를 제시하기 위한 하나 이상의 구성 요소를 포함한다. 이들 구성 요소의 기능은 하나 이상의 구성 요소에서 조합되거나 등가의 기능성의 다른 구성 요소에 의해 수행될 수 있다. 이 실시예에서, UE(101)는 네비게이션 정보를 제시하고 입력을 수신하기 위한 사용자 인터페이스(201), 맵 플랫폼(103)으로부터 맵 정보를 검색하기 위한 맵 플랫폼 인터페이스(203), 런타임 모듈(205), 맵 정보를 저장하기 위한 맵 캐시(207), UE(101)의 위치를 결정하기 위한 위치 모듈(209), UE(101)의 수평 배향을 결정하기 위한 자력계 모듈(211), UE(101)의 수직 배향을 결정하기 위한 가속도계 모듈(213) 및 이미지 캡처 모듈(111)을 포함한다.
네비게이션 정보는 다양한 통신 방법을 포함할 수 있는 사용자 인터페이스(201)를 경유하여 사용자에 제시될 수 있다. 예를 들어, 사용자 인터페이스(201)는 시각적 구성 요소(예를 들어, 스크린), 오디오 구성 요소(예를 들어, 구두 명령), 물리적 구성 요소(예를 들어, 진동) 및 다른 통신 방법을 포함하는 출력을 가질 수 있다. 사용자 입력은 터치스크린 인터페이스, 마이크로폰, 카메라, 스크롤-앤-클릭 인터페이스, 버튼 인터페이스 등을 포함할 수 있다. 또한, 사용자는 네비게이션 애플리케이션(107)을 시작하기 위한 요청을 입력할 수 있고, 네비게이션 정보를 수신하기 위해 사용자 인터페이스(201)를 이용할 수 있다. 사용자 인터페이스(201)를 통해, 사용자는 제시될 상이한 유형의 네비게이션 정보를 요청할 수 있다. 또한, 사용자는 UE(101)의 스크린 상에 그래픽 사용자 인터페이스의 부분으로서 특정 위치 및 관련 객체(예를 들어, 특정 위치에서 빌딩, 지형 특징, POI 등)의 3차원 표현을 제시할 수 있다.
맵 플랫폼 인터페이스(203)는 맵 플랫폼(103)과 통신하기 위해 런타임 모듈(205)에 의해 사용된다. 몇몇 실시예에서, 인터페이스는 맵 플랫폼(103)으로부터 맵 정보를 페치하는데 사용된다. UE(101)는 맵 정보를 검색하기 위해 클라이언트 서버 포맷에 요청을 이용할 수 있다. 더욱이, UE(101)는 맵 정보를 검색하기 위해 요청 내에 위치 정보 및/또는 배향 정보를 지정할 수 있다. 위치 모듈(209), 자력계 모듈(211), 가속도계 모듈(213) 및 이미지 캡처 모듈(111)은 맵 정보의 검색에 사용된 위치 및/또는 배향 정보를 결정하는데 이용될 수 있다. 또한, 이 맵 정보는 네비게이션 애플리케이션의 사용자에 네비게이션 정보를 제시하는데 이용될 맵 캐시(207) 내에 저장될 수 있다.
일 실시예에서, 위치 모듈(209)은 사용자의 위치를 결정할 수 있다. 사용자의 위치는 GPS, 보조형 GPS(A-GPS) A-GPS, 기원셀(Cell of Origin), 무선 근거리 통신망 삼각 측량 또는 다른 위치 외삽 기술과 같은 삼각 측량 시스템에 의해 결정될 수 있다. 표준 GPS 및 A-GPS 시스템은 UE(101)의 위치(예를 들어, 경도, 위도 및 고도)를 정확하게 지시하기 위해 위성(113)을 사용할 수 있다. 기원셀 시스템은 셀룰러 UE(101)가 동기되는 셀룰러 타워를 결정하는데 사용될 수 있다. 이 정보는 셀룰러 타워가 지리학적으로 맵핑될 수 있는 고유 셀룰러 식별자(셀-ID)를 가질 수 있기 때문에, UE(101)의 개략의 위치를 제공한다. 위치 모듈(209)은 UE(101)의 위치를 검출하기 위해 다수의 기술을 또한 이용될 수 있다. GPS 좌표는 UE(101)의 위치에 대한 더 세밀한 상세를 제공할 수 있다. 전술된 바와 같이, 위치 모듈(209)은 네비게이션 애플리케이션(107)에 의해 사용을 위한 위치 좌표를 결정하는데 이용될 수 있다.
자력계 모듈(211)은 자기장의 강도 및/또는 방향을 측정할 수 있는 도구를 포함할 수 있다. 나침반과 동일한 접근법을 사용하여, 자력계는 지구의 자기장을 사용하여 UE(101)의 방향을 결정하는 것이 가능하다. 이미지 캡처 디바이스(예를 들어, 디지털 카메라)[또는 UE(101) 상의 다른 기준점]의 전방부는 방향을 결정하는데 있어서 기준점으로서 마킹될 수 있다. 따라서, 자기장이 기준점에 비교하여 북쪽을 가리키면, 자기장으로부터 UE(101) 기준점의 각도가 알려진다. 간단한 계산이 UE(101)의 방향을 결정하도록 행해질 수 있다. 일 실시예에서, 자력계로부터 얻어진 수평 방향 데이터는 사용자의 배향을 결정하는데 이용된다. 이 방향 정보는 [예를 들어, 빌딩 또는 다른 객체(들)에서] 사용자가 가리키는 장소를 결정하기 위해 UE(101)의 위치 정보와 상관될 수 있다. 이 정보는 사용자에게 네비게이션 정보를 제공하기 위해 변환을 수행하도록 3D 객체를 선택하는데 이용될 수 있다.
또한, 가속도계 모듈(213)은 가속도를 측정할 수 있는 도구를 포함할 수 있다. 축 X, Y 및 Z를 갖는 3축 가속도계를 사용하는 것은 공지의 각도를 갖는 3개의 방향에서의 가속도를 제공한다. 재차, 매체 캡처 디바이스의 전방부는 방향을 결정하는데 있어서 기준점으로서 마킹될 수 있다. 중력에 기인하는 가속도는 공지되어 있기 때문에, UE(101)가 고정될 때, 가속도계 모듈(213)은 UE(101)가 지구 중력에 비교하여 가리키는 각도를 결정할 수 있다. 일 실시예에서, 가속도계로부터 얻어진 수직 방향 데이터가 사용자가 UE(101)를 가리키는 각도를 결정하는데 사용된다. 이 정보는 자력계 정보 및 위치 정보와 함께 사용자에 맵 정보를 제공하기 위한 관점을 결정하는데 이용될 수 있다. 이와 같이, 이 정보는 사용자에게 네비게이션 정보를 제시하기 위해 3D 맵 객체를 선택하는데 이용될 수 있다. 더욱이, 조합된 정보는 사용자가 사용자에게 네비게이션 정보를 제공하기 변환을 위한 3D 맵 객체의 부분을 결정하기 위해 이용되거나 관심이 있을 수 있는 특정 3D 맵 객체의 부분을 결정하는데 이용될 수 있다.
이미지는 이미지 캡처 모듈(111)을 사용하여 캡처될 수 있다. 이미지 캡처 모듈(111)은 카메라, 비디오 카메라, 이들의 조합 등을 포함할 수 있다. 일 실시예에서, 시각적 매체는 이미지 또는 일련의 이미지의 형태로 캡처된다. 이미지 캡처 모듈(111)은 카메라로부터 이미지를 얻고 위치 정보, 자력계 정보, 가속도계 정보 또는 이들의 조합과 이미지를 연관시킬 수 있다. 전술된 바와 같이, 이 정보의 조합은 사용자의 위치, 사용자의 수평 배향 정보 및 사용자의 수직 배향 정보를 조합함으로써 사용자의 관점을 결정하는데 이용될 수 있다. 이 정보는 맵 캐시(207) 또는 맵 플랫폼(103)으로부터 맵 정보를 검색하는데 이용될 수 있다. 특정 실시예에서, 맵 캐시(207)는 맵 데이터베이스(109) 내의 정보, 맵 데이터베이스(109) 내의 서브세트 또는 맵 데이터베이스(109)의 수퍼세트를 포함한다.
도 3은 일 실시예에 따른 3차원 맵 객체를 변환함으로써 네비게이션 정보를 제시하기 위한 프로세스의 흐름도이다. 일 실시예에서, 런타임 모듈(205)은 프로세스(300)를 수행하고, 예를 들어 도 7에 도시된 바와 같은 프로세서 및 메모리를 포함하는 칩셋 내에 구현된다. 특정 실시예에서, 맵 플랫폼(103)은 프로세스(300)의 단계의 일부 또는 모두를 수행하고 클라이언트 서버 인터페이스를 사용하여 UE(101)와 통신할 수 있다. UE(101)는 네비게이션 및 맵핑 정보의 제시를 위해 맵핑 서비스를 이용하기 위해 네비게이션 애플리케이션(107)을 활성화할 수 있다. 네비게이션 애플리케이션(107)은 런타임 모듈(205) 상에서 실행될 수 있다.
런타임 모듈(205)은 위치 모듈(209), 자력계 모듈(211), 가속도계 모듈(213) 또는 이들의 조합을 이용하여 전술된 바와 같이 사용자의 관점을 결정할 수 있다. 다른 실시예에서, 사용자는 3D 환경에 기초하여 관점을 선택할 수 있다. 사용자는 맵 또는 3D 맵을 검색하는 통상의 수단에 기초하여 관점을 선택할 수 있다(예를 들어, 시작점을 선택하고 맵을 가로지르거나 GPS 좌표 또는 주소와 같은 관점의 위치 좌표를 입력함으로써). 선택된 관점으로부터, 하나 이상의 3D 맵 객체를 표현하는 이미지는 맵 캐시(207) 또는 맵 플랫폼(103)으로부터 검색될 수 있다(단계 301). 전술된 바와 같이, 이미지는 UE(101)의 이미지 캡처 모듈(111)을 사용하여 캡처될 수 있는 물리적 환경을 표현할 수 있다. 3D 맵 객체는 물리적 환경과 연관된 구조물(예를 들어, 빌딩) 및 다른 부지와 연관될 수 있다. 다른 실시예에서, 이미지는 가상 3D 환경을 표현할 수 있고, 여기서 실세계 물리적 환경 내의 사용자의 위치는 가상 3D 환경에서 표현된다. 표현에서, 사용자의 관점은 가상 3D 환경 상에 맵핑된다. 더욱이, 하이브리드 물리적 및 가상 3D 환경은 부가적으로 사용자에 네비게이션 정보를 제시하도록 이용될 수 있다.
네비게이션 애플리케이션(107)은 사용자 선호도 또는 다른 시스템 파라미터 또는 세팅(예를 들어, 디폴트 세팅)에 기초하여 어느 네비게이션 정보가 제시될지를 결정할 수 있다. 특정 실시예에서, 네비게이션 정보는 사용자가 탐색하는 POI(예를 들어, 커피숍)의 유형(또는 유형들)을 포함한다. 다른 실시예에서, 네비게이션 정보는 사용자가 탐색하고(예를 들어, 친구, 특정 POI 등) 또는 POI 사이에 정보를 라우팅하는 위치로의 방향 지시기를 포함할 수 있다. 위치는 POI를 위한 위치 정보를 포함할 수 있고 부가적으로 동적 위치 확인 기술을 사용하여(예를 들어, GPS 정보를 경유하여 사용자의 존재를 검출함으로써) 사람의 이동을 추적하는 것이 가능할 수 있는 맵 플랫폼(103)에 질의함으로써 결정될 수 있다. 사람은 맵 플랫폼(103)을 사람의 위치와 공유하는 디바이스(예를 들어, 사용자 추적 서비스, 위치 인식 소셜 네트워킹 서비스 등)를 이용할 수 있다. 이 공유된 위치 정보로부터, 맵 플랫폼(103) 및/또는 네비게이션 애플리케이션(107)은 3D 객체를 사람과 연관시킬 수 있다.
일 실시예에서, 사용자는 사용자 디바이스에 존재하는 카메라 또는 다른 촬상 디바이스의 사용에 의해 사용자 인터페이스에 표시를 위한 관점을 선택할 수 있다. 예로서, 사용자는 물리적 객체(예를 들어, 빌딩)에 UE(101)의 카메라를 가리킬 수 있어 객체에 대한 정보를 검색하고 또는 사용자에 의해 지시된 위치로 방향 정보를 결정하는데 있어서 기준점으로서 객체를 사용한다. 물리적 객체는 검색된 이미지와 연관된 하나 이상의 3D 맵 객체 중 하나에 의해 표현될 수 있다. 전술된 바와 같이, 3D 맵 객체는 3D 모델의 정점 또는 지점을 포함할 수 있다. 런타임 모듈(205)은 이어서 네비게이션 정보를 제시하기 위해(예를 들어, 3D 맵 객체를 다른 형상으로 변환함으로써) 위치로서 3D 맵 객체 상의 지점을 선택할 수 있다(단계 303). 3D 맵 객체 상의 지점은 맵 정보에 기초하여 사전 결정될 수 있다. 더욱이, 지점은 특정 기준에 기초하여 결정될 수 있다. 예를 들어, 3D 맵 객체 상의 특정 지점은 3D 맵 객체와 연관된 POI와 연관될 수 있다. 일 예에서, 빌딩과 연관된 3D 맵 객체는 꼭대기층에 카페를, 빌딩의 지상층에 소매점을 가질 수 있다. 카페에 대한 POI 지점(예를 들어 변환 목적으로 사용된 POI와 연관된 3D 맵 객체의 지점)은 3D 맵 객체의 상부에 있거나 위치 연관을 표현하기 위해 3D 맵 객체의 꼭대기층과 연관될 수 있다. 더욱이, 소매점을 위한 POI 지점은 빌딩의 저부를 향할 수 있다. 부가적으로 또는 대안적으로, 지점은 UE(101)의 위치 및/또는 사용자가 방향 지시기가 향하는 것을 원할 수 있는 지정된 위치의 위치와 연관된 정보에 동적으로 기초할 수 있다. 이 시나리오에서, 지점은 맵 객체와 지정된 위치 사이의 관계에 기초하여 결정될 수 있다. 예를 들어, 방향을 향해 가리키는 화살표는 지정된 위치의 방향에 가장 가까운 선택된 지점을 이용할 수 있다.
다음에, 단계 305에서, 런타임 모듈(205)은 네비게이션 엘리먼트를 표현하기 위해 선택된 지점에서 맵 객체를 변환한다. 네비게이션 엘리먼트는 POI, POI 유형, 지정된 위치(예를 들어, POI, 랜드마크, 주소, 위치 좌표 등)의 방향, 다른 네비게이션 파라미터 또는 이들의 조합을 포함할 수 있다. 각각의 네비게이션 엘리먼트는 네비게이션 엘리먼트와 연관된 네비게이션 정보를 제공하는 변환된 3D 맵 객체로 지점으로부터의 3D 객체를 변환하는데 이용될 수 있는 모델링 프로세스(예를 들어, 다각형 모델링)에 기초하여 연관 필터 또는 변환을 포함할 수 있다. 예를 들어, 도 5b에 도시된 바와 같이, 빌딩 3D 맵 객체는 빌딩의 커짐 및 방향을 보는 화살표를 포함하도록 변환될 수 있다. 다른 예에서, 네비게이션 엘리먼트는 POI 아이콘을 포함할 수 있고, 3D 맵 객체는 도 4a 및 도 5c에 도시된 바와 같이 POI 아이콘을 포함하도록 변형될 수 있다.
일 실시예에서, 하나 이상의 맵 객체 또는 POI가 선택될 수 있다. 더 구체적으로, 런타임 모듈(205)은 제 1 맵 객체(예를 들어, 제 1 POI) 상의 지점을 선택하기 위한 제 1 입력 및 제 2 맵 객체(예를 들어, 제 2 POI) 상의 다른 지점을 선택하기 위한 제 2 입력을 수신할 수 있다. 이 예는 2개의 맵 객체의 선택과 관련하여 설명되어 있지만, 본 명세서에 설명된 접근법의 다양한 실시예는 임의의 수의 맵 객체에 적용 가능하다는 것이 고려된다. 객체의 선택 후에, 네비게이션 애플리케이션(107) 또는 다른 네비게이션 서비스는 이어서 예를 들어 제 1 맵 객체와 제 2 맵 객체 사이의 루트를 컴퓨팅하거나 다른 방식으로 생성할 수 있다. 루트에 기초하여, 런타임 모듈(205)은 예를 들어 POI를 표현하는 맵 객체의 부분을 변환함으로써 루트를 예시하기 위해 제 1 맵 객체와 제 2 맵을 연결하는 경로를 나타내는 변환을 생성할 수 있다. 이 방식으로, 변환된 경로는 유리하게는 사용자가 네비게이션을 위한 연속적인 경로로서 2개 이상의 맵 객체(예를 들어, 2개 이상의 POI)를 더 용이하게 볼 수 있게 한다.
일 실시예에서, 루트는 맵핑 서비스, 네비게이션 서비스 또는 다른 위치 기반 서비스와 같은 클라우드 기반 서비스에 또한 업로드될 수 있다. 다른 실시예에서, 변환은 하나의 맵 객체의 블록 또는 정점이 제 2 맵 객체에 부합하게 신장되고, 또는 양 맵 객체로부터의 블록이 서로 절반에 부합하게 신장되도록 수행될 수 있다. 예를 들어, 런타임 모듈(205)은 적어도 부분적으로는 하나의 맵 객체와 연관된 네비게이션 엘리먼트(예를 들어, 제 1 맵 객체의 변환), 다른 맵 객체와 연관된 다른 네비게이션 엘리먼트(예를 들어, 제 2 맵 객체의 변환) 또는 하나의 맵 객체와 다른 맵 객체 사이의 적어도 하나의 네비게이션 경로로서 이들의 조합의 제시를 야기한다. 또 다른 실시예에서, 네비게이션 엘리먼트, 다른 네비게이션 엘리먼트 또는 이들의 조합은 하나의 맵 객체, 다른 맵 객체 또는 이들의 조합과 연관된 하나 이상의 도어, 하나 이상의 개구, 하나 이상의 포털, 하나 이상의 경로 또는 이들의 조합에 대한 각각의 근접도에 기초하여 선택된다. 예를 들어, 변환을 위해 제 1 맵 객체 및 제 2 맵 객체 상에 선택된 지점은 맵 객체에 의해 표현된 빌딩의 실제 출구(도어와 같은)에 가능한 한 가깝도록 선택될 수 있다.
일 샘플 사용 경우에, 사용자는 2개의 POI(예를 들어, 영화 극장 및 모텔)를 탐색한다. 본 명세서에 설명된 접근법의 다양한 실시예 하에서, POI가 위치되어 있는 빌딩을 표현하는 맵 객체는 빌딩들 사이의 끊김없는 "튜브"(예를 들어, 보행 경로)를 표시하도록 변환되거나 모프(morph)되고 따라서 사용자는 어떻게 이들이 접속되는지 및 어떻게 2개의 POI 사이에서 주행하는지를 알 수 있다(예를 들어, 이하의 도 5d의 예 참조).
또한, POI 아이콘은 공지의 위치를 갖는 친구 또는 다른 사람 또는 이동 객체의 존재 정보[예를 들어, 맵 플랫폼(103)에서 업데이트될 수 있는 공지의 GPS 위치]와 같은 부가의 특징을 포함할 수 있다. 따라서, 친구 또는 친구의 위치는 POI로서 이용될 수 있다. 이 정보는 친구의 3D 맵 객체(예를 들어, 빌딩, 구조물, 공원 등)에 친구의 표현을 추가하도록 이용될 수 있다. 이와 같이, 표현된 네비게이션 엘리먼트는 변환된 맵 객체의 부분으로서 3D 맵 객체로부터 돌출될 수 있다. 변환 프로세스를 수반하는 프로세스가 도 4a 및 도 4b의 설명에 더 상세히 설명된다. 특정 실시예에서, 변환은 네비게이션 엘리먼트 정보를 포함하기 위한 원래 3D 맵 객체의 왜곡을 포함한다. 일 실시예에서, 2명의 친구가 인접한 빌딩에 있으면, 빌딩을 표현하는 맵 객체는 예를 들어 2개의 맵 객체 사이의 접속으로서 이 정보를 전달하기 위해 적어도 부분적으로 모프될 수 있다. 몇몇 실시예에서, 맵 객체의 부분은 사용자의 친구가 POI 내에 또는 가까이에 있는 것을 제시하기 위해 변환될 수 있다. 예로서, 이 변환은 소셜 서비스 내의 이 사람의 아바타의 형상을 제시하기 위한 것일 수 있다(예를 들어, 이하의 도 5e의 예 참조).
또한, 3D 맵 객체는 텍스처와 연관될 수 있다. 예를 들어, 3D 맵 객체는 3D 맵 객체와 연관된 입도, 스킨 또는 월페이퍼일 수 있다. 텍스처는 물리적 환경과 연관될 수 있고 또는 가상 3D 맵 환경에 특정할 수 있다. 3D 맵 객체의 텍스처는 네비게이션 엘리먼트와 연관된 변환된 부분의 텍스처와 연관될 수 있다(단계 307). 이와 같이, 사용자는 3D 맵 객체와 네비게이션 엘리먼트 부분을 용이하게 연관시킬 수 있다. 대안적으로 또는 부가적으로, 텍스처는 원래 3D 맵 객체와 변환된 맵 객체 사이에 일정하게 유지될 수 있지만, 변환된 부분은 네비게이션 엘리먼트 정보를 구별하고 강조하기 위해 상이한 음영 또는 컬러를 포함할 수 있다. 또한, 텍스처는 네비게이션 엘리먼트 정보를 부가적으로 강조하고 구별하기 위해 애니메이팅될 수 있다. 특정 예에서, 애니메이션은 통상의 애니메이션 기술을 사용하여(예를 들어, 알고리즘에 따른 텍스처의 애니메이션 또는 이동부를 생성하기 위해 동일한 텍스처의 다중 프레임을 이용하여) 구현될 수 있는 텍스처의 이동을 포함할 수 있다.
다른 실시예에서, 텍스처는 또한 소셜 프레즌스(social presence) 정보를 표현하도록 선택되거나 생성될 수 있다. 이 경우에, 런타임 모듈(205)은 모바일 디바이스, 모바일 디바이스의 적어도 하나의 사용자, 하나 이상의 다른 디바이스, 하나 이상의 다른 디바이스의 적어도 하나의 다른 사용자 또는 이들의 조합과 연관된 소셜 프레즌스 정보를 결정한다. 런타임 모듈(205)은 이어서 적어도 부분적으로 텍스처의 적어도 일부 내의 소셜 프레즌스 정보, 하나의 맵 객체, 네비게이션 엘리먼트 또는 이들의 조합의 표현을 발생시키도록 결정될 수 있다. 예를 들어, 변환된 맵 객체에 인가된 텍스처(예를 들어, 비트맵)는 사용자의 소셜 네트워킹 친구의 소셜 프레즌스에 관련되거나 관계될 수 있다. 텍스처는 예를 들어 친구의 유사성을 제시하는 이미질 수 있고, 이는 사용자 또는 친구가 극장에서 현재 감상하는 영화의 포스터일 수 있고, 사용자 또는 친구가 레스토랑에서 먹고 있는 음식의 사진(예를 들어, 친구가 현재 먹고 있는 음식의 이미지가 레스토랑의 POI 아이콘에서 나타날 수 있음). 일 실시예에서, 친구의 소셜 프레즌스 정보(예를 들어, 이들이 어느 영화를 감상하는지, 이들이 어느 음식을 먹고 있는지)가 사용자가 이들의 상황을 설명하는 온라인 서비스로부터 전파될 수 있다.
다음에, 단계 309에서, 런타임 모듈(205)은 적어도 부분적으로는 UE(101)(예를 들어, 모바일 디바이스)의 그래픽 사용자 인터페이스를 사용하여 변환된 맵 객체의 제시를 발생한다. 따라서, 사용자는 3D 맵 환경 뿐만 아니라 3D 맵 객체 및 변환된 3D 맵 객체를 뷰잉할 수 있다. 전술된 단계는 부가적으로 다중 변환된 3D 맵 객체 및/또는 단일 3D 맵 객체의 다중 변환을 제시하기 위해 다수회 수행될 수 있다. 또한, 변환의 부분으로서, 표현된 네비게이션 엘리먼트는 변환된 3D 맵 객체를 강조하고 주의를 끌기 위해 애니메이팅될 수 있다(예를 들어, 화살표 이동, POI 회전, 도구가 사용되는 등)(단계 311). 애니메이션 프로세스는 3D 맵 객체 또는 3D 맵 객체의 부분의 연속적인 변환을 포함할 수 있다. 더욱이, 애니메이션은 변환된 3D 맵 객체의 돌출부 상에서 발생할 수 있다. 또한, 애니메이션은 네비게이션 엘리먼트 정보가 인식 가능한 것을 보장하기 위해 시간 경과에 따라 네비게이션 엘리먼트 정보(예를 들어, POI 또는 화살표)를 확장하는데 이용될 수 있다.
도 4a는 일 실시예에 따른 3차원 맵 객체를 변환하기 위한 프로세스의 흐름도이다. 일 실시예에서, 런타임 모듈(205)은 프로세스(400)를 수행하고, 예를 들어 도 7에 도시된 바와 같은 프로세서 및 메모리를 포함하는 칩셋에 구현된다. 특정 실시예에서, 맵 플랫폼(103)은 프로세스(400)의 단계의 일부 또는 모두를 수행할 수 있고 클라이언트 서버 인터페이스를 사용하여 UE(101)와 통신할 수 있다. 전통적인 3D 모델링은 3D 맵 객체를 변환하는데 이용될 수 있다. 예를 들어, 다각형 모델링, 스플라인 및 패치 모델링, 프리미티브 모델링 등은 3D 맵 객체를 변환하는데 이용될 수 있다. 단계 401에서, 복수의 정점을 포함하는 3D 맵 객체는 UE(101)의 맵 캐시(207)로부터 검색된다. 3D 맵 객체는 부가적으로 또는 대안적으로 맵 플랫폼(103)으로부터 검색될 수 있다. 다각형의 그룹이 공유된 정점에서 함께 접속될 수 있다. 이 그룹은 3D 맵 객체에 구조물을 제공하는 메시로 고려될 수 있다.
다음에, 3D 맵 객체 상의 지점(예를 들어, 정점)은 변환을 위해 선택된다(단계 403). 지점의 선택은 도 3의 단계 303에서 상기 지시된 바와 같이 결정될 수 있고 그리고/또는 3D 맵 객체의 사전 결정된 지점에 기초할 수 있다. 사전 결정된 지점은 메타데이터로서 3D 맵 객체와 연관되어 저장될 수 있다. 다음에, 단계 405에서, 런타임 모듈(205)은 하나 이상의 정점의 위치를 변경함으로써 3D 맵 객체를 수정한다. 예를 들어, 선택된 정점은 방향을 향해 이동될 수 있고, 주위 정점은 선택된 정점을 따라 이동될 수 있다. 특정 실시예에서, 주위 정점은 전술된 바와 같은 네비게이션 엘리먼트와 연관된 필터 또는 변환에 기초하여 변환된다. 변환 또는 필터는 어떻게 3D 맵 객체의 기하학 구조를 원하는 형상으로 수정하는지에 대한 정보를 포함할 수 있다. 또한, 변환 또는 필터는 경사, 압출, 선회, 추가, 차감, 연합, 교차, 부착, 모따기, 변형, 가중 변형, 모프, 굽힘, 트위스트, 변위, 단순화, 절단, 스티치, 볼록 헐 등과 같은 하나 이상의 통상의 다각형 메시 동작을 포함할 수 있다. 각각의 네비게이션 엘리먼트는 이 변환 또는 필터를 가질 수 있고, 각각의 네비게이션 엘리먼트는 하나 이상의 3D 객체를 변환하는데 이용될 수 있다. 선택적으로, 부가의 정점은 원하는 형상을 생성하기 위해 3D 맵 객체에 추가될 수 있다(단계 407). 이는 변환과 연관된 왜곡을 감소시키는 것을 도울 수 있다.
다른 실시예에서, 런타임 모듈(205)은 하나의 맵 객체, 네비게이션 엘리먼트 또는 이들의 조합을 수동으로 변환하기 위해 사용자로부터 입력을 수신할 수 있고, 여기서 하나의 맵 객체의 변환은 적어도 부분적으로는 입력에 기초한다(예를 들어, 입력 메커니즘의 더 상세한 설명을 위해 이하에 도 5f를 참조). 달리 말하면, 사용자는 객체를 더 수동으로 변환하기 위해 맵 객체의 부분 및/또는 그 변환된 버전을 선택할 수 있다. 일 실시예에서, 런타임 모듈(205)은 하나 이상의 사용자의 그룹에 변환된 맵 객체의 제시로의 액세스를 제한하도록 결정할 수 있다. 이 방식으로, 수동으로 변환된 객체 또는 형상은 시스템(100)의 사용자의 모든 또는 선택된 서브그룹에 가시화될 수 있다. 변환된 맵 객체는 예를 들어 증대된 실제 뷰 또는 3D 맵 뷰로 표시된다. 또 다른 실시예에서, 런타임 모듈(205)은 적어도 부분적으로 변환된 맵 객체와 연관하여 사용자의 그래픽 식별자의 제시를 발생하도록 결정할 수 있다. 예를 들어, 아이콘(예를 들어, 사용자의 아바타의)은 사용자에 의해 변환된 객체의 다음에 표시될 수 있다. 사용자를 위한 이득은 사용자가 따라서 가상 공간에서 보기 위해 다른 사용자를 위한 빌딩의 정면의 가상 낙서에 유사한 메시지를 남겨둘 수 있다는 것이다.
또한, 런타임 모듈(205)은 원래 3D 맵 객체와 연관된 텍스처를 결정할 수 있다(단계 409). 이 텍스처 정보는 3D 맵 객체와 연관된 메타데이터(예를 들어, 패턴, 스킨 등)에 저장될 수 있다. 텍스처 정보는 텍스처를 갖는 수정된 또는 변환된 3D 맵 객체를 구성하도록 이용될 수 있다(단계 411). 특정 예에서, 텍스처는 3D 맵 객체의 메시 상에 배치될 수 있다. 다른 예에서, 텍스처는 3D 맵 객체에 기초하여 신장될 수 있다. 전술된 바와 같이, 텍스처는 부가적으로 3D 맵 객체의 섹션을 강조하도록 애니메이팅될 수 있다.
도 4b는 다양한 실시예에 따른 3차원 엘리먼트의 예시적인 변환의 다이어그램이다. 도시된 바와 같이, 3D 엘리먼트(421)(예를 들어, 3D 맵 객체의 부분, 메시를 생성하는 다각형의 그룹 등)는 화살표(423)를 포함하도록 변환될 수 있다. 특정 실시예에서, 3D 엘리먼트(421)는 3D 화살표(423)로 변환된다. 도시된 바와 같이, 화살표(423)는 사용자가 위치에 도착하기 위해 향해서 이동해야 하는 방향을 지시할 수 있다. 이 화살표(423)는 실제 목적지 자체 또는 목적지로의 루트 상의 위치를 가리킬 수 있다. 또한, 변환은 기초로서 3D 맵 엘리먼트(421)의 지점 또는 정점을 사용하여 수행될 수 있다. 대안적으로 또는 부가적으로, 정점의 그룹은 변환된 맵 객체를 생성하도록 이용될 수 있다. 또한, 화살표(423)의 크기는 3D 맵 객체 및/또는 3D 엘리먼트(421)의 크기에 기초하여 동적으로 결정될 수 있다.
더욱이, 3D 엘리먼트(425, 427)는 POI 아이콘(429, 431)으로 변환될 수 있다. 도시된 바와 같이, 3D 엘리먼트(425)는 변환 또는 필터를 사용하여 3D 카페 아이콘(429)으로 변환될 수 있다. 변환된 객체의 회전 뷰는 카페 아이콘(429)의 상이한 면을 표시할 수 있다. 더욱이, 3D 엘리먼트(427)는 클래식 음악 콘서트를 위한 POI 아이콘(431)으로 변환될 수 있다. 3D 엘리먼트의 메시는 카페 아이콘(429) 또는 클래식 음악 POI 아이콘(431)의 형상을 포함하도록 변환될 수 있다. 또한, 몇몇 실시예에서, POI 아이콘(429, 431)은 3D 엘리먼트(425, 427) 또는 3D 맵 객체의 스킨을 취할 수 있다. 더욱이, 몇몇 실시예에서, 클래식 음악 POI 아이콘(431)과 같은 POI 아이콘은 3D 맵 객체의 스킨을 취하지 않는 특색 있는 특성(예를 들어, 피아노 검은건반)을 가질 수 있다. 대안적으로, POI 클래식 음악 POI 아이콘(431)의 부분(예를 들어, 흰건반)은 스킨의 특성을 획득할 수 있고, 반면에 다른 부분(예를 들어, 검은건반)은 획득하지 않을 수 있다. 또한, 특정 실시예에서, 3D 맵 객체의 전체는 POI 아이콘으로 변환될 수 있다. 부가적으로 또는 대안적으로, 사용자는 변환된 맵 객체에 테마를 추가하여, 변환된 맵 객체 및/또는 변환된 맵 객체의 부분을 환경 내의 다른 객체로부터 구별하는 것을 가능하게 할 수 있다.
도 5a 내지 도 5f는 다양한 실시예에 따른 도 3 및 도 4a의 프로세스에 이용된 사용자 인터페이스의 다이어그램이다. 도 5a는 UE(101)가 캡처할 수 있는 물리적 환경(500)을 도시한다. 이 실시예에서, 물리적 환경은 홀(501)을 포함할 수 있다. 사용자는 홀(501)의 3D 객체(523) 및 UE(101) 상의 물리적 환경(520)의 다른 엘리먼트를 포함하는 3D 이미지(521)를 생성하기 위해 UE(101)를 이용할 수 있다. 더욱이, 사용자는 사용자가 도착하는 것에 관심이 있는 위치를 선택하는 입력을 입력할 수 있다. 예를 들어, 사용자는 키아즈마(Kiasma) 박물관에 도착하기를 원할 수 있다. 박물관은 홀 3D 객체(523)의 500 미터 동쪽에 위치될 수 있다. 홀 3D 객체는 이어서 키아즈마 박물관을 향해 3D 화살표(525) 지점을 갖도록 변환될 수 있다. 도시된 바와 같이, 3D 화살표(525)는 홀 3D 객체(523)로부터 커지는 것으로 보여진다. 특정 실시예에서, 3D 화살표(525)는 홀 3D 객체(523)를 끊김없이 커지게 하기 위해 홀 3D 객체(523)의 텍스처 또는 스타일을 모방할 수 있다. 예를 들어, 3D 화살표(225)는 홀 3D 객체가 아르데코(Art Deco) 스타일과 연관되면 아르데코 스타일로 장식될 수 있다. 또한, 변환된 객체와 연관된 텍스트(527)는 사용자에 제시될 수 있다. 예를 들어, 이 텍스트(527)는 키아즈마에 어떻게 도착하는지에 대한 지시 정보를 지시할 수 있다. 더욱이, 도 5c의 실시예에서, 사용자는 그래픽 사용자 인터페이스(541) 내의 홀과 연관된 POI를 표시하기 위해 네비게이션 애플리케이션(107)을 이용한다. 네비게이션 애플리케이션(107)은 사용자가 홀 3D 객체(543) 내에 관심을 가질 수 있는 2개의 POI가 존재하는 것을 판정한다. 제 1 POI는 카페 솔로(Solo) POI 아이콘(545)으로 표현될 수 있다. 이 POI는 홀 3D 객체(543)의 상위 레벨과 연관될 수 있다. 따라서, 홀 3D 객체는 카페 솔로 POI 아이콘(545)을 포함하도록 변환될 수 있다. 도시된 바와 같이, 카페 솔로(545) 아이콘은 홀 3D 객체(543)의 외관(예를 들어, 벽 마킹)을 취한다. 또한, 제 2 POI는 피아노 3D 객체(547)를 포함하도록 홀 3D 객체(543)의 제 2 부분을 변환함으로써 동시에 표현될 수 있다. 또한, 변환은 홀 3D 객체(543)로부터 커지거나 돌출하는 것으로 보이는 피아노 3D 객체(547)의 능력을 포함한다. POI 아이콘은 UE(101)의 관점에 따라 증대되도록 더 변환될 수 있다.
도 5d는 일 실시예에 따른 2개의 POI 사이의 네비게이션 경로 또는 루트를 제시하기 위해 대응 맵 객체 사이의 변환을 생성하기 위해 2개 이상의 POI를 선택하기 위한 사용자 인터페이스를 도시한다. 더 구체적으로, 도 5d는 물리적 세계(551)의 뷰를 도시하고, 이어서 UE(101) 상에서 실행하는 증대된 실제 또는 다른 맵핑 애플리케이션을 통한 뷰(553)를 도시한다. 이 예에서, 사용자는 영화 극장 POI(555) 및 호텔 POI(557)를 선택한다. POI는 인접한 빌딩이고, 따라서 시스템은 POI(555, 557) 사이의 "튜브"를 제시하여 2개의 지점 사이의 계산된 또는 결정된 경로를 지시한다. 설명된 바와 같이, 뷰(553)는 증대된 실제[예를 들어 물리적 뷰(551)로부터 라이브 뷰 이미지의 상부에 중첩된 바와 같은]로서 또는 적어도 부분적으로는 3D 맵 콘텐트에 기초하여 뷰(553)를 생성하거나 렌더링하는 맵 애플리케이션/서비스로 제시될 수 있다.
도 5e는 일 실시예에 따른 소셜 프레즌스 정보를 지시하기 위해 텍스처에 기초하여 맵 객체의 변환을 나타내는 사용자 인터페이스를 도시한다. 물리적 세계의 뷰어(561)는 빌딩(565)의 부근 내에서 보행하는 소셜 네트워킹 콘택트(563)를 나타낸다. 이 예에서, 소셜 네트워킹 콘택트(563)는 그 아바타로서 용을 선택하였다. UE(101) 상에서 실행하는 증대된 실제 또는 맵핑 애플리케이션을 통해 뷰잉될 때, 용 아바타의 스킨의 텍스처는 소셜 네트워킹 콘택트(563)가 보행하는 장소 옆의 빌딩(565)에 인가되고, 빌딩의 부분은 용(567)의 형상으로 변환된다. 소셜 네트워킹 콘택트(563)의 친구는 따라서 콘택트(563)가 위치에서 보행하는 증대된 실제 뷰에서 멀리로부터 볼 수 있다. 다른 실시예에서, 사용자의 기분(예를 들어, 소셜 네트워킹 서비스에 포스팅된 바와 같은)은 또한 텍스처(예를 들어, 대응 컬러로서)로 제시될 수 있다. 다른 실시예에서, 형상(567)의 하나 또는 다수의 부분은 예를 들어 심박수 또는 걸음걸이와 같은 소셜 네트워킹 콘택트(563)로부터의 생물 측정 데이터에 기초하여 애니메이팅될 수 있다.
도 5f는 일 실시예에 따른 맵 객체를 수동으로 변환하기 위한 사용자 인터페이스를 도시한다. 전술된 바와 같이, 시스템(100)은 맵 객체의 부분을 선택하고 이어서 이를 수동으로 변환하기 위한 상이한 인터페이스를 제시할 수 있다. 일 실시예에서, 시스템(100)은 변환을 위한 다양한 사전 설정된 형상(예를 들어, 직사각형, 정사각형, 원, 문자 및 숫자 등)을 제공할 수 있다. 다른 실시예에서, 변환의 양 및 방향은 예를 들어 디바이스 상의 터치 스크린 또는 버튼을 사용하여 규정될 수 있다. 게다가 또는 대안적으로, 맵 객체(예를 들어, 빌딩을 표현하는 맵 객체)의 선택된 부분의 3D 체적은 UE(101)의 3D 체적으로 맵핑될 수 있고, UE(101)가 3D 공간에서 이동되거나 지정될 때, 맵 객체의 선택된 부분은 유사한 방식으로 변환된다. 이 프로세스는 도 5f의 예에 도시되어 있다.
도시된 바와 같이, UI(571)에서, 사용자는 기념비를 표현하는 맵 객체의 부분(557)을 선택한다. UI(573)에서, 선택된 형상에 대응하는 정점(575)이 제시된다. UI(577)에서, 사용자는 이어서 UE(101)의 에지(579)에 정점(575)에 의해 규정된 에지를 연관시킬 수 있다. 맵 객체의 에지 및 UE(101)의 에지의 연관은 예를 들어 UE(101)의 체적을 갖는 선택된 형상의 체적의 맵핑을 야기한다. UI(581)에서, 사용자는 공중에서 UE(101)를 트위스트하고, 이는 이어서 UI(585)에 나타낸 바와 같이 맵 객체의 선택된 부분(583)의 대응 트위스팅에서 반영된다. 다른 실시예에서, 사용자의 아바타 이미지(예를 들어, 디지털 사진)가 UI(585) 내의 변환된 형상(583)과 연관하여 표시될 수 있다.
상기 접근법에서, 사용자는 네비게이션 정보를 유리하게 검색하기 위한 기술을 지레 작용하는 것이 가능하다. 이와 같이, 사용자는 주위 물리적 환경(예를 들어, 도시, 교외 지역 등)을 더 용이하게 이해할 수 있다. 이 방식으로, 사용자는 3D 모델 객체를 물리적 환경 뿐만 아니라 3D 객체의 변환 및 확장과 자연적으로 연관시킬 수 있어, 이에 의해 사용자가 제시된 네비게이션 정보를 간과할 수 있는 가능성을 적게 한다. 따라서, 사용자는 3D 객체를 변환함으로써 끊김없는 방식으로 대응 네비게이션 정보와 3D 객체의 연관을 제시받는다. 사용자 경험의 이들 향상은 부가적으로 "WOW" 효과를 야기하고 UE(101)의 맵핑 특징에 대해 다른 잠재적인 사용자에 이야기하도록 사용자를 자극하는 것이 가능하다. 더욱이, 3D 객체는 상이한 뷰 또는 각도로부터 3D 객체를 뷰잉하기 위해 맵을 회전시키면서 깊이 및 콘텍스트를 허용한다. 또한, 부가의 POI 아이콘을 검색하는 대신에 변환의 기초로서 실제 3D 객체를 이용하는 것은 맵 플랫폼(103)으로부터 다운로드의 감소를 허용하고, 이는 사용자 및 서비스 공급 통신의 모두를 위한 대역폭을 절약할 수 있다.
네비게이션 정보를 제시하는 사용자 정보를 제공하기 위해 본 명세서에 설명된 프로세스는 소프트웨어, 하드웨어[예를 들어, 범용 프로세서, 디지털 신호 프로세싱(DSP) 칩, 애플리케이션 특정화 집적 회로(ASIC), 필드 프로그램 가능 게이트 어레이(FPGA) 등], 펌웨어 또는 이들의 조합을 경유하여 유리하게 구현될 수 있다. 설명된 기능을 수행하기 위한 이러한 예시적인 하드웨어가 이하에 상세히 설명된다.
도 6은 본 발명의 실시예가 구현될 수 있는 컴퓨터 시스템(600)을 도시한다. 컴퓨터 시스템(600)은 특정 디바이스 또는 장비와 관련하여 도시되어 있지만, 도 6 내의 다른 디바이스 또는 장비(예를 들어, 네트워크 엘리먼트, 서버 등)는 시스템(600)의 도시된 하드웨어 및 구성 요소를 전개할 수 있다는 것이 고려된다. 컴퓨터 시스템(600)은 본 명세서에 설명된 바와 같은 네비게이션 정보를 제시하는 사용자 인터페이스를 제공하도록 프로그램되고(예를 들어, 컴퓨터 프로그램 코드 또는 명령을 경유하여), 컴퓨터 시스템(600)의 다른 내부 및 외부 구성 요소 사이에 정보를 통과시키기 위한 버스(610)와 같은 통신 메커니즘을 포함한다. 정보(또한 데이터라 칭함)는 통상적으로 전압과 같은, 그러나 다른 실시예에서 자기, 전자기, 압력, 화학, 생물학, 분자, 원자, 서브 원자 및 양자 상호 작용과 같은 이러한 현상을 포함하는 측정 가능한 현상의 물리적 표현으로서 표현된다. 예를 들어, 북극 및 남극 필드 또는 제로 및 비제로 전압은 2진수(비트)의 2개의 상태 (0, 1)를 표현한다. 다른 현상은 더 상위의 베이스의 숫자를 표현할 수 있다. 다수의 동시의 양자의 중첩은 측정이 양자 비트(qubit)를 표현하기 전에 진술된다. 하나 이상의 숫자의 시퀀스는 문자를 위한 코드 또는 번호를 표현하는데 사용되는 디지털 데이터를 구성한다. 몇몇 실시예에서, 아날로그 데이터라 칭하는 정보는 특정 범위 내의 측정 가능한 값의 가까운 연속체에 의해 표현된다. 컴퓨터 시스템(600) 또는 그 데이터는 네비게이션 정보를 제시하는 사용자 인터페이스를 제공하는 하나 이상의 단계를 수행하기 위한 수단을 구성한다.
버스(610)는 정보가 버스(610)에 결합된 디바이스 사이에 신속하게 전달될 수 있도록 하는 정보의 하나 이상의 병렬 도전체를 포함한다. 정보를 프로세싱하기 위한 하나 이상의 프로세서(602)는 버스(610)와 결합된다.
프로세서(602)는 네비게이션 정보를 제시하는 사용자 인터페이스를 제공하는 것에 관련된 컴퓨터 프로그램 코드에 의해 지정된 바와 같은 정보에 대한 동작의 세트를 수행한다. 컴퓨터 프로그램 코드는 지정된 기능을 수행하기 위해 프로세서 및/또는 컴퓨터 시스템의 동작을 위해 명령을 제공하는 명령 또는 진술의 세트이다. 코드는 예를 들어 프로세서의 네이티브 명령 세트로 컴파일링되는 컴퓨터 프로그래밍 언어로 기록될 수 있다. 코드는 또한 네이티브 명령 세트(예를 들어, 머신 언어)를 사용하여 직접 기록될 수 있다. 동작의 세트는 버스(610)로부터 정보를 유도하는 것과 버스(610) 상에 정보를 배치하는 것을 포함한다. 동작의 세트는 또한 통상적으로 2개 이상의 정보 유닛을 비교하는 것과, 정보의 유닛의 위치를 시프트하는 것과, 예를 들어 가산 또는 승산 또는 OR, 배타적 OR(XOR) 및 AND와 같은 논리 연산에 의해 2개 이상의 정보의 유닛을 조합하는 것을 포함한다. 프로세서에 의해 수행될 수 있는 동작의 세트의 각각의 동작은 하나 이상의 숫자의 동작 코드와 같은 명령이라 칭하는 정보에 의해 프로세스에 표현된다. 동작 코드의 시퀀스와 같은 프로세서(602)에 의해 실행될 동작의 시퀀스는 또한 컴퓨터 시스템 명령 또는 간단히 컴퓨터 명령이라 칭하는 프로세서 명령을 구성한다. 프로세서는 무엇보다도 단독으로 또는 조합으로 기계, 전기, 자기, 광학, 화학 또는 양자 구성 요소로서 구현될 수 있다.
컴퓨터 시스템(600)은 버스(610)에 결합된 메모리(604)를 또한 포함한다. 랜덤 액세스 메모리(RAM) 또는 다른 동적 저장 디바이스와 같은 메모리(604)는 네비게이션 정보를 제시하는 사용자 인터페이스를 제공하기 위한 프로세서 명령을 포함하는 정보를 저장한다. 동적 메모리는 그 내에 저장된 정보가 컴퓨터 시스템(600)에 의해 변경될 수 있게 한다. RAM은 메모리 어드레스라 칭하는 위치에 저장된 정보의 유닛이 이웃하는 어드레스에서의 정보에 독립적으로 저장되고 검색될 수 있게 한다. 메모리(604)는 또한 프로세서 명령의 실행 중에 일시적인 값을 저장하기 위해 프로세서(602)에 의해 사용된다. 컴퓨터 시스템(600)은 판독 전용 메모리(ROM)(606) 또는 컴퓨터 시스템(600)에 의해 변경되지 않은 명령을 포함하는 정적 정보를 저장하기 위해 버스(610)에 결합된 다른 정적 저장 디바이스를 또한 포함한다. 몇몇 메모리는 전력이 손실될 때 그 위에 저장된 정보를 손실하는 휘발성 저장 장치로 구성된다. 또한, 버스(610)에는 컴퓨터 시스템(600)이 턴오프되거나 다른 방식으로 전력을 손실할 때에도 지속되는 명령을 포함하는 정보를 저장하기 위한 자기 디스크, 광학 디스크 또는 플래시 카드와 같은 비휘발성 (지속) 저장 디바이스(608)가 또한 결합된다.
네비게이션 정보를 제시하는 사용자 인터페이스를 제공하기 위한 명령을 포함하는 정보는 인간 사용자에 의해 동작되는 문자 숫자식 키를 포함하는 키보드 또는 센서와 같은 외부 입력 디바이스(612)로부터 프로세서에 의해 사용을 위해 버스(610)에 제공된다. 센서는 그 부근의 조건을 검출하고, 컴퓨터 시스템(600) 내에 정보를 표현하는데 사용된 측정 가능한 현상과 호환성이 있는 물리적 표현으로 이들 방향을 변환시킨다. 인간과 상호 작용하기 위해 주로 사용된 버스(610)에 결합된 다른 외부 디바이스는 텍스트 또는 이미지를 제시하기 위한 음극선관(CRT) 또는 액정 디스플레이(LCD) 또는 플라즈마 스크린과 같은 디스플레이 디바이스(614) 또는 프린터와, 디스플레이(614) 상에 제시된 소형 커서 이미지의 위치를 제어하고 디스플레이(614) 상에 제시된 그래픽 엘리먼트와 연관된 명령을 발행하기 위한 마우스 또는 트랙볼 또는 커서 방향키 또는 움직임 센서와 같은 포인팅 디바이스(616)를 포함한다. 몇몇 실시예에서, 예를 들어 컴퓨터 시스템(600)이 인간 입력 없이 자동으로 모든 기능을 수행하는 실시예에서, 외부 입력 디바이스(612), 디스플레이 디바이스(614) 및 포인팅 디바이스(616) 중 하나 이상이 생략된다.
도시된 실시예에서, 애플리케이션 특정화 집적 회로(ASIC)(620)와 같은 특정 용도 하드웨어가 버스(610)에 결합된다. 특정 용도 하드웨어는 특정 용도를 위해 충분히 신속하게 프로세서(602)에 의해 수행되지 않은 동작을 수행하도록 구성된다. 애플리케이션 특정 IC의 예는 디스플레이(614)를 위한 이미지를 생성하기 위한 그래픽 가속기 카드, 네트워크를 통해 송신된 메시지를 부호화 및 복호화하기 위한 암호화 보드, 음성 인식 및 하드웨어 내에서 더 효율적으로 구현되는 동작의 몇몇 복잡한 시퀀스를 반복적으로 수행하는 로봇식 아암 및 의료용 스캐닝 장비와 같은 특정 외부 디바이스로의 인터페이스를 포함한다.
컴퓨터 시스템(600)은 버스(610)에 결합된 통신 인터페이스(670)의 하나 이상의 인스턴스를 또한 포함한다. 통신 인터페이스(670)는 프린터, 스캐너 및 외장 디스크와 같은 그 자신의 프로세서와 동작하는 다양한 외부 디바이스로의 일방향 또는 2방향 통신 결합을 제공한다. 일반적으로, 결합은 그 자신의 프로세서를 갖는 다양한 외부 디바이스가 접속되는 로컬 네트워크(680)에 접속되는 네트워크 링크(678)와의 결합이다. 예를 들어, 통신 인터페이스(670)는 퍼스널 컴퓨터 상의 병렬 포트 또는 직렬 포트 또는 범용 직렬 버스(USB) 포트일 수 있다. 몇몇 실시예에서, 통신 인터페이스(670)는 정보 통신 접속을 대응하는 전화선 유형에 제공하는 ISDN 카드 혹은 DSL 카드 혹은 전화기 모뎀이다. 몇몇 실시예에서, 통신 인터페이스(670)는 버스(610) 상의 신호를 동축 케이블을 통한 통신 접속을 위한 신호로 또는 광파이버 케이블을 통한 통신 접속을 위한 광학 신호로 변환하는 케이블 모뎀이다. 다른 예로서, 통신 인터페이스(670)는 이더넷과 같은 호환성 LAN으로의 데이터 통신 접속을 제공하기 위한 근거리 통신망(LAN) 카드일 수 있다. 무선 링크가 또한 구현될 수 있다. 무선 링크에 대해, 통신 인터페이스(670)는 디지털 데이터와 같은 정보 스트림을 전달하는 적외선 및 광학 신호를 포함하는 전기, 음향 또는 전자기 신호를 송신하거나 수신하는 또는 송신하고 수신한다. 예를 들어, 휴대폰과 같은 이동 전화와 같은 무선 휴대형 디바이스에서, 통신 인터페이스(670)는 무선 송수신기라 칭하는 무선 대역 전자기 송신기 및 수신기를 포함한다. 특정 실시예에서, 통신 인터페이스(670)는 UE(101)에 맵 정보를 제공하기 위해 통신 네트워크(105)로의 접속을 가능화한다.
용어 "컴퓨터 판독 가능 매체"는 본 명세서에 사용될 때 실행을 위한 명령을 포함하는, 프로세서(602)에 정보를 제공하는데 참여하는 임의의 매체를 칭한다. 이러한 매체는 이들에 한정되는 것은 아니지만 컴퓨터 판독 가능 매체(예를 들어, 비휘발성 매체, 휘발성 매체) 및 전송 매체를 포함하는 다수의 형태를 취할 수 있다. 비휘발성 매체와 같은 비일시적 매체는 예를 들어 저장 디바이스(608)와 같은 광학 또는 자기 디스크를 포함한다. 비휘발성 매체는 예를 들어 동적 메모리(604)를 포함한다. 전송 매체는 예를 들어 동축 케이블, 구리 와이어, 광파이버 케이블 및 무선파, 광학파 및 적외선파를 포함하는 음파 및 전자기파와 같은 와이어 또는 케이블 없이 공간을 통해 진행하는 캐리어파를 포함한다. 신호는 전송 매체를 통해 전송된 진폭, 주파수, 위상, 분극 또는 다른 물리적 특성의 인공의 과도 편차를 포함한다. 통상의 형태의 컴퓨터 판독 가능 매체는 예를 들어, 플로피 디스크, 플렉시블 디스크, 하드 디스크, 자기 테이프, 임의의 다른 자기 매체, CD-ROM, CDRW, DVD, 임의의 다른 광학 매체, 펀치 카드, 페이퍼 테이프, 광학 마크 시트, 홀의 패턴 또는 다른 광학적으로 인식 가능한 표식을 갖는 임의의 다른 물리적 매체, RAM, PROM, EPROM, FLASH-EPROM, 임의의 다른 메모리 칩 또는 카트리지, 캐리어파, 또는 컴퓨터가 판독할 수 있는 임의의 다른 매체를 포함한다. 용어 컴퓨터 판독 가능 저장 매체는 본 명세서에서 전송 매체를 제외한 임의의 컴퓨터 판독 가능 매체를 칭하는데 사용된다.
하나 이상의 탠저블 매체 내에 인코딩된 로직은 ASIC(620)과 같은 컴퓨터 판독 가능 저장 매체 및 특정 용도 하드웨어 상의 프로세스 명령 중 하나 또는 모두를 포함한다.
네트워크 링크(678)는 통상적으로 하나 이상의 네트워크를 통해 정보를 사용하거나 프로세싱하는 다른 디바이스로의 매체 전송을 사용하여 정보 통신을 제공한다. 예를 들어, 네트워크 링크(678)는 인터넷 서비스 공급자(ISP)에 의해 동작되는 장비(684) 또는 호스트 컴퓨터(682)로의 로컬 네트워크(680)를 통한 접속을 제공한다. ISP 장비(684)는 이어서 이제 통상적으로 인터넷(690)이라 칭하는 네트워크의 공중 전세계 패킷 교환 통신 네트워크를 통해 데이터 통신 서비스를 제공한다.
인터넷에 접속된 서버 호스트(692)라 칭하는 컴퓨터는 인터넷을 통해 수신된 정보에 응답하여 서비스를 제공하는 프로세스를 호스팅한다. 예를 들어, 서버 호스트(692)는 디스플레이(614)에서 제시를 위해 비디오 데이터를 표현하는 정보를 제공하는 프로세스를 호스팅한다. 시스템(600)의 구성 요소는 예를 들어 호스트(682) 및 서버(692)와 같은 다른 컴퓨터 시스템 내의 다양한 구성으로 전개될 수 있다는 것이 고려된다.
본 발명의 적어도 일부 실시예는 본 명세서에 설명된 기술의 일부 또는 모두를 구현하기 위한 컴퓨터 시스템(600)의 사용에 관련된다. 본 발명의 일 실시예에 따르면, 이들 기술은 메모리(604) 내에 포함된 하나 이상의 프로세서 명령의 하나 이상의 시퀀스를 실행하는 프로세서(602)에 응답하여 컴퓨터 시스템(600)에 의해 수행된다. 또한 컴퓨터 명령이라 칭하는 이러한 명령, 소프트웨어 및 프로그램 코드는 저장 디바이스(608) 또는 네트워크 링크(678)와 같은 다른 컴퓨터 판독 가능 매체로부터 메모리(604) 내로 판독될 수 있다. 메모리(604) 내에 포함된 명령의 시퀀스의 실행은 프로세서(602)가 본 명세서에 설명된 방법 단계 중 하나 이상을 수행할 수 있게 한다. 대안적인 실시예에서, ASIC(620)과 같은 하드웨어가 본 발명을 구현하기 위해 소프트웨어 대신에 또는 소프트웨어와 함께 사용될 수 있다. 따라서, 본 발명의 실시예는 본 명세서에서 명시적으로 언급되지 않으면, 하드웨어와 소프트웨어의 임의의 특정 조합에 한정되는 것은 아니다.
통신 인터페이스(670)를 통해 네트워크 링크(678) 및 다른 네트워크를 통해 전송된 신호는 컴퓨터 시스템(600)으로 그리고 컴퓨터 시스템(600)으로부터 정보를 전달한다. 컴퓨터 시스템(600)은 무엇보다도 네트워크(680, 690)를 통해, 네트워크 링크(678) 및 통신 인터페이스(670)를 통해 프로그램 코드를 포함하는 정보를 송신하고 수신할 수 있다. 인터넷(690)을 사용하는 예에서, 서버 호스트(692)는 인터넷(690), ISP 장비(684), 로컬 네트워크(680) 및 통신 인터페이스(670)를 통해 컴퓨터(600)로부터 송신된 메시지에 의해 요청된 특정 애플리케이션을 위한 프로그램 코드를 전송한다. 수신된 코드는 수신된 바와 같이 프로세서(602)에 의해 실행될 수 있고 또는 이후의 실행을 위해 메모리(604) 내에 또는 저장 장치(608) 또는 다른 비휘발성 저장 장치 내에 저장될 수 있다. 이 방식으로, 컴퓨터 시스템(600)은 캐리어파 상의 신호의 형태로 애플리케이션 프로그램 코드를 얻을 수 있다.
다양한 형태의 컴퓨터 판독 가능 매체가 실행을 위해 프로세서(602)에 명령 또는 데이터의 하나 이상의 시퀀스 또는 양자 모두를 전달하는 것을 수반할 수 있다. 예를 들어, 명령 및 데이터는 호스트(682)와 같은 원격 컴퓨터의 자기 디스크 상에 초기에 전달될 수 있다. 원격 컴퓨터는 명령 및 데이터를 그 동적 메모리 내에 로딩하고, 모뎀을 사용하여 전화 라인을 통해 명령 및 데이터를 송신한다. 컴퓨터 시스템(600)에 로컬인 모뎀은 전화 라인 상에 명령 및 데이터를 수신하고 명령 및 데이터를 네트워크 링크(678)로서 기능하는 적외선 캐리어파 상의 신호로 변환하기 위해 적외선 송신기를 사용한다. 통신 인터페이스(670)로서 기능하는 적외선 검출기가 적외선 신호 내에 전달된 명령 및 데이터를 수신하고 버스(610) 상에 명령 및 데이터를 표현하는 정보를 배치한다. 버스(610)는 프로세서(602)가 명령과 함께 송신된 데이터의 일부를 사용하여 명령을 검색하고 실행하는 메모리(604)에 정보를 전달한다. 메모리(604) 내에 수신된 명령 및 데이터는 선택적으로 프로세서(602)에 의한 실행 전 또는 후에 저장 디바이스(608) 상에 저장될 수 있다.
도 7은 본 발명의 실시예가 구현될 수 있는 칩셋(700)을 도시한다. 칩셋(700)은 본 명세서에 설명된 바와 같이 네비게이션 정보를 제시하는 사용자 인터페이스를 구성하도록 프로그램되고, 예를 들어 하나 이상의 물리적 패키지(예를 들어, 칩) 내에 통합된 도 6과 관련하여 설명된 프로세서 및 메모리 구성 요소를 포함한다. 예로서, 물리적 패키지는 물리적 강도, 크기의 보존 및/또는 전기적 상호 작용의 제한과 같은 하나 이상의 특성을 제공하기 위해 구조적 조립체(예를 들어, 베이스보드) 상의 하나 이상의 재료, 구성 요소 및/또는 와이어의 배열을 포함한다. 특정 실시예에서, 칩셋은 단일 칩에서 구현될 수 있는 것이 고려된다. 칩셋(700) 또는 그 부분은 네비게이션 정보를 제시하는 사용자 인터페이스를 제공하는 하나 이상의 단계를 수행하기 위한 수단을 구성한다.
일 실시예에서, 칩셋(700)은 칩셋(700)의 구성 요소 중에 정보를 통과시키기 위한 버스(701)와 같은 통신 메커니즘을 포함한다. 프로세서(703)는 예를 들어 메모리(705) 내에 저장된 명령 및 프로세스 정보를 실행하기 위한 버스(701)로의 접속성을 갖는다. 프로세서(703)는 하나 이상의 프로세싱 코어를 포함할 수 있고, 각각의 코어는 독립적으로 수행되도록 구성된다. 멀티-코어 프로세서는 단일의 물리적 패키지 내의 멀티프로세싱을 가능화한다. 멀티-코어 프로세서의 예는 2개, 4개, 8개 또는 더 많은 수의 프로세싱 코어를 포함한다. 대안적으로 또는 게다가, 프로세서(703)는 명령, 파이프라이닝 및 멀티스레딩의 독립적인 실행을 가능화하기 위해 버스(701)를 경유하여 직렬로 구성된 하나 이상의 마이크로프로세서를 포함할 수 있다. 프로세서(703)는 하나 이상의 디지털 신호 프로세서(DSP)(707) 또는 하나 이상의 애플리케이션 특정화 집적 회로(ASIC)(709)와 같은 특정 프로세싱 기능 및 작업을 수행하기 위해 하나 이상의 특정화된 구성 요소를 또한 수반할 수 있다. DSP(707)는 통상적으로 프로세서(703)에 독립적으로 실시간으로 실세계 신호(예를 들어, 소리)를 프로세싱하도록 구성된다. 유사하게는, ASIC(709)은 범용 프로세서에 의해 용이하게 수행되지 않는 특정화된 기능을 수행하도록 구성될 수 있다. 본 명세서에 설명된 본 발명의 기능을 수행하는 것을 지원하기 위한 다른 특정화된 구성 요소는 하나 이상의 필드 프로그램 가능 게이트 어레이(FPGA)(도시 생략), 하나 이상의 제어기(도시 생략) 또는 하나 이상의 다른 특정 용도 컴퓨터 칩을 포함한다.
프로세서(703) 및 수반하는 구성 요소는 버스(701)를 경유하여 메모리(705)로의 접속성을 갖는다. 메모리(705)는 실행될 때 네비게이션 정보를 제시하는 사용자 인터페이스를 제공하도록 본 명세서에 설명된 본 발명의 단계를 수행하는 실행 가능한 명령을 저장하기 위한 동적 메모리(예를 들어, RAM, 자기 디스크, 기록 가능한 자기 디스크 등) 및 정적 메모리(예를 들어, ROM, CD-ROM 등)의 모두를 포함한다. 메모리(705)는 본 발명의 단계의 실행과 연관되거나 그에 의해 발생된 데이터를 또한 저장한다.
도 8은 일 실시예에 따라 도 1의 시스템 내에서 동작하는 것이 가능한 통신을 위한 모바일 단말(예를 들어, 핸드셋)의 예시적인 구성 요소의 다이어그램이다. 몇몇 실시예에서, 모바일 단말(800) 또는 그 부분은 네비게이션 정보를 제시하는 사용자 인터페이스를 제공하는 하나 이상의 단계를 수행하기 위한 수단을 구성한다. 일반적으로, 무선 수신기는 프론트엔드 및 백엔드 특성의 견지에서 종종 규정된다. 수신기의 프론트엔드는 모든 무선 주파수(RF) 회로를 포함하고, 반면에 백엔드는 모든 기저대역 프로세싱 회로를 포함한다. 본 출원에 사용될 때, 용어 "회로"는 (1) 하드웨어 전용 구현예(단지 아날로그 및/또는 디지털 회로의 구현과 같은) 및 (2) 회로와 소프트웨어(및/또는 펌웨어)의 조합[예를 들어, 특정 환경에서 적용 가능한 바와 같이, 함께 동작하여 휴대폰 또는 서버와 같은 장치가 다양한 기능을 수행하게 하는 디지털 신호 프로세서(들), 소프트웨어 및 메모리(들)를 포함하는 프로세서(들)의 조합]을 칭한다. 이 "회로"의 정의는 임의의 청구범위를 포함하는 본 출원에서 이 용어의 모든 사용에 적용된다. 다른 예로서, 본 명세서에 사용되는 바와 같이 그리고 특정 환경에서 적용 가능하면, 용어 "회로"는 또한 단지 프로세서(또는 다중 프로세서) 및 그(또는 이들의) 수반하는 소프트웨어 및/또는 펌웨어의 구현을 커버할 수 있다. 용어 "회로"는 특정 환경에 적용 가능한 경우, 예를 들어 기저대역 집적 회로 또는 이동 전화 내의 애플리케이션 프로세서 집적 회로 또는 셀룰러 네트워크 디바이스 또는 다른 네트워크 디바이스 내의 유사 집적 회로를 커버한다.
전화기의 적절한 내부 구성 요소는 메인 제어 유닛(MCU)(803), 디지털 신호 프로세서(DSP)(805) 및 마이크로폰 이득 제어 유닛 및 스피커 이득 제어 유닛을 포함하는 수신기/송신기 유닛을 포함한다. 메인 디스플레이 유닛(807)이 네비게이션 정보를 제시하는 사용자 인터페이스를 제공하는 단계를 수행하거나 지원하는 다양한 애플리케이션 및 모바일 단말 기능의 지원하에 사용자에 디스플레이를 제공한다. 디스플레이(807)는 모바일 단말(예를 들어, 이동 전화)의 사용자 인터페이스의 적어도 일부를 표시하도록 구성된 디스플레이 회로를 포함한다. 부가적으로, 디스플레이(807) 및 디스플레이 회로는 모바일 단말의 적어도 일부의 기능의 사용자 제어를 용이하게 하도록 구성된다. 오디오 기능 회로(809)는 마이크로폰(811) 및 마이크로폰(811)으로부터 음성 신호 출력을 증폭하는 마이크로폰 증폭기를 포함한다. 마이크로폰(811)으로부터의 증폭된 음성 신호 출력은 코더/디코더(CODEC)(813)로 공급된다.
무선 섹션(815)은 안테나(817)를 경유하여 모바일 통신 시스템 내에 포함된 기지국과 통신하기 위해 전력을 증폭하고 주파수를 변환한다. 전력 증폭기(PA)(819) 및 송신기/변조 회로는 MCU(803)에 작동적으로 응답하고, PA(819)로부터의 출력은 당 기술 분야에 공지된 바와 같이 듀플렉서(821) 또는 순환기 또는 안테나 스위치에 결합된다. PA(819)는 배터리 인터페이스 및 전력 제어 유닛(820)에 또한 결합된다.
사용시에, 모바일 단말(801)의 사용자는 마이크로폰(811) 내에 말하고, 그 또는 그녀의 음성은 임의의 검출된 배경 노이즈와 함께 아날로그 전압으로 변환된다. 아날로그 전압은 이어서 아날로그 디지털 컨버터(ADC)(823)를 통해 디지털 신호로 변환된다. 제어 유닛(803)은 음성 인코딩, 채널 인코딩, 암호화 및 인터리빙과 같은 그 내부의 프로세싱을 위해 DSP(805) 내로 디지털 신호를 라우팅한다. 일 실시예에서, 프로세싱된 음성 신호는 셀룰러 전송 프로토콜, 예를 들어 글로벌 진화(EDGE), 범용 패킷 무선 서비스(GPRS), 모바일 통신을 위한 글로벌 시스템(GSM), 인터넷 프로토콜 멀티미디어 서브시스템(IMS), 범용 이동 통신 시스템(UMTS) 등, 분만 아니라 임의의 다른 적합한 무선 모뎀, 예를 들어 마이크로파 액세스(WiMAX), 장기 진화(LTE) 네트워크, 코드 분할 다중 접속(CDMA), 광대역 코드 분할 다중 접속(WCDMA), 무선 충실도(WiFi) 위성 등을 사용하여 별도로 도시되지 않는 유닛에 의해 인코딩된다.
인코딩된 신호는 위상 및 진폭 왜곡과 같은 공중을 통한 전송 중에 발생하는 임의의 주파수 의존성 손상의 보상을 위한 균등화기(825)로 라우팅된다. 비트 스트림을 균등화한 후에, 변조기(827)는 신호를 RF 인터페이스(829) 내에 생성된 RF 신호와 조합한다. 변조기(827)는 주파수 또는 위상 변조를 경유하여 사인파를 생성한다. 전송을 위한 신호를 준비하기 위해, 상향 컨버터(831)는 변조기(827)로부터의 사인파 출력을 합성기(833)에 의해 생성된 다른 사인파와 조합하여 원하는 전송 주파수를 성취한다. 신호는 이어서 적절한 전력 레벨로 신호를 증가시키기 위해 PA(819)를 통해 송신된다. 실용적인 시스템에서, PA(819)는 그 이득이 네트워크 기지국으로부터 수신된 정보로부터 DSP(805)에 의해 제어되는 가변 이득 증폭기로서 작용한다. 신호는 이어서 듀플렉서(821) 내에서 필터링되고 선택적으로 안테나 커플러(835)로 송신되어 임피던스를 정합하여 최대 전력 전송을 제공한다. 마지막으로, 신호는 안테나(817)를 경유하여 로컬 기지국으로 전송된다. 자동 이득 제어(AGC)가 수신기의 최종 스테이지의 이득을 제어하도록 공급될 수 있다. 신호는 공중 전화 교환망(PSTN) 또는 다른 전화 네트워크에 접속된 다른 휴대폰, 다른 이동 전화기 또는 지상 라인일 수 있는 원격 전화기로 거기로부터 포워딩될 수 있다.
모바일 단말(801)에 전송된 음성 신호는 안테나(817)를 경유하여 수신되고, 저노이즈 증폭기(LNA)(837)에 의해 즉시 증폭된다. 하향 컨버터(839)는 캐리어 주파수를 낮추고, 반면 복조기(841)는 RF를 제거하여 단지 디지털 비트 스트림만을 남겨둔다. 신호는 이어서 균등화기(825)를 통해 진행하고, DSP(805)에 의해 프로세싱된다. 디지털 아날로그 컨버터(DAC)(843)는 신호를 변환하고 최종 출력은 중앙 프로세싱 유닛(CPU)(도시 생략)으로서 구현될 수 있는 메인 제어 유닛(MCU)(803)의 제어 하에서 스피커(845)를 통해 사용자에 전송된다.
MCU(803)는 키보드(847)로부터 입력 신호를 포함하는 다양한 신호를 수신한다. 키보드(847) 및/또는 MCU(803)는 다른 사용자 입력 구성 요소[예를 들어, 마이크로폰(811)]와 조합하여 사용자 유닛을 관리하기 위한 사용자 인터페이스 회로를 포함한다. MCU(803)는 네비게이션 정보를 제시하는 사용자 인터페이스를 제공하기 위해 모바일 단말(801)의 적어도 일부 기능의 사용자 제어를 용이하게 하기 위해 사용자 인터페이스 소프트웨어를 실행한다. MCU(803)는 또한 디스플레이 명령 및 스위치 명령을 디스플레이(807)에 그리고 음성 출력 스위칭 제어기에 각각 전달한다. 또한, MCU(803)는 DSP(805)와 정보를 교환하고, 선택적으로 통합된 SIM 카드(849) 및 메모리(851)에 액세스할 수 있다. 게다가, MCU(803)는 단말의 요구된 다양한 제어 기능을 실행한다. DSP(805)는 구현예에 따라, 음성 신호에 임의의 다양한 통상의 디지털 프로세싱 기능을 수행할 수 있다. 부가적으로, DSP(805)는 마이크로폰(811)에 의해 검출된 신호로부터 로컬 환경의 배경 노이즈 레벨을 결정하고, 모바일 단말(801)의 사용자의 자연적인 경향을 보상하도록 선택된 레벨로 마이크로폰(811)의 이득을 설정한다.
CODEC(813)은 ADC(823) 및 DAC(843)를 포함한다. 메모리(851)는 호 착신 톤 데이터를 포함하는 다양한 데이터를 저장하고 예를 들어 글로벌 인터넷을 경유하여 수신된 음악 데이터를 포함하는 다른 데이터를 저장하는 것이 가능하다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, 레지스터 또는 당 기술 분야에 공지된 임의의 다른 형태의 기록 가능한 저장 매체에 상주할 수 있다. 메모리 디바이스(851)는 이들에 한정되는 것은 아니지만, 단일 메모리, CD, DVD, ROM, RAM, EEPROM, 광학 저장 장치 또는 디지털 데이터를 저장하는 것이 가능한 임의의 다른 비휘발성 저장 매체일 수 있다.
선택적으로 통합된 SIM 카드(849)는 예를 들어 휴대폰 번호, 캐리어 공급 서비스, 가입 상세 및 보안 정보와 같은 중요한 정보를 전달한다. SIM 카드(849)는 주로 무선 네트워크 상의 모바일 단말(801)을 식별하는 기능을 한다. 카드(849)는 개인 전화 번호 레지스트리, 텍스트 메시지 및 사용자 특정 모바일 단말 세팅을 저장하기 위한 메모리를 또한 포함한다.
본 발명이 다수의 실시예 및 구현예와 연계하여 설명되었지만, 본 발명은 이와 같이 한정되는 것이 아니라, 첨부된 청구범위의 범위 내에 있는 다양한 명백한 수정 및 등가의 배열을 커버한다. 본 발명의 특징은 청구범위 중에 특정 실시예에 표현되지만, 이들 특징은 임의의 조합 및 순서로 배열될 수 있다는 것이 고려된다.

Claims (39)

  1. 프로세서에 의해 수행되는 3차원 맵 객체 변환 방법으로서,
    하나 이상의 3차원 맵 객체를 표현하는 이미지를 프로세싱하는 단계와,
    상기 하나 이상의 3차원 맵 객체 중 하나의 맵 객체 상의 지점을 선택하는 단계와,
    네비게이션 엘리먼트(a navigational element)를 표현하기 위해, 상기 선택된 지점에서 상기 하나의 맵 객체의 변환을 적어도 부분적으로 야기하도록 결정하는 단계와,
    모바일 디바이스의 그래픽 사용자 인터페이스를 사용하여, 상기 변환된 하나의 맵 객체의 제시(presentation)를 적어도 부분적으로 야기하도록 결정하는 단계를 포함하는
    3차원 맵 객체 변환 방법.
  2. 제 1 항에 있어서,
    상기 하나의 맵 객체의 변환을 야기하도록 결정하는 단계 이전에,
    관심 유형의 지점의 탐색을 위한 요청을 프로세싱하는 단계와,
    상기 관심 유형의 지점이 상기 하나의 맵 객체와 연관된다는 것을 결정하는 단계를 더 포함하고,
    상기 네비게이션 엘리먼트는 상기 관심 유형의 지점과 연관된 3차원 아이콘을 포함하는
    3차원 맵 객체 변환 방법.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 하나의 맵 객체는 텍스처와 연관되고,
    상기 방법은, 상기 변환된 하나의 맵 객체의 제시를 야기하도록 결정하는 단계 이전에,
    상기 텍스처와 상기 네비게이션 엘리먼트를 연관시키도록 결정하는 단계를 더 포함하는
    3차원 맵 객체 변환 방법.
  4. 제 3 항에 있어서,
    적어도 부분적으로, 상기 모바일 디바이스, 상기 모바일 디바이스의 적어도 하나의 사용자, 하나 이상의 다른 디바이스, 상기 하나 이상의 다른 디바이스의 적어도 하나의 다른 사용자 또는 이들의 조합과 연관된 소셜 프레즌스 정보(social presence information)의 결정에 기초하는 적어도 하나의 결과를 프로세싱하는 단계와,
    적어도 부분적으로, 상기 텍스처, 상기 하나의 맵 객체, 상기 네비게이션 엘리먼트 또는 이들의 조합의 적어도 일부로, 상기 소셜 프레즌스 정보의 표현을 야기하도록 결정하는 단계를 더 포함하는
    3차원 맵 객체 변환 방법.
  5. 제 1 항 또는 제 2 항에 있어서,
    상기 이미지는 물리적 환경을 표현하고,
    상기 방법은, 상기 변환된 하나의 맵 객체의 제시를 야기하도록 결정하는 단계 이전에,
    상기 물리적 환경을 상기 하나의 맵 객체와 연관시키도록 결정하는 단계를 더 포함하는
    3차원 맵 객체 변환 방법.
  6. 제 1 항 또는 제 2 항에 있어서,
    상기 표현된 네비게이션 엘리먼트는 상기 변환된 하나의 맵 객체의 부분으로서 상기 하나의 맵 객체로부터 돌출하고(protrude),
    상기 방법은,
    상기 돌출하는 표현된 네비게이션 엘리먼트의 애니메이팅(animating)을 개시하도록 결정하는 단계를 더 포함하는
    3차원 맵 객체 변환 방법.
  7. 제 1 항 또는 제 2 항에 있어서,
    상기 하나의 맵 객체의 변환을 야기하도록 결정하는 단계 이전에, 위치를 지정하는 입력을 프로세싱하는 단계를 더 포함하고,
    상기 네비게이션 엘리먼트는 상기 위치를 향한 방향 지시기(a directional indicator)를 포함하는
    3차원 맵 객체 변환 방법.
  8. 제 1 항 또는 제 2 항에 있어서,
    다른 맵 객체 상의 다른 지점의 적어도 하나의 선택을 프로세싱하는 단계와,
    다른 네비게이션 엘리먼트를 표현하기 위해 상기 선택된 다른 지점에서 상기 다른 맵 객체의 변환을 개시하도록 결정하는 단계와,
    상기 그래픽 사용자 인터페이스를 사용하여 상기 다른 변환된 맵 객체의 제시를 적어도 부분적으로 야기하는 단계를 더 포함하는
    3차원 맵 객체 변환 방법.
  9. 제 8 항에 있어서,
    상기 다른 변환된 맵 객체의 제시를 야기하는 단계는, 상기 하나의 맵 객체와 상기 다른 맵 객체 사이의 적어도 하나의 네비게이션 경로로서, 상기 하나의 맵 객체와 연관된 네비게이션 엘리먼트, 상기 다른 맵 객체와 연관된 다른 네비게이션 엘리먼트 또는 이들의 조합의 제시를 적어도 부분적으로 야기하는 단계를 더 포함하는
    3차원 맵 객체 변환 방법.
  10. 제 9 항에 있어서,
    상기 네비게이션 엘리먼트, 상기 다른 네비게이션 엘리먼트 또는 이들의 조합은, 상기 하나의 맵 객체, 상기 다른 맵 객체 또는 이들의 조합과 연관되는 하나 이상의 도어(doors), 하나 이상의 개구(openings), 하나 이상의 포탈(portals), 하나 이상의 경로 또는 이들의 조합에 대한 각각의 근접도에 기초하여 선택되는
    3차원 맵 객체 변환 방법.
  11. 제 1 항 또는 제 2 항에 있어서,
    상기 하나의 맵 객체의 변환을 야기하도록 결정하는 단계 이전에, 상기 하나의 맵 객체, 상기 네비게이션 엘리먼트, 또는 이들의 조합을 수동으로 변환하기 위한 입력을 사용자로부터 수신하는 단계를 더 포함하고,
    상기 하나의 맵 객체의 변환은 적어도 부분적으로 상기 입력에 기초하는
    3차원 맵 객체 변환 방법.
  12. 제 11 항에 있어서,
    상기 입력은 상기 모바일 디바이스의 하나 이상의 움직임으로서 지정되는
    3차원 맵 객체 변환 방법.
  13. 제 12 항에 있어서,
    상기 하나 이상의 움직임은 3차원 공간에서 지정되는
    3차원 맵 객체 변환 방법.
  14. 제 11 항에 있어서,
    상기 변환된 하나의 맵 객체와 연관하여 사용자의 그래픽 식별자의 제시를 적어도 부분적으로 야기하도록 결정하는 단계를 더 포함하는
    3차원 맵 객체 변환 방법.
  15. 제 11 항에 있어서,
    하나 이상의 사용자의 그룹으로의 상기 변환된 하나의 맵 객체의 제시에 대한 액세스를 제한하도록 결정하는 단계를 더 포함하는
    3차원 맵 객체 변환 방법.
  16. 3차원 맵 객체를 변환하는 장치로서,
    적어도 하나의 프로세서와,
    하나 이상의 프로그램을 위한 컴퓨터 프로그램 코드를 포함하는 적어도 하나의 메모리를 포함하고,
    상기 적어도 하나의 메모리 및 상기 컴퓨터 프로그램 코드는, 상기 적어도 하나의 프로세서를 이용하여 상기 장치로 하여금 적어도,
    하나 이상의 3차원 맵 객체를 표현하는 이미지를 프로세싱하고,
    상기 하나 이상의 3차원 맵 객체 중 하나의 맵 객체 상의 지점을 선택하고,
    네비게이션 엘리먼트를 표현하기 위해 상기 선택된 지점에서 상기 하나의 맵 객체의 변환을 적어도 부분적으로 야기하도록 결정하고,
    모바일 디바이스의 그래픽 사용자 인터페이스를 사용하여, 상기 변환된 하나의 맵 객체의 제시를 적어도 부분적으로 야기하도록 결정하는 동작을 수행하게 하도록 구성되는
    3차원 맵 객체 변환 장치.
  17. 제 16 항에 있어서,
    상기 장치는
    관심 유형의 지점의 탐색을 위한 요청을 프로세싱하고,
    상기 관심 유형의 지점이 상기 하나의 맵 객체와 연관되는 것을 결정하게 하고,
    상기 네비게이션 엘리먼트는 상기 관심 유형의 지점과 연관된 3차원 아이콘을 포함하는
    3차원 맵 객체 변환 장치.
  18. 제 16 항 또는 제 17 항에 있어서,
    상기 하나의 맵 객체는 텍스처와 연관되고,
    상기 장치는 또한
    상기 텍스처와 상기 네비게이션 엘리먼트를 연관시키도록 결정하게 하는
    3차원 맵 객체 변환 장치.
  19. 제 18 항에 있어서,
    상기 장치는 또한,
    적어도 부분적으로, 상기 모바일 디바이스, 상기 모바일 디바이스의 적어도 하나의 사용자, 하나 이상의 다른 디바이스, 상기 하나 이상의 다른 디바이스의 적어도 하나의 다른 사용자 또는 이들의 조합과 연관된 소셜 프레즌스 정보의 결정, 에 기초하는 적어도 하나의 결과를 프로세싱하고,
    적어도 부분적으로, 상기 텍스처, 상기 하나의 맵 객체, 상기 네비게이션 엘리먼트 또는 이들의 조합의 적어도 일부로, 상기 소셜 프레즌스 정보의 표현을 야기하게 결정하도록 하는
    3차원 맵 객체 변환 장치.
  20. 제 16 항 또는 제 17 항에 있어서,
    상기 이미지는 물리적 환경을 표현하고,
    상기 장치는 또한
    상기 물리적 환경을 상기 하나의 맵 객체와 연관시키도록 결정하게 하는
    3차원 맵 객체 변환 장치.
  21. 제 16 항 또는 제 17 항에 있어서,
    상기 표현된 네비게이션 엘리먼트는 상기 변환된 하나의 맵 객체의 부분으로서 상기 하나의 맵 객체로부터 돌출하고,
    상기 장치는
    상기 돌출하는 표현된 네비게이션 엘리먼트의 애니메이팅을 개시하도록 결정하게 하는
    3차원 맵 객체 변환 장치.
  22. 제 16 항 또는 제 17 항에 있어서,
    상기 장치는 또한
    위치를 지정하는 입력을 프로세싱하게 하고,
    상기 네비게이션 엘리먼트는 상기 위치를 향한 방향 지시기를 포함하는
    3차원 맵 객체 변환 장치.
  23. 제 16 항 또는 제 17 항에 있어서,
    상기 장치는 또한
    다른 맵 객체 상의 다른 지점의 적어도 하나의 선택을 프로세싱하고,
    다른 네비게이션 엘리먼트를 표현하기 위해 상기 선택된 다른 지점에서 상기 다른 맵 객체의 변환을 개시하도록 결정하고,
    상기 그래픽 사용자 인터페이스를 사용하여 상기 다른 변환된 맵 객체의 제시를 적어도 부분적으로 야기하게 하는
    3차원 맵 객체 변환 장치.
  24. 제 23 항에 있어서,
    상기 장치는 또한
    상기 하나의 맵 객체와 상기 다른 맵 객체 사이의 적어도 하나의 네비게이션 경로로서, 상기 하나의 맵 객체와 연관된 네비게이션 엘리먼트, 상기 다른 맵 객체와 연관된 다른 네비게이션 엘리먼트 또는 이들의 조합의 제시를 적어도 부분적으로 야기하게 하는
    3차원 맵 객체 변환 장치.
  25. 제 24 항에 있어서,
    상기 네비게이션 엘리먼트, 상기 다른 네비게이션 엘리먼트 또는 이들의 조합은, 상기 하나의 맵 객체, 상기 다른 맵 객체 또는 이들의 조합과 연관된 하나 이상의 도어, 하나 이상의 개구, 하나 이상의 포탈, 하나 이상의 경로 또는 이들의 조합에 대한 각각의 근접도에 기초하여 선택되는
    3차원 맵 객체 변환 장치.
  26. 제 16 항 또는 제 17 항에 있어서,
    상기 장치는 또한
    상기 하나의 맵 객체, 상기 네비게이션 엘리먼트, 또는 이들의 조합을 수동으로 변환하기 위한 입력을 사용자로부터 수신하게 하고,
    상기 하나의 맵 객체의 변환은 적어도 부분적으로 상기 입력에 기초하는
    3차원 맵 객체 변환 장치.
  27. 제 26 항에 있어서,
    상기 입력은 상기 모바일 디바이스의 하나 이상의 움직임으로서 지정되는
    3차원 맵 객체 변환 장치.
  28. 제 27 항에 있어서,
    상기 하나 이상의 움직임은 3차원 공간에서 지정되는
    3차원 맵 객체 변환 장치.
  29. 제 26 항에 있어서,
    상기 장치는 또한
    상기 변환된 하나의 맵 객체와 연관하여 사용자의 그래픽 식별자의 제시를 적어도 부분적으로 야기하도록 결정하게 하는
    3차원 맵 객체 변환 장치.
  30. 제 26 항에 있어서,
    상기 장치는 또한
    하나 이상의 사용자의 그룹으로의 상기 변환된 하나의 맵 객체의 제시에 대한 액세스를 제한하도록 결정하게 하는
    3차원 맵 객체 변환 장치.
  31. 제 16 항 또는 제 17 항에 있어서,
    상기 장치는 이동 전화이고,
    상기 이동 전화는,
    디스플레이의 사용을 통해 상기 이동 전화의 적어도 일부의 기능에 대한 사용자 제어를 가능하게 하며 사용자 입력에 응답하도록 구성된 사용자 인터페이스 회로 및 사용자 인터페이스 소프트웨어와,
    상기 이동 전화의 사용자 인터페이스의 적어도 일부를 디스플레이하며 상기 이동 전화의 적어도 일부의 기능에 대한 사용자 제어를 가능하게 하도록 구성되는 디스플레이 및 디스플레이 회로를 더 포함하는
    3차원 맵 객체 변환 장치.
  32. 3차원 맵 객체를 변환하는 방법을 수행하게 하는 명령어들을 포함하는 컴퓨터 판독 가능 저장 매체로서,
    상기 명령어들은 하나 이상의 프로세서에 의해 실행될 때 장치로 하여금 적어도 상기 방법을 수행하도록 하고,
    상기 방법은,
    하나 이상의 3차원 맵 객체를 표현하는 이미지를 프로세싱하는 단계와,
    상기 하나 이상의 3차원 맵 객체 중 하나의 맵 객체 상의 지점을 선택하는 단계와,
    네비게이션 엘리먼트를 표현하기 위해, 상기 선택된 지점에서 상기 하나의 맵 객체의 변환을 적어도 부분적으로 야기하도록 결정하는 단계와,
    모바일 디바이스의 그래픽 사용자 인터페이스를 사용하여, 상기 변환된 하나의 맵 객체의 제시를 적어도 부분적으로 야기하도록 결정하는 단계를 포함하는
    컴퓨터 판독 가능 저장 매체.
  33. 3차원 맵 객체를 변환하는 장치로서,
    하나 이상의 3차원 맵 객체를 표현하는 이미지를 프로세싱하는 수단과,
    상기 하나 이상의 3차원 맵 객체 중 하나의 맵 객체 상의 지점을 선택하는 수단과,
    네비게이션 엘리먼트를 표현하기 위해, 상기 선택된 지점에서 상기 하나의 맵 객체의 변환을 적어도 부분적으로 야기하도록 결정하는 수단과,
    모바일 디바이스의 그래픽 사용자 인터페이스를 사용하여, 상기 변환된 하나의 맵 객체의 제시를 적어도 부분적으로 야기하도록 결정하는 수단을 포함하는
    3차원 맵 객체 변환 장치.
  34. 제 33 항에 있어서,
    상기 장치는 이동 전화이고,
    상기 이동 전화는,
    디스플레이의 사용을 통해 상기 이동 전화의 적어도 일부의 기능에 대한 사용자 제어를 가능하게 하며 사용자 입력에 응답하도록 구성된 사용자 인터페이스 회로 및 사용자 인터페이스 소프트웨어와,
    상기 이동 전화의 사용자 인터페이스의 적어도 일부를 디스플레이하며 상기 이동 전화의 적어도 일부의 기능에 대한 사용자 제어를 가능하게 하도록 구성되는 디스플레이 및 디스플레이 회로를 더 포함하는
    3차원 맵 객체 변환 장치.
  35. 삭제
  36. 삭제
  37. 삭제
  38. 삭제
  39. 삭제
KR1020127017109A 2009-12-01 2010-12-01 네비게이션 정보를 제시하기 위해 3차원 맵 객체를 변환하는 방법 및 장치 KR101415402B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/628,632 2009-12-01
US12/628,632 US8566020B2 (en) 2009-12-01 2009-12-01 Method and apparatus for transforming three-dimensional map objects to present navigation information
PCT/FI2010/050984 WO2011067468A2 (en) 2009-12-01 2010-12-01 Method and apparatus for transforming three-dimensional map objects to present navigation information

Publications (2)

Publication Number Publication Date
KR20120098858A KR20120098858A (ko) 2012-09-05
KR101415402B1 true KR101415402B1 (ko) 2014-07-04

Family

ID=44069486

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020127017109A KR101415402B1 (ko) 2009-12-01 2010-12-01 네비게이션 정보를 제시하기 위해 3차원 맵 객체를 변환하는 방법 및 장치

Country Status (6)

Country Link
US (1) US8566020B2 (ko)
EP (1) EP2507694A4 (ko)
KR (1) KR101415402B1 (ko)
CN (1) CN102741797B (ko)
CA (1) CA2782277C (ko)
WO (1) WO2011067468A2 (ko)

Families Citing this family (55)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011138011A (ja) * 2009-12-28 2011-07-14 Sony Corp 情報処理装置、プログラム、情報処理方法および地図データ
JP5652097B2 (ja) * 2010-10-01 2015-01-14 ソニー株式会社 画像処理装置、プログラム及び画像処理方法
US8903426B2 (en) * 2011-03-01 2014-12-02 Nexstar Broadcasting, Inc. Geotargeted news and advertisement delivery system
JP5331146B2 (ja) * 2011-03-22 2013-10-30 株式会社東芝 単眼ヘッドマウントディスプレイ
GB2489685B (en) * 2011-03-31 2017-01-25 Geovs Ltd A Display System
US8837813B2 (en) * 2011-07-01 2014-09-16 Sharp Laboratories Of America, Inc. Mobile three dimensional imaging system
US8683008B1 (en) 2011-08-04 2014-03-25 Google Inc. Management of pre-fetched mapping data incorporating user-specified locations
US8621394B2 (en) 2011-08-26 2013-12-31 Nokia Corporation Method, apparatus and computer program product for displaying items on multiple floors in multi-level maps
US8280414B1 (en) 2011-09-26 2012-10-02 Google Inc. Map tile data pre-fetching based on mobile device generated event analysis
US8274524B1 (en) 2011-09-28 2012-09-25 Google Inc. Map rendering using interpolation of style parameters across zoom levels
US9275374B1 (en) 2011-11-15 2016-03-01 Google Inc. Method and apparatus for pre-fetching place page data based upon analysis of user activities
US8711181B1 (en) 2011-11-16 2014-04-29 Google Inc. Pre-fetching map data using variable map tile radius
US8886715B1 (en) 2011-11-16 2014-11-11 Google Inc. Dynamically determining a tile budget when pre-fetching data in a client device
CN102750933B (zh) * 2011-11-16 2016-08-17 新奥特(北京)视频技术有限公司 一种色彩三维示波器中三维示波模型的动态显示方法
US9063951B1 (en) 2011-11-16 2015-06-23 Google Inc. Pre-fetching map data based on a tile budget
US9305107B2 (en) 2011-12-08 2016-04-05 Google Inc. Method and apparatus for pre-fetching place page data for subsequent display on a mobile computing device
US9197713B2 (en) * 2011-12-09 2015-11-24 Google Inc. Method and apparatus for pre-fetching remote resources for subsequent display on a mobile computing device
US8803920B2 (en) 2011-12-12 2014-08-12 Google Inc. Pre-fetching map tile data along a route
US9389088B2 (en) 2011-12-12 2016-07-12 Google Inc. Method of pre-fetching map data for rendering and offline routing
US9037411B2 (en) * 2012-05-11 2015-05-19 Honeywell International Inc. Systems and methods for landmark selection for navigation
US9418672B2 (en) 2012-06-05 2016-08-16 Apple Inc. Navigation application with adaptive instruction text
US10176633B2 (en) 2012-06-05 2019-01-08 Apple Inc. Integrated mapping and navigation application
US9997069B2 (en) 2012-06-05 2018-06-12 Apple Inc. Context-aware voice guidance
US9482296B2 (en) 2012-06-05 2016-11-01 Apple Inc. Rendering road signs during navigation
US9886794B2 (en) 2012-06-05 2018-02-06 Apple Inc. Problem reporting in maps
US9159153B2 (en) 2012-06-05 2015-10-13 Apple Inc. Method, system and apparatus for providing visual feedback of a map view change
US9052197B2 (en) 2012-06-05 2015-06-09 Apple Inc. Providing navigation instructions while device is in locked mode
US10156455B2 (en) 2012-06-05 2018-12-18 Apple Inc. Context-aware voice guidance
US8983778B2 (en) 2012-06-05 2015-03-17 Apple Inc. Generation of intersection information by a mapping service
US9147286B2 (en) * 2012-06-06 2015-09-29 Apple Inc. Non-static 3D map views
US9396563B2 (en) 2012-06-06 2016-07-19 Apple Inc. Constructing road geometry
US9201974B2 (en) 2012-08-31 2015-12-01 Nokia Technologies Oy Method and apparatus for incorporating media elements from content items in location-based viewing
US8928666B2 (en) 2012-10-11 2015-01-06 Google Inc. Navigating visual data associated with a point of interest
CN103162693A (zh) * 2013-03-12 2013-06-19 深圳市凯立德科技股份有限公司 一种车道信息显示方法及导航设备
US9454848B2 (en) * 2013-05-20 2016-09-27 Nokia Technologies Oy Image enhancement using a multi-dimensional model
CN103440255A (zh) * 2013-07-26 2013-12-11 聊城市公安局 地图显示方法及装置
CN104748738B (zh) * 2013-12-31 2018-06-15 深圳先进技术研究院 室内定位导航方法和系统
JP6189774B2 (ja) * 2014-03-19 2017-08-30 株式会社ジオ技術研究所 3次元地図表示システム
US10122992B2 (en) * 2014-05-22 2018-11-06 Disney Enterprises, Inc. Parallax based monoscopic rendering
US9528845B2 (en) * 2014-08-27 2016-12-27 Robert Bosch Gmbh Occlusion-reduced 3D routing for 3D city maps
EP3188132B1 (en) * 2014-08-27 2021-05-05 Sony Corporation Display control device, display control method, and program
US9631932B2 (en) * 2015-06-05 2017-04-25 Nokia Technologies Oy Crowd sourced interaction of browsing behavior in a 3D map
US10366528B2 (en) * 2015-12-08 2019-07-30 Amazon Technologies, Inc. Interactive points of interest for 3D-representations
US10217283B2 (en) * 2015-12-17 2019-02-26 Google Llc Navigation through multidimensional images spaces
CN106815678A (zh) * 2016-12-16 2017-06-09 武汉微诚科技股份有限公司 基于增强现实和虚拟现实技术的资产管控方法及系统
TWI616644B (zh) * 2016-12-20 2018-03-01 台灣國際航電股份有限公司 導航應用三維城市圖資編譯方法
US10288432B1 (en) * 2017-06-15 2019-05-14 Symantec Corporation Systems and methods for guiding users to network-enabled devices
US10813169B2 (en) 2018-03-22 2020-10-20 GoTenna, Inc. Mesh network deployment kit
CN109685901B (zh) * 2018-12-10 2022-07-22 西北工业大学 一种军标符号标绘中动态箭标绘制方法
US20210373649A1 (en) * 2020-04-01 2021-12-02 Rajesh Dayal Moorjani Attaching Extended Reality (XR) Content To Physical Points Of Interest
US11725959B2 (en) * 2020-11-13 2023-08-15 Nvidia Corporation Automatic graphical content recognition for vehicle applications
WO2022180433A1 (en) * 2021-02-27 2022-09-01 Nikjooy Golriz Portable device for experimental modal analysis of static-dynamic structure of constructions
US11792499B2 (en) 2021-10-21 2023-10-17 Raytheon Company Time-delay to enforce data capture and transmission compliance in real and near real time video
US11696011B2 (en) * 2021-10-21 2023-07-04 Raytheon Company Predictive field-of-view (FOV) and cueing to enforce data capture and transmission compliance in real and near real time video
US11700448B1 (en) 2022-04-29 2023-07-11 Raytheon Company Computer/human generation, validation and use of a ground truth map to enforce data capture and transmission compliance in real and near real time video of a local scene

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090082960A1 (en) 2007-09-26 2009-03-26 Xanavi Informatics Corporation Navigation system with enhanced display functions

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7116341B2 (en) * 2002-04-25 2006-10-03 Sony Corporation Information presentation apparatus and method in three-dimensional virtual space and computer program therefor
JP4715353B2 (ja) * 2005-07-19 2011-07-06 株式会社セガ 画像処理装置、描画方法および描画プログラム
NL1029724C1 (nl) * 2005-08-12 2005-10-17 Erwin Nikkels Altitude Ranking: het waarderen van data afhankelijk van de 'hoogte'.
US7808478B2 (en) * 2005-08-22 2010-10-05 Samsung Electronics Co., Ltd. Autonomous handheld device having a drawing tool
JP2007093661A (ja) * 2005-09-27 2007-04-12 Alpine Electronics Inc ナビゲーション装置及び地図表示装置
JP2007133041A (ja) * 2005-11-08 2007-05-31 Denso Corp 地図表示制御装置および地図表示制御プログラム
CN101583845B (zh) * 2007-01-10 2013-08-21 通腾科技股份有限公司 指示交通延迟的方法、其计算机程序以及导航系统
JP4577327B2 (ja) * 2007-04-09 2010-11-10 株式会社デンソー 地図表示制御装置および地図表示制御装置用のプログラム
US8531449B2 (en) * 2007-12-18 2013-09-10 Navteq B.V. System and method for producing multi-angle views of an object-of-interest from images in an image dataset
JP2009157053A (ja) * 2007-12-26 2009-07-16 Aisin Aw Co Ltd 立体地図表示ナビゲーション装置、立体地図表示システム及び立体地図表示プログラム
WO2009089129A1 (en) * 2008-01-04 2009-07-16 3M Innovative Properties Company Global camera path optimization
JP4994256B2 (ja) 2008-01-28 2012-08-08 株式会社ジオ技術研究所 経路案内データベースのデータ構造
US20090237328A1 (en) * 2008-03-20 2009-09-24 Motorola, Inc. Mobile virtual and augmented reality system
WO2009118911A1 (ja) 2008-03-28 2009-10-01 パイオニア株式会社 地図表示装置、ナビゲーション装置、生成方法、地図画像生成プログラム、およびコンピュータに読み取り可能な記録媒体
ITTO20080310A1 (it) 2008-04-22 2008-07-22 Geomondo S R L Applicativo di identificazione, geo-localizzazione e gestione di punti di interesse (poi)
WO2009132677A1 (en) 2008-05-02 2009-11-05 Tomtom International B.V. A navigation device and method for displaying map information
JP5196426B2 (ja) 2008-05-16 2013-05-15 アルパイン株式会社 ナビゲーション装置
JP2011524975A (ja) 2008-05-29 2011-09-08 トムトム インターナショナル ベスローテン フエンノートシャップ 可聴情報に関連する地図情報を変更するナビゲーション装置及び方法
CN102037325A (zh) 2008-07-31 2011-04-27 电子地图有限公司 用于以3d显示导航数据的计算机布置及方法
WO2010040384A1 (en) 2008-10-07 2010-04-15 Tomtom International B.V. Navigation apparatus having a three-dimensional display
KR20100050103A (ko) * 2008-11-05 2010-05-13 엘지전자 주식회사 맵 상에서의 3차원 개체 제어방법과 이를 이용한 이동 단말기
KR101695809B1 (ko) 2009-10-09 2017-01-13 엘지전자 주식회사 이동 단말기 및 그 제어방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090082960A1 (en) 2007-09-26 2009-03-26 Xanavi Informatics Corporation Navigation system with enhanced display functions

Also Published As

Publication number Publication date
EP2507694A2 (en) 2012-10-10
CN102741797B (zh) 2015-06-10
US20110130949A1 (en) 2011-06-02
CN102741797A (zh) 2012-10-17
KR20120098858A (ko) 2012-09-05
WO2011067468A2 (en) 2011-06-09
US8566020B2 (en) 2013-10-22
CA2782277A1 (en) 2011-06-09
WO2011067468A3 (en) 2011-07-28
CA2782277C (en) 2016-01-12
EP2507694A4 (en) 2014-06-18

Similar Documents

Publication Publication Date Title
KR101415402B1 (ko) 네비게이션 정보를 제시하기 위해 3차원 맵 객체를 변환하는 방법 및 장치
US20210023445A1 (en) Coordinating multiple virtual environments
US9870429B2 (en) Method and apparatus for web-based augmented reality application viewer
US20170228937A1 (en) Method and apparatus for rendering a location-based user interface
CN104769393B (zh) 用于从局部地图视图转变到增强现实视图的方法和装置
CN106133795B (zh) 用于对3d渲染应用中地理定位的媒体内容进行视觉化的方法和装置
RU2559741C2 (ru) Способ и устройство для аннотирования информации о точках интереса
US9558559B2 (en) Method and apparatus for determining camera location information and/or camera pose information according to a global coordinate system
US20170323478A1 (en) Method and apparatus for evaluating environmental structures for in-situ content augmentation
US9710554B2 (en) Methods, apparatuses and computer program products for grouping content in augmented reality
US9317133B2 (en) Method and apparatus for generating augmented reality content
US8812990B2 (en) Method and apparatus for presenting a first person world view of content
KR101750634B1 (ko) 증강 현실 뷰에 대한 레이아웃을 위한 방법 및 장치
JP6336993B2 (ja) ロケーション対応モバイルデバイスのためのリアルタイム経路提案
US20160239181A1 (en) Method and apparatus for providing model-centered rotation in a three-dimensional user interface
TW201447235A (zh) 用於決定位置偏移資訊之方法、設備和電腦可讀儲存媒體
TWI454663B (zh) 用於決定位置偏移資訊之方法、設備和電腦可讀儲存媒體

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170601

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180529

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190530

Year of fee payment: 6