KR20230129975A - 드라이빙 내비게이션의 명시적인 신호체계 가시성 단서들 - Google Patents

드라이빙 내비게이션의 명시적인 신호체계 가시성 단서들 Download PDF

Info

Publication number
KR20230129975A
KR20230129975A KR1020237019931A KR20237019931A KR20230129975A KR 20230129975 A KR20230129975 A KR 20230129975A KR 1020237019931 A KR1020237019931 A KR 1020237019931A KR 20237019931 A KR20237019931 A KR 20237019931A KR 20230129975 A KR20230129975 A KR 20230129975A
Authority
KR
South Korea
Prior art keywords
visual aid
visibility
navigation
visual
processors
Prior art date
Application number
KR1020237019931A
Other languages
English (en)
Inventor
브라이언 브루잉턴
매트 스트로스닉
Original Assignee
구글 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구글 엘엘씨 filed Critical 구글 엘엘씨
Publication of KR20230129975A publication Critical patent/KR20230129975A/ko

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3644Landmark guidance, e.g. using POIs or conspicuous other objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Navigation (AREA)

Abstract

내비게이션 동안 시각적 보조물(visual aid)들의 가시성 표시들과 함께 내비게이션 지시들을 제공하기 위해, 컴퓨팅 디바이스는 사용자로부터 시작 위치에서 목적지 위치까지의 내비게이션 길안내들에 대한 요청을 수신하고 요청에 응답하여 경로를 따라 시작 위치에서 목적지 위치까지 이동하기 위한 내비게이션 길안내들의 세트를 획득한다. 적어도 하나의 기동에 대해, 컴퓨팅 디바이스는 사용자가 기동에 대응하는 위치를 식별하는 데 도움이 되는 시각적 보조물을 식별하고, 시각적 보조물에 대한 가시성 양을 결정하며, 시각적 보조물에 대한 가시성 양에 대한 설명을 포함하도록 기동에 대응하는 내비게이션 길안내들의 세트에서 내비게이션 지시를 조정한다. 컴퓨팅 디바이스는 사용자에게 제시하기 위해 조정된 내비게이션 지시를 포함하는 내비게이션 길안내들의 세트를 제공한다.

Description

드라이빙 내비게이션의 명시적인 신호체계 가시성 단서들
본 발명은 내비게이션 길안내들에 관한 것으로, 특히 사용자들을 안내할 때 시각적 보조물(visual aid)들의 가시성에 대한 설명들을 제공하는 것에 관한 것이다.
본 명세서에 제공된 배경 설명은 일반적으로 본 개시의 맥락을 제시하기 위한 것이다. 현재 지명된 발명가들의 작업은 이 배경 섹션에 설명된 범위 내에서뿐만 아니라 출원 당시 선행 기술로 인정되지 않을 수 있는 설명의 측면은 명시적으로나 묵시적으로 본 발명에 대한 선행 기술로 인정되지 않는다.
지리 위치들 사이에서 운전자들을 자동으로 라우팅하는 시스템은 일반적으로 거리, 스트리트 이름들, 건물 번호들 등의 표시들을 활용하여 경로를 기반으로 내비게이션 길안내들을 생성한다. 예를 들어, 이러한 시스템들은 운전자에게 "1/4마일을 전진한 다음 Maple Street에서 우회전"과 같은 지시들을 제공할 수 있다. 그러나 운전자들이 거리를 정확하게 판단하는 것은 어렵고, 스트리트 표지판들을 보는 것도 항상 쉬운 일은 아니다. 또한 스트리트 및 로드 신호체계가 열악한 지리 영역들이 있다.
다른 사람이 운전자에게 말할 수 있는 것과 더 유사한 지시들을 운전자에게 제공하기 위해, 시각적으로 눈에 띄는 건물들이나 광고판들과 같이 경로를 따라 눈에 띄는 객체들을 참조하여 내비게이션 길안내들을 확장할 수 있다. 스트리트 표지판들과 함께 이러한 눈에 잘 띄는 객체들을 "시각적 보조물들"이라고 한다. 따라서 시스템은 “1/4 마일 안에 오른쪽에 McDonald’s® 레스토랑이 보일 것입니다. Maple Street에서 우회전하세요.”와 같은 내비게이션 길안내들을 생성할 수 있다. 이를 위해 운영자는 내비게이션 길안내들을 생성할 때 시스템이 적합한 시각적 보조물들을 자동으로 선택할 수 있도록 시각적 보조물들에 대한 설명들 및 위치 표시들(예: 스트리트 주소들, 좌표들)을 입력할 수 있다.
그러나 모든 시각적 보조물이 항상 보이는 것은 아니다. 예를 들어, 일부 스트리트 표지판들은 밤에는 밝게 빛날 수 있지만 일반적으로 낮에는 눈에 띄지 않을 수 있다. 반면에, 건물 표지판이나 광고판은 낮에는 쉽게 알아볼 수 있지만 밤에는 조명이 약하여 눈에 잘 띄지 않을 수 있다.
내비게이션에서 사용자를 보조하기 위해 표지판 가시성 표시기 시스템(sign visibility indicator system)은 시작 위치에서 목적지 위치까지 사용자를 내비게이션하기 위한 내비게이션 길안내들의 세트를 획득한다. 그런 다음 각 내비게이션 지시에 대해 표지판 가시성 표시기 시스템은 사용자가 기동을 위한 위치 또는 교차로를 식별하는 데 도움이 되는 내비게이션 지시에 포함된 시각적 보조물을 식별한다. 예를 들어 내비게이션 지시가 "ABC 로드에서 우회전"인 경우, 표지판 가시성 표시기 시스템은 ABC 로드 스트리트 표지판을 시각적 보조물로 식별한다. 또 다른 예에서, 내비게이션 지시가 "Burger King®에 인접한 교차로에서 우회전"인 경우 표지판 가시성 표시기 시스템은 시각적 보조물로서 Burger King® 표지판을 식별한다.
표지판 가시성 표시기 시스템은 시각적 보조물의 가시성을 결정한다. 예를 들어, 표지판 가시성 표시기 시스템은 시각적 보조물을 가리는 객체들, 시각적 보조물의 사이즈, 시각적 보조물에 대한 라이트닝 양, 하루 중 시간, 연중 시간, 날씨 컨디션들, 시각적 보조물에 대한 친숙도 메트릭, 시각적 보조물에 대응하는 위치에서 수행되는 기동 유형 등을 기반으로 시각적 보조물에 대한 가시성 메트릭을 생성할 수 있다. 표지판 가시성 표시기 시스템은 시각적 보조물을 포함하는 지리 영역의 3차원(3D) 파노라마 스트리트 레벨 이미지를 획득함으로써 가시성 메트릭을 결정하기 위해 이들 인자들 중 적어도 일부를 식별할 수 있다. 그런 다음 표지판 가시성 표시기 시스템은 스트리트 레벨 이미지를 분석하여 시각적 보조물을 가리는 객체들, 시각적 보조물의 사이즈, 시각적 보조물의 라이트닝 양 등을 식별할 수 있다.
일부 구현예들에서, 표지판 가시성 표시기 시스템은 내비게이션 길안내들을 기반으로 시각적 보조물에 접근할 때 사용자가 이동하는 방향을 식별할 수 있다. 표지판 가시성 표시기 시스템은 식별된 방향에 대한 가시성 메트릭을 생성할 수 있다. 예를 들어, 표지판 가시성 표시기 시스템은 시각적 보조물에 접근할 때 사용자의 배향과 일치하는 배향을 갖는 가상 카메라의 관점에서 시각적 보조물을 포함하는 지리 영역의 3D 파노라마 스트리트 레벨 이미지를 획득할 수 있다.
임의의 경우에, 표지판 가시성 표시기 시스템은 내비게이션 지시에 포함할 시각적 보조물의 가시성에 대한 설명을 생성할 수 있다. 예를 들어, 설명은 "이 표지판은 부분적으로 나무 뒤에 있어서 보기 어렵습니다." 또는 "당신의 차례에 가로등이 없고 표지판이 작기 때문에 일찍 속도를 줄이십시오."일 수 있다. 일부 구현예들에서, 표지판 가시성 표시기 시스템은 내비게이션 길안내들의 세트에 포함된 내비게이션 지시들의 서브세트에 대한 가시성 설명을 생성한다. 예를 들어, 표지판 가시성 표시기 시스템은 가시성 메트릭이 제1 임계값 미만이거나 제2 임계값 이상일 때 시각적 보조물에 대한 가시성 설명을 생성하여 시각적 보조물이 특별히 눈에 띄거나 시각적 보조물이 특별히 보기 어려울 때 사용자에게 추가 세부 정보를 제공할 수 있다.
표지판 가시성 표시기 시스템은 시각적 보조물의 가시성에 대한 적어도 하나의 설명을 포함하는 내비게이션 지시들의 세트를 사용자에게 제시할 수 있다. 이러한 방식으로 사용자가 경로를 통과하는 데 도움이 되는 추가 정보를 제공하여 내비게이션 길안내들이 개선된다. 결과적으로 표지판 가시성 표시기 시스템은 잘못된 회전과 같은 내비게이션 오류 가능성을 줄인다.
이러한 기법들의 예시적인 실시예는 내비게이션 동안 시각적 보조물들의 가시성 표시들과 함께 내비게이션 지시들을 제공하는 방법이다. 상기 방법은 시작 위치로부터 목적지 위치까지의 내비게이션 길안내들에 대한 사용자로부터의 요청을 수신하는 단계 및 요청에 응답하여 경로를 따라 시작 위치로부터 목적지 위치까지 이동하기 위한 내비게이션 길안내들의 세트를 획득하는 단계를 포함한다. 내비게이션 길안내들의 세트에는 경로를 따라 대응하는 위치들에서의 하나 이상의 기동들이 포함된다. 적어도 하나의 기동에 대해, 방법은 사용자가 기동에 대응하는 위치를 식별하는 것을 어시스트하기 위한 시각적 보조물을 식별하는 단계, 시각적 보조물에 대한 가시성 양을 결정하는 단계, 및 시각적 보조물에 대한 가시성 양에 대한 설명을 포함하도록 기동에 대응하는 내비게이션 길안내들의 세트에서 내비게이션 지시를 조정하는 단계를 포함한다. 이 방법은 사용자에게 제시하기 위해 조정된 내비게이션 지시를 포함하는 내비게이션 길안내들의 세트를 제공하는 단계를 더 포함한다.
이들 기법들의 또 다른 예시적인 실시예는 내비게이션 동안 시각적 보조물의 가시성 표시들과 함께 내비게이션 지시들을 제공하기 위한 컴퓨팅 디바이스이다. 컴퓨팅 디바이스는 하나 이상의 프로세서들 및 하나 이상의 프로세서들에 결합되고 명령어들을 저장하는 컴퓨터 판독가능 메모리(선택적으로, 비일시적 컴퓨터 판독가능 메모리)를 포함한다. 하나 이상의 프로세서들에 의해 실행될 때, 명령어들은 컴퓨팅 디바이스로 하여금 시작 위치에서 목적지 위치까지의 내비게이션 길안내들에 대한 사용자로부터의 요청을 수신하게 하고, 요청에 대한 응답으로 경로를 따라 시작 위치에서 목적지 위치로 이동하기 위한 내비게이션 길안내들의 세트를 획득하게 한다. 내비게이션 길안내들의 세트에는 경로를 따라 대응하는 위치들에서의 하나 이상의 기동들이 포함된다. 적어도 하나의 기동에 대해, 명령어들은 컴퓨팅 디바이스로 하여금 사용자가 기동에 대응하는 위치를 식별하는 것을 어시스트하기 위한 시각적 보조물을 식별하게 하고, 시각적 보조물의 가시성 양을 결정하게 하고, 시각적 보조물의 가시성 양에 대한 설명을 포함하도록 기동에 대응하는 내비게이션 길안내들의 세트에서 내비게이션 지시를 조정하게 한다. 명령어들은 또한 컴퓨팅 디바이스로 하여금 사용자에게 제시하기 위해 조정된 내비게이션 지시를 포함하는 내비게이션 길안내들의 세트를 제공하게 한다.
이러한 기법들의 또 다른 예시적인 실시예는 내비게이션 동안 시각적 보조물들의 가시성 표시들과 함께 내비게이션 지시들을 제시하기 위한 방법이다. 상기 방법은 사용자로부터 시작 위치에서 목적지 위치까지의 내비게이션 길안내들에 대한 요청을 수신하는 단계, 및 요청에 응답하여 시작 위치로부터 목적지 위치까지 경로를 따라 이동하기 위한 내비게이션 길안내들의 세트를 획득하는 단계를 포함한다. 내비게이션 길안내들의 세트는 경로를 따라 대응하는 위치들에서의 하나 이상의 기동들을 포함하며, 여기서 적어도 하나의 내비게이션 지시는 사용자가 내비게이션 지시에 포함된 기동에 대응하는 위치를 식별하는 데 도움이 되는 시각적 보조물과 시각적 보조물을 뷰잉하기 위한 가시성 양에 대한 설명을 포함한다. 방법은 시각적 보조물에 대한 가시성 양에 대한 설명을 포함하는 적어도 하나의 내비게이션 지시를 제시하는 단계를 포함하여 내비게이션 길안내들의 세트를 제시하는 단계를 더 포함한다.
도 1은 표지판 가시성 표시기 시스템을 구현하기 위해 클라이언트 및 서버 디바이스들이 동작할 수 있는 예시적인 통신 시스템의 블록도이다;
도 2는 도 1의 시스템에서 구현될 수 있는 시각적 보조물 데이터베이스에 포함된 예시적인 시각적 보조물 데이터 테이블이다;
도 3은 시각적 보조물의 가시성을 결정하기 위해 도 1의 시스템에서 분석될 수 있는 시각적 보조물을 포함하는 지리 영역의 예시적인 3차원(3D) 파노라마 스트리트 레벨 이미지이다;
도 4는 시각적 보조물에 접근할 때 사용자가 이동하는 방향을 결정하기 위해 도 1의 시스템에서 분석될 수 있는 경로의 예시적인 내비게이션 디스플레이이다;
도 5는 시각적 보조물의 가시성에 대한 설명을 포함하는 내비게이션 지시를 포함하는 클라이언트 디바이스 상에 제시되는 예시적인 내비게이션 디스플레이이다;
도 6은 서버 디바이스에서 구현될 수 있는, 내비게이션 동안 시각적 보조물들의 가시성 표시들과 함께 내비게이션 지시들을 제시하기 위한 예시적인 방법의 흐름도이다; 그리고
도 7은 클라이언트 디바이스에서 구현될 수 있는, 내비게이션 동안 시각적 보조물들의 가시성 표시들과 함께 내비게이션 지시들을 제시하기 위한 예시적인 방법의 흐름도이다.
개요
일반적으로 말하면, 내비게이션 동안 시각적 보조물들의 가시성 표시들을 제공하는 기법들은 하나 또는 여러 클라이언트 디바이스들, 하나 또는 여러 네트워크 서버들 또는 이러한 디바이스들의 조합을 포함하는 시스템에서 구현될 수 있다. 그러나 명확성을 위해, 아래의 예시들은 주로 클라이언트 디바이스가 시작 위치에서 목적지 위치까지의 내비게이션 방향에 대한 요청을 서버 디바이스로 전송하는 실시예에 초점을 맞춘다. 그런 다음 서버 디바이스는 경로를 따라 대응하는 위치들에서의 기동들을 포함하는 내비게이션 길안내들의 세트를 획득한다. 각각의 기동에 대해, 내비게이션 길안내들의 세트는 기동을 수행하기 위한 교차로를 식별하는 데 사용자를 보조하기 위한 스트리트 표지판 또는 건물 표지판과 같은 시각적 보조물을 포함할 수 있다.
그러면 서버 디바이스는 예를 들어 내비게이션 길안내들에 따라 시각적 보조물을 뷰잉할 때 사용자가 향하게 될 방향으로부터 시각적 보조물의 가시성 양을 획득할 수 있다. 예를 들어, 서버 디바이스는 시각적 보조물을 가리는 객체들, 시각적 보조물의 사이즈, 시각적 보조물에 대한 라이트닝 양, 하루 중 시간, 연중 시간, 날씨 컨디션들, 시각적 보조물에 대한 친숙도 메트릭, 시각적 보조물에 대응하는 위치에서 수행되는 기동 유형 등에 기반하여 시각적 보조물에 대한 가시성 메트릭을 생성할 수 있다.
하나 또는 여러 기동들에 대해, 서버 디바이스는 결정된 가시성 양에 기반하여 대응하는 내비게이션 지시에 포함할 시각적 보조물의 가시성에 대한 설명을 생성할 수 있다. 그 다음, 서버 디바이스는 사용자에게 제시하기 위해 시각적 보조물의 가시성에 대한 설명을 포함하는 내비게이션 길안내들의 세트를 클라이언트 디바이스에 제공한다.
예시적인 하드웨어 및 소프트웨어 구성 요소들
도 1은 내비게이션에서 시각적 보조물의 가시성에 대한 설명을 제공하기 위한 기법들 중 적어도 일부가 구현될 수 있는 환경(10)을 도시한다. 환경(10)은 통신 네트워크(16)를 통해 상호 연결된 클라이언트 디바이스(12) 및 서버 디바이스(14)를 포함한다. 네트워크(16)는 인터넷과 같은 공용 네트워크 또는 인트라넷과 같은 사설 네트워크일 수 있다. 서버 디바이스(14)는 차례로 다양한 데이터베이스 및 내비게이션 서버, 지도 데이터 서버, 라이브 트래픽 서버, 날씨 서버 등과 같은 다른 서버 디바이스들과 통신할 수 있다.
서버 디바이스(14)는 시각적 보조물의 위치 및 높이, 시각적 보조물이 향하는 배향, 시각적 보조물의 사이즈, 시각적 보조물의 외관, 시각적 보조물의 이름 등과 같은 시각적 보조물들 및 각 시각적 보조물에 대한 지리 정보를 저장하는 데이터베이스(52)에 통신적으로 결합될 수 있다. 이에 대해서는 도 2를 참조하여 아래에서 더 자세히 설명한다. 서버 디바이스(14)는 또한 지도 데이터베이스(50) 및 다양한 지리 영역에 대한 실세계 이미지를 저장하는 실세계 이미지 데이터베이스(54)에 통신적으로 연결될 수 있다.
클라이언트 디바이스(12)는 스마트폰과 같은 휴대용 전자 디바이스, 스마트 워치 또는 헤드 장착형 디스플레이와 같은 웨어러블 디바이스 또는 태블릿 컴퓨터를 포함할 수 있다. 클라이언트 디바이스(12)는 하나 이상의 중앙 프로세싱 유닛(CPU)들, 그래픽 콘텐츠를 효율적으로 렌더링하기 위한 하나 이상의 그래픽 프로세싱 유닛(GPU)들, 주문형 집적 회로(ASIC) 또는 기타 적절한 유형의 프로세싱 하드웨어를 포함할 수 있는 프로세싱 모듈(22)을 포함할 수 있다. 또한, 클라이언트 디바이스(12)는 영구적(예: 하드 디스크, 플래시 드라이브) 및/또는 비영구적(예: RAM) 구성요소들로 구성된 메모리(24)를 포함할 수 있다. 도 1에 도시된 예시적인 구현예에서, 메모리(24)는 "지도 애플리케이션(26)"이라고도 지칭될 수 있는 지리 애플리케이션(26)을 구현하는 명령어들을 저장한다.
또한, 클라이언트 디바이스(12)는 카메라(미도시), 사용자 인터페이스(28) 및 네트워크 인터페이스(30)를 포함한다. 어느 경우든, 사용자 인터페이스(28)는 스크린 또는 스피커와 같은 하나 이상의 출력 구성요소들뿐만 아니라 터치스크린, 마이크로폰, 키보드 등과 같은 하나 이상의 입력 구성요소들을 포함할 수 있다.
네트워크 인터페이스(30)는 단거리 및/또는 장거리 통신을 지원할 수 있다. 예를 들어, 네트워크 인터페이스(30)는 셀룰러 통신, IEEE 802.11(예: 와이파이) 또는 802.15(블루투스)와 같은 개인 영역 네트워크 프로토콜들을 지원할 수 있다. 일부 구현예들에서, 클라이언트 디바이스(12)는 클라이언트 디바이스(12) 내의 다수의 디바이스들을 상호 연결하고 클라이언트 디바이스(12)를 네트워크(16)에 연결하기 위한 다수의 네트워크 인터페이스 모듈들을 포함한다.
또한, 일부 경우에 네트워크 인터페이스(30)는 지리 포지셔닝을 지원할 수 있다. 예를 들어, 네트워크 인터페이스(30)는 와이파이 삼변측량을 지원할 수 있다. 다른 경우에, 클라이언트 디바이스(12)는 GPS 모듈과 같은 전용 포지셔닝 모듈(32)을 포함할 수 있다. 클라이언트 디바이스(12)는 또한 가속도계, 자이로스코프, 나침반과 같은 자력계 등과 같은 다른 센서들을 포함할 수 있다.
도 1을 계속 참조하면, 클라이언트 디바이스(12)는 인터넷과 같은 광역 네트워크일 수 있는 네트워크(16)를 통해 서버 디바이스(14)와 통신할 수 있다. 서버 디바이스(14)는 여러 지리 위치들에 분산된 디바이스들을 포함하는 하나 이상의 서버 디바이스들에서 구현될 수 있다. 서버 디바이스(14)는 내비게이션 지시 생성기(42) 및 표지판 가시성 표시기 모듈(44)을 구현할 수 있다. 구성요소들(42-44)은 하드웨어, 펌웨어 및 소프트웨어의 적절한 조합을 사용하여 구현될 수 있다. 서버 디바이스들은 임의의 적절한 데이터 저장 및 액세스 기법들을 사용하여 구현될 수 있는, 지도 데이터베이스(50), 시각적 보조물 데이터베이스(52) 및 실세계 이미지 데이터베이스(54)와 같은 데이터베이스에 액세스할 수 있다.
동작 시, 표지판 가시성 표시기 모듈(44)은 클라이언트 디바이스(12)로부터 내비게이션 길안내들에 대한 요청을 수신할 수 있다. 표지판 가시성 표시기 모듈(44)은 예를 들어 내비게이션 생성기(42)로부터 시작 위치에서 목적지 위치까지의 경로를 따라 이동하기 위한 내비게이션 길안내들의 세트를 획득할 수 있다. 표지판 가시성 표시기 모듈(44)은 그 다음 내비게이션 길안내들의 세트에 포함된 스트리트 이름들, 건물들 또는 기타 랜드마크들을 시각적 보조물들로서 식별할 수 있다. 그런 다음 표지판 가시성 표시기 모듈(44)은 경로를 따라 다양한 위치들에서 시각적 보조물들에 접근하는 사용자의 관점에서 시각적 보조물을 뷰잉하기 위한 가시성 양을 결정할 수 있다. 더 구체적으로, 표지판 가시성 표시기 모듈(44)은 실제 데이터베이스(54)로부터 시각적 보조물들을 포함하는 지리 영역들의 3D 파노라마 스트리트 레벨 이미지를 검색할 수 있다. 표지판 가시성 표시기 모듈(44)은 스트리트 레벨 이미지를 분석하여 시각적 보조물을 가리는 객체들, 시각적 보조물의 사이즈, 시각적 보조물을 위한 라이트닝 양 등을 식별하고 분석 결과를 시각적 보조물 데이터베이스(52)에 저장할 수 있다. 표지판 가시성 표시기 모듈(44)은 시각적 보조물의 가시성에 대한 설명을 생성할 수 있다.
시각적 보조물 데이터베이스(52)는 드라이빙(또는 자전거, 도보, 또는 내비게이션 경로를 따라 이동)할 때 볼 수 있고 따라서 시각적 보조물들의 역할을 할 수 있는 지리 엔티티들에 관한 정보를 저장할 수 있다. 예를 들면, 시각적 보조물 데이터베이스(52)는 Mila 스트리트 표지판(70), Denver의 Walgreens® 표지판(72), Willow Creek Dr. 스트리트 표지판(74) 및 기타 적절한 시각적 보조물들에 대한 지리 정보와 같은 시각적 보조물들에 대한 지리 정보를 저장할 수 있다.
각 시각적 보조물에 대해, 시각적 보조물 데이터베이스(52)는 하나 또는 여러 장의 사진들, 2차원 또는 3차원 지리 좌표들, 시각적 보조물의 높이, 시각적 보조물이 향하는 배향, 시각적 보조물의 사이즈, 시각적 보조물의 외관, 시각적 보조물의 이름 등을 저장할 수 있다. 시각적 보조물 데이터베이스(52)를 채우기 위해, 서버 디바이스(14)는 예를 들어, 실세계 데이터베이스(54)로부터 위성 이미지, 다양한 사용자들이 제출한 사진 및 비디오, 특수 파노라마 카메라가 장착된 자동차들에 의해 수집된 스트리트 레벨 이미지, 보행자 및 자전거 운전자에 의해 수집된 스트리트 및 인도 이미지 등을 수신할 수 있다. 마찬가지로, 시각적 보조물 데이터베이스(52)는 서버 디바이스(14)의 운영자들 및 사용자 생성 콘텐츠를 제출하는 사람들과 같은 다양한 소스들로부터 시각적 보조물들의 설명을 수신할 수 있다.
그런 다음 표지판 가시성 표시기 모듈(44)은 스트리트 표지판, 건물 표지판, 기둥, 가로등, 나무, 건물, 로드, 차량 등과 같은 스트리트 레벨 이미지 내의 객체들을 식별할 수 있다. 그런 다음 표지판 가시성 표시기 모듈(44)은 시각적 보조물을 가리는 객체들을 식별하기 위해 객체들의 위치들을 시각적 보조물의 위치와 비교할 수 있다. 표지판 가시성 표시기 모듈(44)은 객체 인식 기법들, 시맨틱(semantic) 분할 및/또는 기계 학습 기법들을 사용하여 객체들을 식별할 수 있다. 더 구체적으로, 표지판 가시성 표시기 모듈(44)은 객체들에 대한 객체 유형들이 알려진 기계 학습 모델을 트레이닝하기 위한 트레이닝 데이터로서 데이터베이스로부터 여러 템플릿 객체들에 대한 이미지 데이터를 획득할 수 있다. 템플릿 객체들은 스트리트 표지판, 건물 표지판, 기둥, 가로등, 나무, 건물, 로드, 차량 등과 같은 상이한 객체 유형들을 가질 수 있다.
표지판 가시성 표시기 모듈(44)은 각각의 템플릿 객체들의 시각적 피처들을 식별할 수 있다. 템플릿 객체의 피처들에는 템플릿 객체의 가장자리 지오메트리, 템플릿 객체 내의 RGB 픽셀 값들 또는 컬러들, 템플릿 객체 내의 인접 위치들에서의 RGB 픽셀 값들의 변경 등이 포함될 수 있다. 이러한 피처들은 블러(blur), 모션, 왜곡, 배향, 조명, 스케일링 및/또는 카메라 관점의 기타 변화들에 관계없이 검출할 수 있는 템플릿 객체 내의 안정적인 영역들을 검출함으로써 식별될 수 있다. 안정적인 영역들은 스케일 불변 피처 변환(scale-invariant feature transform)(SIFT), 강력한 피처 가속화(speeded up robust features)(SURF), 빠른 레티나 키포인트(fast retina keypoint)(FREAK), 이진 강력한 불변 스케일러블 키포인트들(binary robust invariant scalable keypoints)(BRISK), 또는 기타 적절한 컴퓨터 비전 기법들을 사용하여 탬플릿 객체로부터 추출될 수 있다. 일부 구현예들에서, 키포인트들은 템플릿 객체 내의 가장자리들과 같은 템플릿 객체의 고대비(high-contrast) 영역에 위치할 수 있다. 바운딩 박스는 키포인트 주변에 형성될 수 있으며 바운딩 박스에 의해 생성된 템플릿 객체의 일부는 피처일 수 있다.
기계 학습 모델은 스트리트 표지판, 건물 표지판, 기둥, 가로등, 나무, 건물, 도로, 차량 등과 같은 상이한 객체 유형들에 대응하는 템플릿 객체들의 피처들을 기반으로 생성될 수 있다. 기계 학습 모델은 표지판에 대한 제1 피처 세트, 건물에 대한 제2 피처 세트, 가로등에 대한 제3 피처 세트, 나무에 대한 제4 피처 세트, 로드에 대한 제5 피처 세트, 차량에 대한 제6 피처 세트, 등과 같은 각 객체의 유형에 대한 피처 세트를 포함할 수 있다. 예를 들어, 객체의 컬러들은 객체의 너비, 객체의 컬러 그라데이션 및/또는 객체의 다른 시각적 피처들과 함께 템플릿 피처들로 저장될 수 있다.
그런 다음 표지판 가시성 표시기 모듈(44)은 객체 또는 객체들에 대응하는 스트리트 레벨 이미지의 일부에 대한 이미지 데이터를 획득하고 위에서 설명한 것과 유사한 기법들을 사용하여 객체 또는 객체들의 피처들을 식별할 수 있다. 표지판 가시성 표시기 모듈(44)은 이미지 분류 및/또는 기계 학습 기법들을 사용하여 스트리트 레벨 이미지 내의 객체에 대해 식별된 피처들을 비교할 수 있다. 기계 학습 기법들은 선형 회귀, 다항식 회귀, 로지스틱 회귀, 랜덤 포레스트, 부스팅, 최근접 이웃, 베이지안 네트워크, 신경 네트워크, 서포트 벡터 머신, 또는 임의의 다른 적절한 기계 학습 기법들을 포함할 수 있다. 기계 학습 모델의 각 템플릿 피처들은 객체의 피처들과 비교될 수 있다.
일부 실시예들에서, 템플릿 피처들은 최근접 이웃 알고리즘을 사용하여 객체에 대한 피처들과 비교될 수 있다. 최근접 이웃 알고리즘은 객체의 픽셀 너비와 높이, 객체에 대한 RGB 픽셀 값들, 컬러 그라데이션과 같은 피처 벡터들을 생성하기 위해 피처의 수치적 표현들을 생성함으로써 객체의 피처들에 가장 가까운 템플릿 피처들을 식별할 수 있다. 객체의 피처들 또는 피처 벡터들의 수치적 표현들은 객체의 피처들과 각각의 템플릿 객체 사이의 벡터 거리를 결정하기 위해 템플릿 객체들의 피처 벡터들과 비교될 수 있다. 표지판 가시성 표시기 모듈(44)은 그 후 객체에 대한 피처들과 특정 객체 유형을 나타내는 템플릿 객체들에 대한 피처들 사이의 유사성 정도 또는 최근접 이웃 알고리즘의 벡터 거리에 기반하여 객체에 대한 객체 유형을 결정할 수 있다. 예를 들어, 스트리트 레벨 이미지의 객체에 대해, 표지판 가시성 표시기 모듈(44)은 객체에 대한 피처 벡터들에 가장 가까운 템플릿 피처 벡터들을 갖는 상위 3개의 템플릿 객체들을 식별할 수 있다. 하나 이상의 식별된 템플릿 객체들의 대부분이 스트리트 표지판인 경우, 표지판 가시성 표시기 모듈(44)은 스트리트 레벨 이미지의 객체를 스트리트 표지판으로 식별할 수 있다. 표지판 가시성 표시기 모듈(44)은 스트리트 레벨 이미지 내의 다수의 객체들에 대해 이 프로세스를 반복할 수 있다.
그런 다음 서버 디바이스(14)는 시각적 보조물을 가리는 객체들을 식별하기 위해 객체들의 위치들을 시각적 보조물의 위치와 비교할 수 있다. 표지판 가시성 표시기 모듈(44)은 또한 스트리트 레벨 이미지 내의 가로등 객체들을 식별하고 가로등 객체들의 위치들을 시각적 보조물의 위치와 비교하여 시각적 보조물에 대한 라이트닝 양을 결정할 수 있다. 또한, 표지판 가시성 표시기 모듈(44)은 라이트닝과 관련된 다른 객체들의 위치들을 시각적 보조물의 위치와 비교하여 시각적 보조물에 대한 라이트닝 양을 결정할 수 있다.
임의의 경우에, 서버 디바이스(14)는 시각적 보조물을 가리는 객체들 및/또는 시각적 보조물의 위치에 대한 객체의 위치에 기반하여 시각적 보조물에 대한 폐색 메트릭을 생성할 수 있다. 예를 들어, 나무는 시각적 보조물을 완전히 가리는 건물보다 더 낮은 폐색 메트릭을 초래할 수 있는 스트리트 표지판의 바닥 부분을 덮음으로써 시각적 보조물을 부분적으로 가릴 수 있다. 서버 디바이스(14)는 또한 시각적 보조물에 대한 폐색 메트릭, 시각적 보조물의 사이즈, 시각적 보조물의 높이, 시각적 보조물의 위치, 시각적 보조물이 향하는 배향, 시각적 보조물을 위한 라이트닝 양, 하루 중 시간, 연중 시간, 날씨 컨디션들, 시각적 보조물에 대한 친숙도 메트릭, 시각적 보조물에 대응하는 위치에서 수행되는 기동 유형 등의 적절한 조합에 기반하여 시각적 보조물에 대한 가시성 메트릭을 생성할 수 있다.
예를 들어, 가시성 메트릭은 시각적 보조물의 더 높은 레벨의 폐색을 나타내는 폐색 메트릭이 증가함에 따라 가시성이 감소한다는 점에서 폐색 메트릭과 반비례할 수 있다. 더 나아가, 가시성 메트릭은 안개, 비, 흐림 또는 눈이 내리는 날씨 컨디션들에 따라 감소할 수 있는 반면, 화창하고 맑은 날씨 컨디션들에서는 가시성 메트릭이 증가할 수 있다.
또한, 가시성 메트릭은 라이트닝 레벨 메트릭, 하루 중 시간 및 연중 시간에 기반하여 조정될 수 있다. 낮 동안, 하루 중 시간 및/또는 연중 시간에 기반하여 결정되는, 가시성 메트릭은 야간보다 높을 수 있다. 그러나 밤에는, 라이트닝 레벨이 증가함에 따라 가시성 메트릭이 증가할 수 있다. 라이트닝 레벨 메트릭은 또한 비즈니스 표지판이 매장 시간 동안 켜져 있지만 매장이 닫힌 후에는 꺼질 수 있으므로 하루 중 시간 및/또는 연중 시간에 따라 달라질 수 있다.
더욱이, 가시성 메트릭은 시각적 보조물의 위치, 시각적 보조물이 향하는 배향 및 시각적 보조물에 대응하는 위치에서 수행되는 기동 유형에 따라 조정될 수 있다. 예를 들어, 시각적 보조물이 사용자의 왼쪽에 있지만 기동 유형이 우회전인 경우, 기동 방향에서 멀리 있는 객체를 뷰잉하기 어렵기 때문에 가시성 메트릭이 감소할 수 있다.
시각적 보조물 데이터베이스(52)에 포함된 각 시각적 보조물에 대한 지리 정보의 예시적인 인덱스를 포함하는 데이터 테이블(200)이 도 2에 도시되어 있다. 각 시각적 보조물에 대한 지리 정보는 시각적 보조물에 대한 가시성 메트릭 및/또는 시각적 보조물의 가시성에 대한 설명을 생성하는 데 사용될 수 있다.
각각의 랜드마크에 대해, 데이터 테이블(200)은 시각적 보조물 식별자(202), 2차원 또는 3차원 지리 좌표들 및 시각적 보조물의 높이를 포함하는 시각적 보조물의 위치(204), 시각적 보조물이 향하는 배향(206), 시각적 보조물의 사이즈 또는 디멘션들(208), 시각적 보조물의 외관에 대한 텍스트 설명(210), 시각적 보조물의 이름(212), 및 객체들이 시각적 보조물을 가리는지 여부 및 객체들이 시각적 보조물을 가리는 정도를 나타내는 시각적 보조물에 대한 폐색 메트릭(214)을 포함한다. 예를 들어, 폐색 메트릭(214)은 1-100의 스코어일 수 있으며, 여기서 스코어 1은 시각적 보조물에 대한 명확한 시야가 있고 시각적 보조물을 가리는 객체가 없음을 나타낸다. 100의 스코어는 시각적 보조물이 건물이나 나무와 같은 다른 객체들에 의해 완전히 가려져 있음을 나타내고, 1에서 100 사이의 스코어는 시각적 보조물이 부분적으로 가려져 있음을 나타낼 수 있다.
데이터 테이블(200)은 또한 특정 시각적 보조물의 친숙도 또는 인기도를 나타내는 시각적 보조물에 대한 친숙도 메트릭(미도시)을 포함할 수 있다. 예를 들어, McDonald’s®는 McDonald’s 레스토랑을 잘 알고 인식할 수 있는 사람들의 수에 기반하여 높은 친숙도 메트릭을 가질 수 있다. 반면에 지역 비즈니스는 친숙도 메트릭이 낮을 수 있다. 더 높은 친숙도 메트릭들을 갖는 시각적 보조물은 멀리서도 인식할 수 있으므로 가시성이 더 높을 수 있다.
추가로, 데이터 테이블(200)은 시각적 보조물에 존재하는 라이트(light)의 양을 나타내는 시각적 보조물에 대한 라이트닝 레벨 메트릭(미도시)을 포함할 수 있다. 라이트닝 레벨 메트릭은 가로등에 가깝지 않거나 희미하게 켜진 표지판들이 있는 시각적 보조물들보다 가로등에 가깝거나 밝게 켜진 표지판들이 있는 시각적 보조물들의 경우 더 높을 수 있다. 라이트닝 레벨 메트릭은 시간에 따라 변경될 수 있다. 예를 들어, 비즈니스 표지판은 매장 시간 동안 켜져 있지만 매장이 닫히면 꺼질 수 있다. 따라서, 비즈니스 표지판에 대한 라이트닝 레벨 메트릭은 매장이 닫혀 있는 시간 동안보다 매장 시간 동안 더 높을 수 있다.
예를 들어, 데이터 테이블(200)의 제1 엔트리는 Walgreens® 표지판에 대한 지리 정보를 포함한다. 데이터 테이블(200)에 따르면, Walgreens® 표지판은 5m 높이에 동쪽을 향하고 있다. Walgreens® 표지판은 폭 4m, 길이 2m이며 빨간색 배경에 흰색 필기체가 포함되어 있다. Walgreens® 표지판에 대한 폐색 메트릭은 1-100의 스케일에서 95로 표지판이 예를 들어, 다른 건물, 나무 등에 가려져 있음을 나타낸다.
예를 들어, 시각적 보조물에 대한 폐색 메트릭은 시각적 보조물이 위치한 지리 영역과 연관된 3차원 모델에 액세스함으로써 결정될 수 있다. 모델은 시각적 보조물의 3차원 표현을 포함할 수 있다. 일 구현예에서, 3차원 모델은 시각적 보조물과 연관된 복수의 메쉬 삼각형들을 포함하는 지리 영역의 스테레오 메쉬 모델일 수 있다. 모델은 또한 가상 글로브(globe) 애플리케이션에서 제공되는 합성 모델과 같은 지리 피처들 또는 지리 영역의 다른 랜드마크들의 합성 모델들을 포함하거나 액세스할 수 있다. 모델에는 3차원 모델들의 표면에 매핑된 텍스처들도 포함될 수 있다. 텍스처들은 지리 영역과 연관된 사진들 또는 기타 이미지를 포함할 수 있으며, 나무(잎이 있거나 없는), 다리 받침대 및 지리 영역에서 시각적 보조물들의 가시성을 차단할 수 있는 기타 구조물과 같은 지리 객체들을 묘사할 수 있다.
도 3은 시각적 보조물(302)(Joe's Restaurant)을 포함하는 지리 영역의 예시적인 3D 파노라마 스트리트 레벨 이미지(300)를 도시한다. 서버 디바이스(14)는 스트리트 레벨 이미지(300) 내의 객체들을 식별하고 각 객체의 객체 유형을 결정하기 위해 객체 인식 및/또는 시맨틱 분할 기법들을 사용하여 스트리트 레벨 이미지(300)를 분석한다. 예를 들어, 서버 디바이스(14)는 시각적 보조물을 위한 스트리트 표지판(302), 전력선(304) 및 가로등(306)을 식별하기 위해 스트리트 레벨 이미지(300)를 분석한다. 그 다음 서버 디바이스(14)는 스트리트 레벨 이미지 내에서 각각의 객체(302-306)의 포지션들을 결정한다. 예를 들어, 서버 디바이스(14)는 스트리트 레벨 이미지를 묘사하는 가상 카메라의 플럼(frustum)을 식별하고 뷰 플럼 내의 위치들을 스트리트 레벨 이미지 내의 픽셀에 매핑함으로써 실세계 이미지 내의 각각의 객체(302-306)의 포지션들을 결정할 수 있다. 서버 디바이스(14)는 객체들(304, 306)의 포지션들을 비즈니스 표지판 객체(302)의 위치와 비교하여 객체들(304, 306)이 비즈니스 표지판 객체(302)를 가리는 정도를 결정할 수 있다. 여기서, 어떠한 객체도 비즈니스 표지판 객체(302)를 가리는 것으로 나타나지 않으며, 따라서 비즈니스 표지판 객체(302)에 대한 폐색 메트릭은 1-100의 스케일에서 1의 스코어일 수 있거나 그렇지 않으면 비즈니스 표지판 객체(302)가 가려지지 않음을 나타낼 수 있다. 또한, 서버 디바이스(14)는 비즈니스 표지판 객체(302)의 라이트닝 레벨을 결정하기 위해 객체들(304, 306)의 포지션들을 비즈니스 표지판 객체(302)의 포지션과 비교할 수 있다. 이 시나리오에서, 가로등(306)은 비즈니스 표지판 객체(302)에 근접하지 않으며, 이는 비즈니스 표지판 객체(302)에 대한 낮은 라이트닝 레벨 메트릭을 초래할 수 있다. 서버 디바이스(14)는 또한 비즈니스 표지판 객체(302)가 자신의 라이트닝을 갖는지(예: 비즈니스 표지판이 네온 표지판인지)를 결정할 수 있고 그에 따라 라이트닝 레벨 메트릭을 조정할 수 있다.
더 나아가, 서버 디바이스(14)는 시각적 보조물을 뷰잉하기 위해 상이한 배향들로부터 시각적 보조물에 대한 별도의 폐색 및/또는 라이트닝 레벨 메트릭들을 생성할 수 있다. 예를 들어, 사용자가 시각적 보조물을 뷰잉할 때 동쪽으로 이동하고 있으면, 서버 디바이스(14)는 시각적 보조물을 동쪽에서 뷰잉하기 위한 폐색 및/또는 라이트닝 레벨 메트릭을 생성할 수 있다. 별도의 폐색 및/또는 라이트닝 레벨 메트릭들을 생성하기 위해, 서버 디바이스(14)는 다수의 배향들 또는 위치들을 갖는 가상 카메라들의 다수의 관점들로부터 시각적 보조물의 3D 파노라마 스트리트 레벨 이미지를 획득할 수 있다. 그 후 서버 디바이스(14)는 시각적 보조물에 접근할 때 사용자가 향하고 있는 배향에 대응하는 배향을 갖는 가상 카메라의 관점에서 시각적 보조물의 3D 파노라마 스트리트 레벨 이미지를 분석하여 시각적 보조물의 폐색 및/또는 라이트닝 레벨 메트릭들을 결정할 수 있다.
시각적 보조물에 접근할 때 사용자가 향하고 있는 배향을 결정하기 위해, 서버 디바이스(14)는 사용자가 시각적 보조물에 접근할 때 사용자가 경로를 따라 이동하는 방향을 결정하기 위해 내비게이션 길안내들의 세트를 분석할 수 있다. 도 4는 시작 위치(402)로부터 목적지 위치(412)까지의 경로(406)의 예시적인 디스플레이(400)를 도시한다. 서버 디바이스(14)는 사용자가 시각적 보조물에 접근할 때 이동하는 방향을 결정하기 위해 경로(406) 및/또는 기동들에 따른 위치들을 분석할 수 있다. 그런 다음 서버 디바이스(14)는 시각적 보조물에 대한 폐색 및/또는 라이트닝 레벨 메트릭들을 결정하기 위해 시각적 보조물에 접근할 때 사용자가 향하고 있는 배향에 대응하는 배향을 갖는 가상 카메라의 관점으로부터 시각적 보조물의 3D 파노라마 스트리트 레벨 이미지를 획득할 수 있다.
임의의 경우에, 서버 디바이스(14)는 예를 들어, 사용자가 내비게이션 길안내들에 따라 시각적 보조물에 접근하는 배향으로부터 시각적 보조물에 대한 가시성 메트릭을 생성하기 위해, 다양한 날씨 컨디션들 및/또는 다양한 시간 동안, 시각적 보조물에 대한 사진들, 시각적 보조물에 대한 2차원 또는 3차원 지리 좌표들, 시각적 보조물의 높이, 시각적 보조물이 향하는 배향, 시각적 보조물에 대응하는 위치에서 수행되는 기동 유형, 시각적 보조물의 사이즈, 시각적 보조물에 대한 폐색 메트릭, 시각적 보조물에 대한 라이트닝 레벨 메트릭, 시각적 보조물에 대한 친숙도 메트릭, 등을 포함하는 각각의 시각적 보조물에 대한 지리 정보를 사용할 수 있다.
서버 디바이스(14)는 가시성 메트릭에 따라 시각적 보조물에서의 가시성 양에 대한 설명을 생성할 수 있다. 시각적 보조물에서 가시성 양에 대한 설명은 라이트닝 레벨 메트릭에 따라 시각적 보조물을 뷰잉하기 위한 라이트닝 레벨에 대한 설명, 폐색 메트릭에 따라 시각적 보조물을 가리는 객체(들)에 대한 설명, 시각적 보조물의 사이즈에 대한 설명, 사용자와 관련된 시각적 보조물의 위치에 대한 설명(예: "스트리트 표지판은 스트리트 오른쪽에 있습니다."), 또는 시각적 보조물의 가시성에 대한 기타 적절한 설명을 포함할 수 있다. 더 나아가, 시각적 보조물에 대한 가시성 양에 대한 설명에는 “속도를 조기에 늦추십시오”와 같은, 시각적 보조물의 가시성 양에 기반한 권장 사항이 포함될 수 있다.
보다 구체적으로, 예를 들어 시각적 보조물에 대한 가시성 메트릭이 제1 임계값 미만일 때, 서버 디바이스(14)는 시각적 보조물의 가시성이 낮다는 것을 나타내는 설명을 생성할 수 있다. 시각적 보조물에 대한 가시성 메트릭이 제1 임계값보다 높지만 제2 임계값보다 낮을 때, 서버 디바이스(14)는 시각적 보조물의 부분적인 가시성이 있음을 나타내는 설명을 생성할 수 있다. 시각적 보조물에 대한 가시성 메트릭이 제2 임계값보다 높을 때, 서버 디바이스(14)는 시각적 보조물의 가시성이 높다는 것을 나타내는 설명을 생성할 수 있다. 다른 예에서, 시각적 보조물에 대한 가시성 메트릭이 임계 가시성 메트릭 미만이고 시각적 보조물의 사이즈가 임계 사이즈 미만인 경우, 서버 디바이스(14)는 시각적 보조물이 작기 때문에 시각적 보조물의 가시성이 낮다는 것을 나타내는 설명을 생성할 수 있다. 또 다른 예에서, 시각적 보조물에 대한 가시성 메트릭이 임계 가시성 메트릭 미만이고 시각적 보조물에 대한 라이트닝 레벨 메트릭이 임계 라이트닝 레벨 메트릭 미만일 때, 서버 디바이스(14)는 시각적 보조물의 라이트닝이 약하기 때문에 시각적 보조물의 가시성이 낮다는 것을 나타내는 설명을 생성할 수 있다. 다른 예에서, 시각적 보조물에 대한 가시성 메트릭이 임계 가시성 메트릭 미만이고 시각적 보조물에 대한 폐색 메트릭이 임계 폐색 메트릭 미만일 때, 서버 디바이스(14)는 시각적 보조물이 가려지거나 적어도 부분적으로 가려지기 때문에 시각적 보조물의 가시성이 낮다는 것을 나타내는 설명을 생성할 수 있고, 시각적 보조물을 가리는 객체(들)을 설명할 수 있다.
일부 구현예들에서, 서버 디바이스(14)는 내비게이션 길안내들의 세트에서 시각적 보조물들의 서브세트에 대한 가시성 설명들을 생성할 수 있다. 예를 들어, 서버 디바이스(14)는 제1 임계값 초과 또는 제2 임계값 미만의 가시성 메트릭을 갖는 적어도 하나의 시각적 보조물에 대한 가시성 설명을 생성할 수 있다. 이러한 방식으로, 내비게이션 길안내들은 특히 눈에 띄거나 특히 보기 어려운 시각적 보조물에 대해 사용자에게 추가 세부 정보를 제공할 수 있다. 다른 예에서, 서버 디바이스(14)는 각각의 가시성 메트릭들에 따라 내비게이션 길안내들의 세트 내에서 시각적 보조물의 순위를 매길 수 있다. 그 다음, 서버 디바이스(14)는 임계값 순위보다 상위에 있는 시각적 보조물들(예: 상위 3개의 시각적 보조물들)을 선택할 수 있고, 선택된 시각적 보조물들에 대한 가시성 설명을 생성할 수 있다.
임의의 경우에, 서버 디바이스(14)는 사용자가 내비게이션 지시를 수행하는 것을 어시스트하기 위한 시각적 보조물의 가시성 양에 대한 설명을 갖는 하나 이상의 내비게이션 지시들을 포함하여, 클라이언트 디바이스(12) 상에 디스플레이하기 위한 내비게이션 길안내들의 세트를 제공한다. 도 5는 사용자의 클라이언트 디바이스(12) 상에 제시되는 예시적인 내비게이션 디스플레이(500)를 도시한다. 내비게이션 디스플레이(500)는 사용자에게 기동("좌회전")을 수행하도록 지시하고 사용자가 기동을 수행하기 위한 위치(사용자가 State 스트리트에 접근하는 교차로)를 식별하는 데 있어 사용자를 어시스터하기 위한 시각적 보조물(State 스트리트 표지판)을 참조하는 내비게이션 지시를 포함한다. 내비게이션 지시는 또한 시각적 보조물(502)의 가시성 양에 대한 텍스트 설명(예: "가로등이 없고 표지판이 작기 때문에 일찍 속도를 줄이십시오.") 을 포함한다. 텍스트 설명을 제공하는 것 외에도, 클라이언트 디바이스(12)는 예를 들어 클라이언트 디바이스(12)의 스피커들을 통해, 시각적 보조물의 가시성 양에 대한 오디오 설명을 제시할 수 있다.
내비게이션 중 시각적 보조물의 가시성 표시들을 표시들을 제공하는 예시적인 방법들
도 6은 내비게이션 동안 시각적 보조물들의 가시성 표시들과 함께 내비게이션 지시들을 제공하기 위한 예시적인 방법(600)의 흐름도를 도시한다. 이 방법은 컴퓨터 판독가능 메모리에 저장되고 서버 디바이스(14)의 하나 이상의 프로세서들에서 실행가능한 명령어들의 세트로 구현될 수 있다. 예를 들어, 방법은 내비게이션 지시 생성기(42) 및/또는 표지판 가시성 표시기 모듈(44)에 의해 구현될 수 있다.
블록(602)에서, 시작 위치에서 목적지 위치까지의 내비게이션 길안내들에 대한 요청이 수신되었다. 요청 수신에 응답하여, 서버 디바이스(14)는 목적지 위치까지의 경로를 따라 이동하기 위한 내비게이션 지시 생성기(42)를 통해 내비게이션 길안내들의 세트를 획득할 수 있다(블록 604). 내비게이션 길안내들의 세트는 좌회전, 우회전, 계속 직진 등과 같은 경로를 따라 대응하는 위치들에서의 기동들을 포함할 수 있다. 사용자가 기동들을 수행할 위치들을 식별하는 데 도움이 되도록, 내비게이션 길안내들의 세트는 기동들을 수행하기 위한 위치들에 근접한 스트리트 표지판, 건물 표지판 등과 같은 시각적 보조물들을 참조할 수 있다.
블록(606)에서, 서버 디바이스(14)는 기동을 수행할 위치를 식별하는 데 있어 사용자를 어시스트하기 위한 내비게이션 길안내들의 세트에서 참조되는 시각적 보조물을 식별한다. 서버 디바이스(14)는 시각적 보조물을 뷰잉하기 위한 가시성 양을 결정한다(블록 608). 더 구체적으로, 서버 디바이스(14)는 실세계 데이터베이스(54)로부터 시각적 보조물을 포함하는 지리 영역의 3D 파노라마 스트리트 레벨 이미지를 검색할 수 있다. 일부 구현예들에서, 서버 디바이스(14)는 시각적 보조물에 접근할 때 사용자가 향하고 있는 배향에 대응하는 배향을 갖는 가상 카메라의 관점으로부터의 3D 파노라마 스트리트 레벨 이미지를 검색할 수 있다. 시각적 보조물에 접근할 때 사용자가 향하는 배향을 결정하기 위해, 서버 디바이스(14)는 사용자가 시각적 보조물에 접근함에 따라 사용자가 경로를 따라 이동하는 방향을 결정하기 위해 내비게이션 길안내들의 세트를 분석할 수 있다. 예를 들어, 시각적 보조물을 참조하는 내비게이션 지시 이전의 이전 내비게이션 지시가 메인 스트리트로 좌회전하여 사용자가 동쪽으로 향하는 경우, 서버 디바이스(14)는 사용자가 동쪽을 향하면서 서쪽에서 시각적 보조물에 접근하는 것으로 결정할 수 있다.
임의의 경우에, 서버 디바이스(14)는 시각적 보조물을 가리는 객체들, 시각적 보조물의 사이즈, 시각적 보조물에 대한 라이트닝 양 등을 식별하기 위해 3D 파노라마 스트리트 레벨 이미지를 분석하고 분석 결과를 시각적 보조물 데이터베이스(52)에 저장할 수 있다. 그 후 서버 디바이스(14)는 시각적 보조물의 높이, 시각적 보조물의 위치, 시각적 보조물이 향하는 배향, 시각적 보조물의 사이즈, 시각적 보조물에 대응하는 위치에서 수행되는 기동 유형, 시각적 보조물에 대한 폐색 메트릭, 시각적 보조물에 대한 라이트닝 레벨 메트릭, 시각적 보조물에 대한 친숙도 메트릭, 시각적 보조물에서 날씨 컨디션들, 하루 중 시간, 연중 시간 등의 임의의 적절한 조합에 기반하여 시각적 보조물의 가시성 양을 결정할 수 있다.
블록(610)에서, 서버 디바이스(14)는 시각적 보조물에 대한 가시성 양에 대한 설명을 포함하도록 내비게이션 지시를 조정한다. 시각적 보조물의 가시성 양에 대한 설명에는 라이트닝 레벨 메트릭에 따라 시각적 보조물을 뷰잉하기 위한 라이트닝 레벨에 대한 설명, 폐색 메트릭에 따라 시각적 보조물을 가리는 객체(들)에 대한 설명, 시각적 보조물의 사이즈에 대한 설명, 사용자와 관련된 시각적 보조물의 위치에 대한 설명(예: "스트리트 표지판은 스트리트 오른쪽에 있습니다."), 또는 시각적 보조물의 가시성에 대한 기타 적절한 설명이 포함될 수 있다. 더 나아가, 시각적 보조물의 가시성 양에 대한 설명에는, "속도를 조기에 늦추십시오"와 같이 시각적 보조물의 가시성 양에 기반한 권장 사항이 포함될 수 있다.
일부 구현예들에서, 서버 디바이스(14)는 내비게이션 길안내들의 세트에서 시각적 보조물의 서브세트에 대한 가시성 설명들을 생성할 수 있다. 예를 들어, 서버 디바이스(14)는 제1 임계값 이상 또는 제2 임계값 미만의 가시성 메트릭을 갖는 적어도 하나의 시각적 보조물에 대한 가시성 설명을 생성할 수 있다. 이런 방법으로, 내비게이션 길안내들은 특히 눈에 띄거나 특히 보기 어려운 시각적 보조물을 위해 사용자에게 추가 세부 정보를 제공할 수 있다. 다른 예에서, 서버 디바이스(14)는 각각의 가시성 메트릭들에 따라 내비게이션 길안내들의 세트 내에서 시각적 보조물들의 순위를 매길 수 있다. 그 다음, 서버 디바이스(14)는 임계값 순위보다 상위에 있는 시각적 보조물들(예: 상위 3개의 시각적 보조물들)을 선택할 수 있고, 선택된 시각적 보조물들에 대한 가시성 설명을 생성할 수 있다.
임의의 경우에, 서버 디바이스(14)는 그 다음, 사용자가 클라이언트 디바이스(12) 상에 디스플레이하기 위한 내비게이션 지시를 수행하는 데 있어 사용자를 보조하기 위한 시각적 보조물의 가시성 양에 대한 설명을 갖는 하나 이상의 내비게이션 지시들을 포함하는 내비게이션 길안내들의 세트를 제공한다(블록 612).
도 7은 내비게이션 동안 시각적 보조물들의 가시성 표시들과 함께 내비게이션 지시들을 제시하기 위한 예시적인 방법(700)의 흐름도를 도시한다. 이 방법은 컴퓨터 판독가능 메모리에 저장되고 클라이언트 디바이스(12)의 하나 이상의 프로세서들에서 실행가능한 명령어들의 세트로 구현될 수 있다. 예를 들어, 방법은 지리 애플리케이션(26)에 의해 구현될 수 있다.
블록(702)에서, 시작 위치에서 목적지 위치까지의 내비게이션 길안내들에 대한 요청이 수신되었다. 요청을 받은 것에 대한 응답으로, 클라이언트 디바이스(12)는 목적지 위치까지의 경로를 따라 이동하기 위한 내비게이션 길안내들의 세트를 획득할 수 있다(블록 704). 예를 들어, 클라이언트 디바이스(12)는 서버 디바이스(14)에 요청을 전송할 수 있고 서버 디바이스(14)로부터 내비게이션 길안내들의 세트를 수신할 수 있다. 내비게이션 길안내들의 세트는 좌회전, 우회전, 계속 직진 등과 같은 경로를 따라 대응하는 위치들에서의 기동들을 포함할 수 있다. 사용자가 기동들을 수행할 위치들을 식별하는 데 도움이 되도록, 내비게이션 길안내들의 세트는 기동들을 수행하기 위한 위치들에 근접한 스트리트 표지판, 건물 표지판 등과 같은 시각적 보조물들을 참조할 수 있다. 부가적으로, 내비게이션 길안내들의 세트는 내비게이션 지시에서 참조되는 시각적 보조물을 뷰잉하기 위한 가시성 양에 대한 설명을 갖는 하나 이상의 내비게이션 지시들을 포함할 수 있다.
시각적 보조물에서 가시성 양에 대한 설명은 시각적 보조물을 뷰잉하기 위한 라이트닝 레벨에 대한 설명, 시각적 보조물을 가리는 객체(들)에 대한 설명, 시각적 보조물의 사이즈에 대한 설명, 사용자와 관련된 시각적 보조물의 위치에 대한 설명(예: "스트리트 표지판은 스트리트 오른쪽에 있습니다."), 또는 시각적 보조물의 가시성에 대한 기타 적절한 설명을 포함할 수 있다. 더 나아가, 시각적 보조물에 대한 가시성 양에 대한 설명에는 “속도를 조기에 늦추십시오”와 같은, 시각적 보조물의 가시성 양에 기반한 권장 사항이 포함될 수 있다.
그 다음 블록(706)에서, 지리 애플리케이션(26)은 사용자 인터페이스(28) 및/또는 클라이언트 디바이스의 스피커들을 통해 사용자에게 내비게이션 길안내들의 세트를 제시할 수 있다. 지리 애플리케이션(26)은 예를 들어 클라이언트 디바이스(12)의 스피커들을 통해 시각적 보조물의 가시성 양에 대한 텍스트 설명 및/또는 시각적 보조물의 가시성 양에 대한 오디오 설명을 제시할 수 있다.
따라서 본 기술은 개선된 내비게이션 지시들의 자동 생성을 허용함으로써 사용자와 전자 내비게이션 시스템 간의 개선된 인터페이스를 제공한다. 이러한 내비게이션 지시들은 주어진 사용자의 상황에 맞춤화될 수 있는데, 이는 실시예들에서 예시된 바와 같이, 주어진 사용자의 경로, 계획된 기동들, 라이트닝 및 날씨 컨디션들 등이 사용자의 경로에서 시각적 보조물의 가시성을 결정하는 데 모두 고려될 수 있기 때문이다. 또한 이러한 개선된 내비게이션 지시들은 모든 내비게이션 경로에 대해 자동으로 생성될 수 있다. 예를 들어, 사용자의 위치와 배향에 대응하는 3D 파노라마 스트리트 레벨 이미지들과 적절하게 트레이닝된 기계 학습 모델을 사용하면, 사용자는 3D 파노라마 스트리트 레벨 이미지들이 존재하는 모든 경로에서 향상된 내비게이션의 이점을 얻을 수 있다. 이는 모든 사용자에게 더 쉽고 안전한 내비게이션을 제공하는 데 도움이 된다.
추가 고려 사항들
본 명세서에 기술된 예시적인 방법들의 다양한 동작들은 관련 동작들을 수행하도록 일시적으로 구성되거나(예: 소프트웨어에 의해) 영구적으로 구성되는 하나 이상의 프로세서들에 의해 적어도 부분적으로 수행될 수 있다. 일시적으로 구성되든 영구적으로 구성되든, 이러한 프로세서들은 하나 이상의 동작들 또는 기능들을 수행하도록 동작하는 프로세서 구현 모듈들을 구성할 수 있다. 여기에서 언급된 모듈들은 일부 예시적인 실시예들에서 프로세서 구현 모듈들을 포함할 수 있다.
유사하게, 본 명세서에 기술된 방법들 또는 루틴들은 적어도 부분적으로 프로세서에서 구현될 수 있다. 예를 들어, 방법의 동작들 중 적어도 일부는 하나 이상의 프로세서들 또는 프로세서 구현 하드웨어 모듈들에 의해 수행될 수 있다. 특정 동작들의 성능은 단일 시스템 내에 상주할 뿐만 아니라 여러 시스템들에 배포된 하나 이상의 프로세서들 간에 분산될 수 있다. 일부 예시적인 실시예들에서, 프로세서 또는 프로세서들은 단일 위치(예: 가정 환경, 사무실 환경 내 또는 서버 팜)에 위치할 수 있는 반면, 다른 실시예들에서 프로세서들은 다수의 위치들에 걸쳐 분산될 수 있다.
하나 이상의 프로세서들은 또한 클라우드 컴퓨팅 환경에서 또는 소프트웨어 서비스(SaaS)로서 관련 동작들의 성능을 지원하도록 동작할 수 있다. 예를 들어, 동작들 중 적어도 일부는 컴퓨터들 그룹(프로세서를 포함하는 기계들의 예)에 의해 수행될 수 있으며, 이러한 동작들은 네트워크(예: 인터넷) 및 하나 이상의 적절한 인터페이스들(예: 애플리케이션 프로그램 인터페이스(API)들)를 통해 액세스할 수 있다.
본 명세서를 읽을 때, 당업자는 내비게이션 동안 시각적 보조물들의 가시성 표시들을 제공하는 시스템들에 대한 또 다른 대안적인 구조적 및 기능적 설계를 인식할 것이다. 따라서, 특정 실시예들 및 애플리케이션들이 도시되고 설명되었지만, 개시된 실시예들은 여기에 개시된 정확한 구성 및 구성요소들에 제한되지 않는다는 것을 이해해야 한다. 첨부된 특허청구범위에 정의된 사상 및 범위를 벗어나지 않고 본 명세서에 개시된 방법 및 장치의 배열, 동작 및 세부 사항들에서 다양한 수정, 변경 및 변형이 이루어질 수 있음은 당업자에게 명백할 것이다.

Claims (20)

  1. 내비게이션 동안 시각적 보조물(visual aid)들의 가시성 표시들과 함께 내비게이션 지시들을 제공하는 방법으로서, 상기 방법은:
    하나 이상의 프로세서들에서, 시작 위치로부터 목적지 위치까지의 내비게이션 길안내들에 대한 사용자로부터의 요청을 수신하는 단계;
    상기 하나 이상의 프로세서들에 의해, 상기 요청에 응답하여 경로를 따라 시작 시작 위치로부터 목적지 위치까지 이동하기 위한 내비게이션 길안내들의 세트를 획득하는 단계, 상기 내비게이션 길안내들의 세트는 상기 경로를 따라 대응하는 위치들에서의 하나 이상의 기동들을 포함하며;
    적어도 하나의 기동에 대해:
    상기 하나 이상의 프로세서들에 의해, 사용자가 상기 기동에 대응하는 위치를 식별하는 것을 어시스트하기 위한 시각적 보조물을 식별하는 단계;
    상기 하나 이상의 프로세서들에 의해, 상기 시각적 보조물에 대한 가시성 양(amount of visibility)을 결정하는 단계; 및
    상기 하나 이상의 프로세서들에 의해, 상기 시각적 보조물에 대한 가시성 양에 대한 설명을 포함하도록 상기 기동에 대응하는 내비게이션 길안내들의 세트에서 내비게이션 지시를 조정하는 단계; 및
    상기 하나 이상의 프로세서들에 의해, 사용자에게 제시하기 위해 상기 조정된 내비게이션 지시를 포함하는 내비게이션 길안내들의 세트를 제공하는 단계를 포함하는, 방법.
  2. 제1항에 있어서,
    상기 시각적 보조물에 대한 가시성 양을 결정하는 단계는:
    상기 하나 이상의 프로세서들에 의해, 사용자가 상기 내비게이션 길안내들의 세트에 기반하여 상기 시각적 보조물에 접근할 때 사용자의 배향을 결정하는 단계; 및
    상기 하나 이상의 프로세서들에 의해, 사용자가 상기 시각적 보조물에 접근하는 상기 배향에서 상기 시각적 보조물에 대한 가시성 양을 결정하는 단계를 포함하는, 방법.
  3. 제1항 또는 제2항에 있어서,
    상기 시각적 보조물에 대한 가시성 양을 결정하는 단계는:
    상기 하나 이상의 프로세서들에 의해, 상기 시각적 보조물을 포함하는 지리 영역의 3차원 파노라마 스트리트 레벨 이미지를 획득하는 단계; 및
    상기 하나 이상의 프로세서들에 의해 상기 3차원 파노라마 스트리트 레벨 이미지에 포함된 객체들에 기반하여 상기 시각적 보조물에 대한 가시성 양을 결정하는 단계를 포함하는, 방법.
  4. 제3항에 있어서,
    상기 지리 영역의 3차원 파노라마 스트리트 레벨 이미지를 획득하는 단계는 사용자가 상기 시각적 보조물에 접근할 때 사용자의 위치 또는 배향에 대응하는 뷰 플럼(frustum)를 갖는 가상 카메라의 관점으로부터 상기 3차원 파노라마 스트리트 레벨 이미지를 획득하는 단계를 포함하는, 방법.
  5. 제3항 또는 제4항에 있어서,
    상기 하나 이상의 프로세서들에 의해, 상기 3차원 파노라마 스트리트 레벨 이미지의 하나 이상의 부분들을 하나 이상의 객체 유형들로 분류하는 단계;
    상기 하나 이상의 프로세서들에 의해, 상기 하나 이상의 객체 유형들이 상기 시각적 보조물을 가리는지 여부를 결정하는 단계;
    상기 하나 이상의 프로세서들에 의해, 상기 하나 이상의 객체 유형들이 상기 시각적 보조물을 가리는지 여부에 기반하여 상기 시각적 보조물에 대한 폐색 메트릭을 결정하는 단계; 및
    상기 하나 이상의 프로세서들에 의해, 상기 폐색 메트릭에 기반하여 상기 시각적 보조물에 대한 가시성 양을 결정하는 단계를 더 포함하는, 방법.
  6. 제5항에 있어서,
    상기 3차원 파노라마 스트리트 레벨 이미지의 하나 이상의 부분들을 하나 이상의 객체 유형들로 분류하는 단계는:
    상기 하나 이상의 프로세서들에 의해, (i) 3차원 파노라마 스트리트 레벨 이미지들에 포함된 객체들에 대한 이미지 데이터 및 (ii) 상기 객체들 각각에 대한 객체 유형을 사용하여 기계 학습 모델을 트레이닝하는 단계;
    상기 하나 이상의 프로세서들에 의해, 상기 3차원 파노라마 스트리트 레벨 이미지의 일 부분에 대한 이미지 데이터를 획득하는 단계; 및
    상기 하나 이상의 프로세서들에 의해, 상기 3차원 파노라마 스트리트 레벨 이미지의 일 부분을 특정 객체 유형으로 분류하기 위해 상기 기계 학습 모델을 상기 이미지 데이터에 적용하는 단계를 포함하는, 방법.
  7. 선행하는 어느 한 항에 있어서,
    상기 시각적 보조물에 대한 가시성 양을 결정하는 단계는:
    상기 시각적 보조물의 사이즈,
    상기 시각적 보조물을 뷰잉하기 위한 라이트(light) 레벨,
    하루 중 시간,
    연중 시간,
    상기 시각적 보조물의 위치에서의 날씨 컨디션들, 또는
    상기 시각적 보조물에 접근할 때 수행되는 기동 유형 중 적어도 하나에 기반하여 상기 시각적 보조물에 대한 가시성 양을 결정하는 단계를 포함하는, 방법.
  8. 선행하는 어느 한 항에 있어서,
    상기 시각적 보조물에 대한 가시성 양에 대한 설명을 포함하도록 내비게이션 지시를 조정하는 단계는:
    상기 하나 이상의 프로세서들에 의해, 상기 시각적 보조물을 가리는 객체에 대한 설명 또는 상기 시각적 보조물을 뷰잉하기 위한 라이트닝 레벨에 대한 설명을 포함하도록 상기 내비게이션 지시를 조정하는 단계를 포함하는, 방법.
  9. 내비게이션 동안 시각적 보조물(visual aid)들의 가시성 표시들과 함께 내비게이션 지시들을 제공하는 컴퓨팅 디바이스로서, 상기 컴퓨팅 디바이스는:
    하나 이상의 프로세서들; 및
    상기 하나 이상의 프로세서들에 연결되고 명령어들을 저장하는 비일시적 컴퓨터 판독가능 메모리를 포함하고, 상기 명령어들은 상기 하나 이상의 프로세서들에 의해 실행될 때 상기 컴퓨팅 디바이스로 하여금:
    시작 위치로부터 목적지 위치까지의 내비게이션 길안내들에 대한 사용자로부터의 요청을 수신하게 하고;
    상기 요청에 응답하여 경로를 따라 시작 위치로부터 목적지 위치까지 이동하기 위한 내비게이션 길안내들의 세트를 획득하게 하고, 상기 내비게이션 길안내들의 세트는 상기 경로를 따라 대응하는 위치들에서의 하나 이상의 기동들을 포함하며;
    적어도 하나의 기동에 대해:
    사용자가 상기 기동에 대응하는 위치를 식별하는 것을 어시스트하기 위한 시각적 보조물을 식별하게 하고;
    상기 시각적 보조물에 대한 가시성 양(amount of visibility)을 결정하게 하고; 그리고
    상기 시각적 보조물에 대한 가시성 양에 대한 설명을 포함하도록 상기 기동에 대응하는 내비게이션 길안내들의 세트에서 내비게이션 지시를 조정하게 하고; 그리고
    사용자에게 제시하기 위해 상기 조정된 내비게이션 지시를 포함하는 내비게이션 길안내들의 세트를 제공하게 하는, 컴퓨팅 디바이스.
  10. 제9항에 있어서,
    상기 시각적 보조물에 대한 가시성 양을 결정하기 위해, 상기 명령어들은 상기 컴퓨팅 디바이스로 하여금:
    상기 내비게이션 길안내들의 세트에 기반하여 상기 시각적 보조물에 접근할 때 사용자의 배향을 결정하게 하고; 그리고
    사용자가 상기 시각적 보조물에 접근하는 상기 배향에서 상기 시각적 보조물에 대한 가시성 양을 결정하게 하는, 컴퓨팅 디바이스.
  11. 제9항 또는 제10항에 있어서,
    상기 시각적 보조물에 대한 가시성 양을 결정하기 위해, 상기 명령어들은 상기 컴퓨팅 디바이스로 하여금:
    상기 시각적 보조물을 포함하는 지리 영역의 3차원 파노라마 스트리트 레벨 이미지를 획득하게 하고; 그리고
    상기 3차원 파노라마 스트리트 레벨 이미지에 포함된 객체들에 기반하여 상기 시각적 보조물에 대한 가시성 양을 결정하게 하는, 컴퓨팅 디바이스.
  12. 제11항에 있어서,
    상기 지리 영역의 3차원 파노라마 스트리트 레벨 이미지는 사용자가 상기 시각적 보조물에 접근할 때 사용자의 위치 또는 배향에 대응하는 뷰 플럼(frustum)를 갖는 가상 카메라의 관점으로부터의 것인, 컴퓨팅 디바이스.
  13. 제11항 또는 제12항에 있어서,
    상기 명령어들은 상기 컴퓨팅 디바이스로 하여금:
    상기 3차원 파노라마 스트리트 레벨 이미지의 하나 이상의 부분들을 하나 이상의 객체 유형들로 분류하게 하고;
    상기 하나 이상의 객체 유형들이 상기 시각적 보조물을 가리는지 여부를 결정하게 하고;
    상기 하나 이상의 객체 유형들이 상기 시각적 보조물을 가리는지 여부에 기반하여 상기 시각적 보조물에 대한 폐색 메트릭을 결정하게 하고; 그리고
    상기 폐색 메트릭에 기반하여 상기 시각적 보조물에 대한 가시성 양을 결정하게 하는, 컴퓨팅 디바이스.
  14. 제13항에 있어서,
    상기 3차원 파노라마 스트리트 레벨 이미지의 하나 이상의 부분들을 하나 이상의 객체 유형들로 분류하기 위해, 상기 명령어들은 상기 컴퓨팅 디바이스로 하여금:
    (i) 3차원 파노라마 스트리트 레벨 이미지들에 포함된 객체들에 대한 이미지 데이터 및 (ii) 상기 객체들 각각에 대한 객체 유형을 사용하여 기계 학습 모델을 트레이닝하게 하고;
    상기 3차원 파노라마 스트리트 레벨 이미지의 일 부분에 대한 이미지 데이터를 획득하게 하고; 그리고
    상기 3차원 파노라마 스트리트 레벨 이미지의 일 부분을 특정 객체 유형으로 분류하기 위해 상기 기계 학습 모델을 상기 이미지 데이터에 적용하게 하는, 컴퓨팅 디바이스.
  15. 제9항 내지 제14항 중 어느 한 항에 있어서,
    상기 시각적 보조물에 대한 가시성 양은
    상기 시각적 보조물의 사이즈,
    상기 시각적 보조물을 뷰잉하기 위한 라이트 레벨,
    하루 중 시간,
    연중 시간,
    상기 시각적 보조물의 위치에서의 날씨 컨디션들, 또는
    상기 시각적 보조물에 접근할 때 수행되는 기동 유형 중 적어도 하나에 기반하여 결정되는, 컴퓨팅 디바이스.
  16. 제9항 내지 제15항 중 어느 한 항에 있어서,
    상기 내비게이션 지시들은 상기 시각적 보조물을 가리는 객체에 대한 설명 또는 상기 시각적 보조물을 뷰잉하기 위한 라이트닝 레벨에 대한 설명을 포함하도록 조정되는, 컴퓨팅 디바이스.
  17. 내비게이션 동안 시각적 보조물(visual aid)들의 가시성 표시들과 함께 내비게이션 지시들을 제공하는 방법으로서, 상기 방법은:
    하나 이상의 프로세서들에서, 시작 위치로부터 목적지 위치까지의 내비게이션 길안내들에 대한 사용자로부터의 요청을 수신하는 단계;
    상기 하나 이상의 프로세서들에 의해, 상기 요청에 응답하여 경로를 따라 시작 위치로부터 목적지 위치까지 이동하기 위한 내비게이션 길안내들의 세트를 획득하는 단계, 상기 내비게이션 길안내들의 세트는 상기 경로를 따라 대응하는 위치들에서의 하나 이상의 기동들을 포함하고, 상기 적어도 하나의 내비게이션 지시는 사용자가 상기 내비게이션 지시에 포함된 기동에 대응하는 위치를 식별하는 것을 어시스트하기 위한 시각적 보조물 및 상기 시각적 보조물을 뷰잉하기 위한 가시성 양에 대한 설명을 포함하며; 및
    상기 하나 이상의 프로세서들에 의해, 상기 내비게이션 길안내들의 세트를 제시하는 단계를 포함하고, 상기 내비게이션 길안내들의 세트를 제시하는 단계는 상기 시각적 보조물에 대한 가시성 양에 대한 설명을 포함하는 적어도 하나의 내비게이션 지시를 제시하는 단계를 포함하는, 방법.
  18. 제17항에 있어서,
    상기 내비게이션 길안내들의 세트를 제시하는 단계는 상기 시각적 보조물을 가리는 객체에 대한 설명을 포함하는 적어도 하나의 내비게이션 지시를 제시하는 단계를 포함하는, 방법.
  19. 제17항 또는 제18항에 있어서,
    상기 내비게이션 길안내들의 세트를 제시하는 단계는 상기 시각적 보조물을 뷰잉하기 위한 라이트닝 레벨에 대한 설명을 포함하는 적어도 하나의 내비게이션 지시를 제시하는 단계를 포함하는, 방법.
  20. 제17항 내지 제19항 중 어느 한 항에 있어서,
    상기 내비게이션 길안내들의 세트를 제시하는 단계는 사용자가 상기 시각적 보조물에 접근하는 배향에서 상기 시각적 보조물을 뷰잉하기 위한 가시성 양에 대한 설명을 포함하는 적어도 하나의 내비게이션 지시를 제시하는 단계를 포함하는, 방법.
KR1020237019931A 2021-01-13 2021-01-13 드라이빙 내비게이션의 명시적인 신호체계 가시성 단서들 KR20230129975A (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2021/013250 WO2022154786A1 (en) 2021-01-13 2021-01-13 Explicit signage visibility cues in driving navigation

Publications (1)

Publication Number Publication Date
KR20230129975A true KR20230129975A (ko) 2023-09-11

Family

ID=74562051

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020237019931A KR20230129975A (ko) 2021-01-13 2021-01-13 드라이빙 내비게이션의 명시적인 신호체계 가시성 단서들

Country Status (6)

Country Link
US (1) US20230175854A1 (ko)
EP (1) EP4271966A1 (ko)
JP (1) JP2024503008A (ko)
KR (1) KR20230129975A (ko)
CN (1) CN116685830A (ko)
WO (1) WO2022154786A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220316906A1 (en) * 2021-04-03 2022-10-06 Naver Corporation Apparatus and Method for Generating Navigational Plans

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110098910A1 (en) * 2009-10-22 2011-04-28 Nokia Corporation Method and apparatus for intelligent guidance using markers
US20150112593A1 (en) * 2013-10-23 2015-04-23 Apple Inc. Humanized Navigation Instructions for Mapping Applications
US10126141B2 (en) * 2016-05-02 2018-11-13 Google Llc Systems and methods for using real-time imagery in navigation
US10254125B2 (en) * 2016-11-14 2019-04-09 International Business Machines Corporation Driving assistant system
WO2020086051A1 (en) * 2018-10-22 2020-04-30 Google Llc Finding locally prominent semantic features for navigation and geocoding
WO2020242434A1 (en) * 2019-05-24 2020-12-03 Google Llc Method and device for navigating two or more users to a meeting location

Also Published As

Publication number Publication date
EP4271966A1 (en) 2023-11-08
WO2022154786A1 (en) 2022-07-21
CN116685830A (zh) 2023-09-01
JP2024503008A (ja) 2024-01-24
US20230175854A1 (en) 2023-06-08

Similar Documents

Publication Publication Date Title
US10126141B2 (en) Systems and methods for using real-time imagery in navigation
JP7127165B2 (ja) 初期ナビゲーションにおいて視覚ランドマークを使用するためのシステムおよび方法
US11698268B2 (en) Street-level guidance via route path
EP4089370B1 (en) Method and device for verifying a current location and orientation of a user using landmarks
US20210240762A1 (en) Finding Locally Prominent Semantic Features for Navigation and Geocoding
US20230175854A1 (en) Explicit Signage Visibility Cues in Driving Navigation
US9846819B2 (en) Map image display device, navigation device, and map image display method
KR102719426B1 (ko) 인터렉티브 랜드마크 기반 위치 파악
KR102555668B1 (ko) 맵 생성 방법 및 이를 이용한 이미지 기반 측위 방법