KR20220037789A - 증강현실 뷰를 사용하는 경로 안내 방법 및 장치 - Google Patents

증강현실 뷰를 사용하는 경로 안내 방법 및 장치 Download PDF

Info

Publication number
KR20220037789A
KR20220037789A KR1020200120680A KR20200120680A KR20220037789A KR 20220037789 A KR20220037789 A KR 20220037789A KR 1020200120680 A KR1020200120680 A KR 1020200120680A KR 20200120680 A KR20200120680 A KR 20200120680A KR 20220037789 A KR20220037789 A KR 20220037789A
Authority
KR
South Korea
Prior art keywords
information
image
route
user terminal
user
Prior art date
Application number
KR1020200120680A
Other languages
English (en)
Other versions
KR102458102B1 (ko
Inventor
정유진
윤여원
Original Assignee
네이버랩스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 네이버랩스 주식회사 filed Critical 네이버랩스 주식회사
Priority to KR1020200120680A priority Critical patent/KR102458102B1/ko
Priority to JP2023517677A priority patent/JP2023541957A/ja
Priority to PCT/KR2021/005279 priority patent/WO2022059878A1/ko
Publication of KR20220037789A publication Critical patent/KR20220037789A/ko
Priority to KR1020220133920A priority patent/KR102555924B1/ko
Application granted granted Critical
Publication of KR102458102B1 publication Critical patent/KR102458102B1/ko
Priority to US18/185,831 priority patent/US20230228587A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/20Instruments for performing navigational calculations
    • G01C21/206Instruments for performing navigational calculations specially adapted for indoor navigation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3446Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3476Special cost functions, i.e. other than distance or default speed limit of road segments using point of interest [POI] information, e.g. a route passing visible POIs
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3453Special cost functions, i.e. other than distance or default speed limit of road segments
    • G01C21/3492Special cost functions, i.e. other than distance or default speed limit of road segments employing speed data or traffic data, e.g. real-time or historical
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3617Destination input or retrieval using user history, behaviour, conditions or preferences, e.g. predicted or inferred from previous use or current movement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/362Destination input or retrieval received from an external device or application, e.g. PDA, mobile phone or calendar application
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3632Guidance using simplified or iconic instructions, e.g. using arrows
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3635Guidance using 3D or perspective road maps
    • G01C21/3638Guidance using 3D or perspective road maps including 3D objects and buildings
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3644Landmark guidance, e.g. using POIs or conspicuous other objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3682Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities output of POI information on a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3811Point data, e.g. Point of Interest [POI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Social Psychology (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

출발지로부터 목적지로의 경로를 획득하고, 카메라에 의해 촬영되는 영상을 포함하는 AR(augmented reality) 뷰를 통해 경로 안내를 제공하는 방법이 제공된다. 경로 안내를 제공함에 있어서, 획득된 경로에 기반하여 사용자 단말이 목적지를 향해 이동함에 따라, 사용자 단말과 경로에 포함된 소정의 정보가 등록된 노드 또는 링크와의 인터랙션이 발생하는 경우, 해당 소정의 정보와 연관된 콘텐츠가 안내 정보로서 AR 뷰의 영상에 증강하여 표시된다.

Description

증강현실 뷰를 사용하는 경로 안내 방법 및 장치{METHOD AND APPARATUS FOR ROUTE GUIDANCE USING AUGMENTED REALITY VIEW}
아래의 설명은 증강현실 뷰를 사용하는 경로 안내 방법 및 장치에 관한 것으로, 특히, 경로에 포함된 노드/링크에 기 등록된 정보에 기반하여 경로에 대한 안내를 제공하는 기술에 관한 것이다.
증강현실(Augmented Reality; AR) 은 현실 세계에 컴퓨터 기술로 만든 가상 물체 및 정보를 융합, 보완해 주는 기술을 의미한다. 즉, 증강현실은 실제 환경에 가상의 콘텐츠를 증강하혀 표시하는 기술로서, 사용자는 전자 장치를 통해 실제 환경에 대응하여 증강된 콘텐츠를 볼 수 있다.
이러한 증강현실 기술을 활용하는 다양한 서비스가 개발되고 있으며, 예컨대, 한국 공개특허공보 제10-2014-0065963호(공개일 2014년 05월 30일)에는 차량에 설치되어 카메라에 의해 촬영된 주행경로의 영상을 디스플레이에 표시하고 디스플레이에 표시된 영상에 주행경로를 안내하는 가상의 표시정보를 매핑하여 보여주는 증강현실 내비게이터가 개시되어 있다.
사용자 단말의 카메라에 의해 촬영되는 영상을 포함하는 AR 뷰를 통해 경로 안내를 제공함에 있어서, 사용자 단말과 경로에 포함된 소정의 정보가 등록된 노드 또는 링크와의 인터랙션이 발생하는 경우, 해당 소정의 정보와 연관된 콘텐츠를 안내 정보로서 AR 뷰의 영상에 증강하여 표시하는 경로 안내 방법을 제공한다.
출발지로부터 목적지로의 획득(또는 생성)된 경로의 특성을 나타내는 경로 속성에 기반하여, 추가적인 안내 정보를 AR 뷰의 영상에 증강하여 표시하는 경로 안내 방법을 제공할 수 있다.
영상에 기반하여 획득된 사용자 단말의 주변에 대한 실시간 정보에 기반하여, 추가적인 안내 정보를 AR 뷰의 영상에 증강하여 표시하거나 노드 또는 링크와 연관하여 표시되는 안내 정보를 변경하여 표시하는 경로 안내 방법을 제공한다.
일 측면에 따르면, 사용자 단말에 의해 수행되는 경로 안내 방법에 있어서, 출발지로부터 상기 사용자 단말의 사용자에 의해 설정된 목적지로의 경로를 획득하는 단계, 상기 경로에 기반하여, 상기 사용자 단말의 카메라에 의해 촬영되는 영상을 포함하는 AR(augmented reality) 뷰를 통해 상기 출발지로부터 상기 목적지로의 경로 안내를 제공하는 단계를 포함하고, 상기 경로는 복수의 노드들을 포함하고, 상기 경로 안내를 제공하는 단계는, 상기 경로에 기반하여 상기 사용자 단말이 상기 목적지를 향해 이동함에 따라, 상기 사용자 단말과 상기 복수의 노드들 중 소정의 정보가 등록된 노드 또는 상기 복수의 노드들 중 2개의 노드들을 연결한 링크들 중 상기 소정의 정보가 등록된 링크와의 인터랙션이 발생한 때, 상기 소정의 정보와 연관된 콘텐츠를 안내 정보로서 상기 영상에 증강하여 표시하는 단계를 포함하는, 경로 안내 방법이 제공된다.
상기 사용자 단말이 상기 소정의 정보가 등록된 노드 또는 상기 소정의 정보가 등록된 링크에 대응하는 위치로부터 소정의 거리 내에 접근하거나, 상기 대응하는 위치에 도달한 때 상기 인터랙션이 발생한 것으로 판정될 수 있다.
상기 증강하여 표시하는 단계는, 상기 사용자 단말이 상기 소정의 정보가 등록된 노드 또는 상기 소정의 정보가 등록된 링크에 접근하는 방향에 따라, 상이한 안내 정보를 표시하도록 상기 콘텐츠를 변경하여 상기 영상에 증강하여 표시할 수 있다.
상기 콘텐츠는, 상기 영상 내의 상기 소정의 정보가 등록된 노드 또는 상기 소정의 정보가 등록된 링크와 연관된 위치에서 표시되고, 상기 사용자가 이동해야 하는 방향에 관한 정보 및 상기 사용자가 취해야 할 액션에 관한 정보 중 적어도 하나를 포함할 수 있다.
상기 콘텐츠가 상기 영상 내에서 표시되는 위치는, 상기 영상의 소실점의 위치에 기반하여 결정될 수 있다.
상기 콘텐츠는 상기 사용자가 취해야 할 액션에 관한 정보를 포함하고, 상기 액션에 관한 정보는 개찰구 통과, 진입구 통과, 출입구 통과, 계단 이동, 방해물 회피, 엘리베이터 이용 및 티켓 또는 요금 준비 중 적어도 하나를 포함할 수 있다.
상기 경로 안내 방법은 상기 AR 뷰와 함께, 상기 영상에 매칭되는 지도를 포함하는 지도 뷰를 표시하는 단계를 더 포함하고, 상기 지도 뷰는 상기 경로 및 상기 사용자 단말의 현재 위치를 포함할 수 있다.
상기 경로 안내를 제공하는 단계는, 상기 목적지까지의 이동을 위해 상기 사용자가 이동해야 하는 방향을 나타내는 방향 인디케이터를 상기 영상에 증강하여 표시하는 단계를 포함할 수 있다.
상기 방향 인디케이터를 상기 영상에 증강하여 표시하는 단계는, 상기 방향 인디케이터를 상기 영상의 지면에 해당하는 영역에서 표시하되, 상기 사용자의 턴(turn)이 요구되는 경우 상기 턴을 나타내는 추가 방향 인디케이터를 상기 지면보다 더 위에서 표시할 수 있다.
상기 경로 안내를 제공하는 단계는, 상기 사용자 단말이 상기 목적지와 다른 층에 위치하는 것으로 판정된 경우, 층을 이동한 후 주변 스캐닝이 필요함을 나타내는 정보를 상기 영상에 증강하여 표시하는 단계를 포함할 수 있다.
상기 경로 안내를 제공하는 단계는, 상기 경로에 기반하여 상기 사용자 단말이 상기 목적지를 향해 이동함에 따라, 상기 경로의 경로 속성에 기반한 추가 안내 정보를 상기 영상에 증강하여 표시하는 단계를 포함할 수 있다.
상기 추가 안내 정보를 상기 영상에 증강하여 표시하는 단계는, 상기 사용자가 현재 위치로부터 소정의 제1 거리 이상 직진할 것이 요구되는 경우, 계속 직진을 안내하는 제1 추가 안내 정보, 상기 사용자가 현재 위치로부터 소정의 제2 거리 내에 소정의 제1 횟수 이상의 턴들이 요구되는 경우, 상기 AR 뷰를 유지할 것을 요청하는 제2 추가 안내 정보, 및 상기 사용자가 현재 위치로부터 소정의 제3 거리 내에 소정의 제2 횟수 이상의 턴들이 요구되는 경우, 상기 제2 횟수 이상의 턴들을 안내하는 텍스트 정보를 포함하는 제3 추가 안내 정보 중 적어도 하나를 상기 영상에 증강하여 표시할 수 있다.
상기 경로는 층 이동을 포함하고, 상기 추가 안내 정보를 상기 영상에 증강하여 표시하는 단계는, 상기 사용자 단말이 상기 목적지와 다른 층에 위치하는 것으로 판정된 경우, 상기 목적지까지의 이동을 위해 상기 사용자가 이동해야 하는 방향을 나타내는 방향 인디케이터를 표시하지 않고, 층 이동이 필요함을 나타내는 정보를 상기 추가 안내 정보로서 상기 영상에 증강하여 표시할 수 있다.
상기 추가 안내 정보를 상기 영상에 증강하여 표시하는 단계는, 상기 경로에 기반하여 상기 사용자 단말이 상기 목적지를 향해 이동함에 따라, 상기 경로의 주변에 존재하는 POI에 대한 정보를 상기 추가 안내 정보로서 상기 영상에 증강하여 표시하고, 상기 POI는 상기 사용자가 이전에 방문한 POI 또는 상기 사용자에 의해 기 등록된 POI일 수 있다.
상기 경로 안내 방법은 상기 경로에 기반하여 상기 사용자 단말이 상기 목적지를 향해 이동함에 따라, 상기 사용자의 현재 위치의 주변에 존재하는 POI에 대한 정보를 상기 영상에 증강하여 표시하는 단계를 더 포함하고, 상기 POI에 대한 정보는, 상기 현재 위치의 주변에 대응하는 3차원 공간을 나타내는 지도에 포함된 상기 POI에 대응하는 객체에 대해, z축 위치 정보를 포함하여 태깅된 정보이고, 상기 z축 위치 정보에 기반하여, 상기 영상 내에 상기 POI에 대한 정보가 표시되는 위치가 결정될 수 있다.
상기 POI에 대한 정보는 상기 영상 내에서의 상기 POI의 3차원의 위치를 반영하도록 상기 영상에 증강하여 표시될 수 있다.
상기 경로 안내를 제공하는 단계는, 상기 영상에 기반하여 상기 사용자 단말의 주변에 대한 실시간 정보를 획득하는 단계 및 상기 실시간 정보에 기반하여, 상기 목적지로의 경로 안내에 대한 추가 안내 정보를 상기 영상에 증강하여 표시하거나, 상이한 안내 정보를 표시하도록 상기 콘텐츠를 변경하여 상기 영상에 증강하여 표시하는 단계를 포함할 수 있다.
상기 추가 안내 정보를 상기 영상에 증강하여 표시하거나, 상이한 안내 정보를 표시하도록 상기 콘텐츠를 변경하여 상기 영상에 증강하여 표시하는 단계는, 상기 실시간 정보에 기반하여 판정된 상기 사용자 단말의 주변의 혼잡도가 소정의 값 이상인 경우, 상기 사용자 단말의 주변의 상기 경로의 적어도 일부에 대한 안내를 포함하는 텍스트 정보 및 상기 AR 뷰를 유지하지 말 것을 요청하는 정보를 상기 추가 안내 정보로서 상기 영상에 증강하여 표시할 수 있다.
상기 추가 안내 정보를 상기 영상에 증강하여 표시하거나, 상이한 안내 정보를 표시하도록 상기 콘텐츠를 변경하여 상기 영상에 증강하여 표시하는 단계는, 상기 실시간 정보에 기반하여 판정된 상기 사용자 단말의 주변의 혼잡도가 소정의 값 이상인 경우, 상기 사용자 단말의 주변의 상기 경로의 적어도 일부에 대해 우회 경로에 대한 안내를 제공하도록 상기 추가 안내 정보를 상기 영상에 증강하여 표시하거나, 상기 콘텐츠를 변경하여 상기 영상에 증강하여 표시할 수 있다.
상기 경로 안내를 제공하는 단계는, 상기 사용자 단말의 위치가 상기 경로로부터 소정의 거리 이상 벗어나는 경우, 상기 목적지로의 경로를 재탐색하는 단계를 포함하고, 상기 실시간 정보에 기반하여 판정된 상기 사용자 단말의 주변의 혼잡도가 소정의 값 이상인 경우, 상기 소정의 거리는 더 크게 설정될 수 있다.
다른 일 측면에 있어서, 사용자 단말을 구현하는 컴퓨터 시스템에 있어서, 메모리에 포함된 컴퓨터 판독 가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 출발지로부터 사용자에 의해 설정된 목적지로의 경로- 상기 경로는 복수의 노드들을 포함함 -를 획득하고, 상기 경로에 기반하여, 상기 사용자 단말의 카메라에 의해 촬영되는 영상을 포함하는 AR(augmented reality) 뷰를 통해 상기 출발지로부터 상기 목적지로의 경로 안내를 제공하고, 상기 경로에 기반하여 상기 사용자 단말이 상기 목적지를 향해 이동함에 따라, 상기 사용자 단말과 상기 복수의 노드들 중 소정의 정보가 등록된 노드 또는 상기 복수의 노드들 중 2개의 노드들을 연결한 링크들 중 상기 소정의 정보가 등록된 링크와의 인터랙션이 발생한 때, 상기 소정의 정보와 연관된 콘텐츠를 안내 정보로서 상기 영상에 증강하여 표시하는, 컴퓨터 시스템이 제공된다.
AR 뷰를 통해 경로 안내를 제공함에 있어서, 획득(또는 생성)된 경로에 포함된 노드 또는 링크에 대해 등록된 소정의 정보와 연관된 콘텐츠를 영상에 증강하여 표시함으로써, 사용자가 이동해야 할 방향 이상의 정보를 포함하는 노드 또는 링크의 특성을 고려한 안내 정보를 제공할 수 있다. 따라서, 경로에 포함된 노드 또는 링크와 연관하여 동적인(다이내믹한) 콘텐츠가 경로 안내를 위해 제공될 수 있다.
획득(또는 생성)된 경로의 경로 속성에 기반하여, 추가적인 안내 정보를 AR 뷰의 영상에 증강하여 표시함으로써, 경로에 포함된 각각의 노드 또는 링크의 특성 외에도, 경로 자체의 특성을 고려한 안내 정보를 제공할 수 있다.
사용자 단말의 주변에 대한 실시간 정보에 기반한 안내 정보를 AR 뷰의 영상에 증강하여 표시함으로써, 경로 안내 시점(time)의 상황에 적합한 안내 정보를 제공할 수 있다.
도 1은 일 실시예에 따른, AR 뷰를 사용하는 경로 안내 방법을 나타낸다.
도 2는 일 실시예에 따른, AR 뷰를 사용하는 경로 안내 방법을 제공하는 컴퓨터 시스템과 서버를 나타낸다.
도 3은 일 실시예에 따른, AR 뷰를 사용하는 경로 안내 방법을 나타내는 흐름도이다.
도 4 및 도 5는 일 예에 따른, 안내 정보를 AR 뷰의 영상에 증강하여 표시함으로써 경로 안내를 제공하는 방법을 나타내는 흐름도이다.
도 6은 일 예에 따른, 경로 안내를 제공함에 있어서 경로를 재탐색하는 방법을 나타내는 흐름도이다.
도 7은 일 예에 따른, 노드 및 링크를 포함하는 경로를 나타낸다.
도 8은 일 예에 따른, 노드와 거기에 등록된 정보와 연관된 콘텐츠를 나타낸다.
도 9 및 도 12는 일 예에 따른, 노드 또는 링크에 등록된 정보와 연관된 콘텐츠를 영상에 증강하여 표시하는 방법을 나타낸다.
도 10 및 도 13은 일 예에 따른, AR 뷰를 사용하는 경로 안내를 위한 사용자 단말의 화면을 나타낸다.
도 11은 일 예에 따른, 노드 또는 링크에 등록된 정보와 연관된 콘텐츠를 나타낸다.
도 14 내지 도 17은 일 예에 따른, 경로의 특성을 나타내는 경로 속성에 기반한 안내 정보를 AR 뷰의 영상에 증강하여 표시하는 방법을 나타낸다.
도 18은 일 예에 따른, 경로 안내를 제공함에 있어서 POI에 대한 정보를 AR 뷰의 영상에 증강하여 표시하는 방법을 나타낸다.
도 19 및 도 20은 일 예에 따른, 사용자 단말의 주변에 대한 실시간 정보에 기반한 안내 정보를 AR 뷰의 영상에 증강하여 표시하는 방법을 나타낸다.
이하, 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
실시예들은 위치 기반 AR 서비스로서, AR 뷰를 사용하여 출발지로부터 목적지까지의 경로 안내를 제공하는 방법에 관한 것이다.
실시예들에 있어서의 경로 안내는 실내의 공간 및/또는 실외의 영역에 대해 수행될 수 있다. 말하자면, 출발지 및 목적지 중 적어도 하나는 실내의 위치 또는 실외의 위치가 될 수 있고, 경로 안내는 실내 또는 실외 뿐만아니라, 실내와 실외가 결합된 복합 영역에 대해서도 수행될 수 있다.
'목적지'는 사용자가 도착하고자 하는 위치 또는 장소로서, 사용자 단말(100)을 통해 설정될 수 있다. '출발지'는 사용자의 현재 위치일 수 있다. 또는, '출발지'는 사용자 단말(100)에 의해 설정되는 위치일 수 있다.
후술될 상세한 설명에서, 사용자 단말의 위치는 설명의 편의상 (사용자 단말을 소지한) 사용자의 위치로 설명될 수 있다. 또한, 설명의 편의상 '사용자'와 사용자가 소지한 '사용자 단말'은 혼용하여 사용될 수 있다.
후술될 상세한 설명에서, 콘텐츠 및/또는 정보를 영상에 "증강하여 표시"하는 것은 실시예에 따라 콘텐츠 및/또는 정보를 영상에 중첩하여 표시하는 것을 포괄하는 의미로 해석될 수 있다.
AR을 통해 경로 안내를 제공하는 AR 내비게이션에 있어서, 실제의 카메라 뷰(AR 뷰)에 대해 사용자가 이동해야 할 경로에 대한 TBT(turn by turn) 및 방향/화살표 인디케이터만를 증강하는 경우에는, 현실 상황에서 사용자는 단순히 방향 표시만을 안내 받게 되는 바 경로를 따라 이동할 때 정보의 부족을 느낄 수 있다. 후술될 실시예에서는 경로가 포함하는 노드 및/또는 링크에 부가된 정보에 기반하는 부가적인 가이드 정보를 카메라 뷰에 대해 증강하여 표시할 수 있다. 따라서, 사용자는 경로를 따라 이동할 때, 단순한 방향 안내 이상의, 필요한 추가 정보를 제공 받을 수 있다.
실시예는 사용자가 이동할 경로에 대해 단순히 방향을 안내하거나 표시하는 것에 그치지 않고, 사용자의 상황 및/또는 경로(또는 주변) 상황에 부합하는 사용자의 행동을 가이드하거나 추가적인 정보를 제공하는 것이 가능한 AR 내비게이션을 제공할 수 있다.
도 1은 일 실시예에 따른, AR 뷰를 사용하는 경로 안내 방법을 나타낸다.
도시된 것처럼, 스마트 폰과 같은 사용자 단말(100)은 카메라를 사용하여 주변을 촬영할 수 있고, 카메라에 의해 촬영되는 영상을 포함하는 AR 뷰를 통해 경로를 안내할 수 있다.
AR 뷰의 영상에는, 목적지에 도착하기 위해 사용자가 이동해야 하는 방향을 나타내는 방향 인디케이터가 증강되어 표시될 수 있다. 사용자는 이러한 방향 인디케이터를 참조함으로써, 목적지에 도착하기 위해 이동해야 하는 방향과 턴(turn)을 식별할 수 있다.
사용자 단말(100)은 AR 뷰를 사용하는 경로 안내를 제공하기 위해 서버(200)와 통신할 수 있다. 서버(200)는, 사용자 단말(100)의 사용자로부터의 요청에 따라, 목적지로의 경로를 생성할 수 있고, 생성된 경로를 안내하기 위한 안내 정보를 사용자 단말(100)에 전송할 수 있다. 말하자면, 사용자 단말(100)은 서버(200)에 의해 생성된 경로를 획득할 수 있다.
서버(200)는 경로 및 경로에 대한 안내 정보를 생성하기 위한 데이터를 저장 및 유지하는 서버일 수 있다. 예컨대, 서버(200)는 디지털 지도(3D 지도 및/또는 2D)를 제공하는 맵 서버일 수 있다.
사용자 단말(100)은, 경로 안내를 제공함에 있어서, AR 뷰와 함께 AR 뷰의 영상에 매칭되는 지도를 포함하는 지도 뷰를 더 표시할 수 있다. 이에 따라, 사용자는 AR 뷰를 통해 표시되는 영상 뿐만아니라 거기에 대응하는 지도를 참조하여 목적지를 찾아갈 수 있다.
실시예에서는 사용자 단말(100)이 AR 뷰를 통해 경로 안내를 제공함에 있어서, 사용자 단말(100)은, 획득(서버(200)에 의해 생성)된 경로에 포함된 소정의 정보가 등록된 노드 또는 링크와 사용자 단말(100)의 인터랙션이 발생하는 경우, 해당 소정의 정보와 연관된 콘텐츠를 안내 정보로서 AR 뷰의 영상에 증강하여 표시할 수 있다.
즉, AR 뷰에는 방향 인디케이터 뿐만이 아니라, 경로에 포함된 노드 또는 링크와 관련되는 안내 정보로서의 콘텐츠가 영상에 증강하여 표시될 수 있고, 사용자는 이러한 콘텐츠를 식별하는 것을 통해 경로에 대해 보다 자세한 안내를 제공 받을 수 있다.
영상에 안내 정보로서 콘텐츠를 증강하여 표시하는 보다 자세한 방법에 대해서는, 후술될 도 2 내지 도 20을 참조하여 더 자세하게 설명된다.
도 2는 일 실시예에 따른, AR 뷰를 사용하는 경로 안내 방법을 제공하는 컴퓨터 시스템과 서버를 나타낸다.
실시예들에 따른 도 1을 참조하여 전술한 사용자 단말(100)은 도시된 컴퓨터 시스템(100)을 통해 구현될 수 있다. 예를 들어, 컴퓨터 시스템(100)에는 실시예의 방법을 구현하기 위한 컴퓨터 프로그램이 설치 및 구동될 수 있고, 이러한 컴퓨터 시스템(100)은 구동된 컴퓨터 프로그램의 제어에 따라 실시예들에 따른 경로 안내 방법을 수행할 수 있다.
실시예들에 따른 경로 안내 방법은 PC 기반의 프로그램 또는 모바일 단말 전용의 어플리케이션을 통해 수행될 수 있다. 예컨대, 실시예들에 따른 경로 안내 방법은 독립적으로 동작하는 프로그램 형태로 구현되거나, 혹은 특정 어플리케이션의 인-앱(in-app) 형태로 구성되어 상기 특정 어플리케이션 상에서 동작이 가능하도록 구현될 수 있다. 이러한 특정 어플리케이션은 컴퓨터 시스템(100) 상에 설치되어 AR 기반의 경로 안내를 제공함으로써 실시예의 경로 안내 방법을 수행할 수 있다.
컴퓨터 시스템(100)은 전자 장치로서, 도 1에서 도시된 것과 같이 어플리케이션 또는 프로그램을 설치 및 실행할 수 있는 스마트폰 및 이와 유사한 장치일 수 있다. 또한, 컴퓨터 시스템(100)은 PC(personal computer), 노트북 컴퓨터(laptop computer), 랩탑 컴퓨터(laptop computer), 태블릿(tablet), 사물 인터넷(Internet Of Things) 기기, 또는 웨어러블 컴퓨터(wearable computer) 등일 수 있다.
도시된 것처럼, 컴퓨터 시스템(100)은 경로 안내 방법을 실행하기 위한 구성요소로서 메모리(110), 프로세서(120), 통신 인터페이스(130) 및 입출력 인터페이스(140)를 포함할 수 있다.
메모리(110)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(110)와는 구분되는 별도의 영구 저장 장치로서 컴퓨터 시스템(100)에 포함될 수도 있다. 또한, 메모리(110)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(110)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 메모리(110)로 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 인터페이스(130)를 통해 메모리(110)에 로딩될 수도 있다. 예를 들어, 소프트웨어 구성요소들은 네트워크(160)를 통해 수신되는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 컴퓨터 시스템(100)의 메모리(110)에 로딩될 수 있다.
프로세서(120)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(110) 또는 통신 인터페이스(130)에 의해 프로세서(120)로 제공될 수 있다. 예를 들어 프로세서(120)는 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
즉, 프로세서(120)는 컴퓨터 시스템(100)의 구성 요소들을 관리할 수 있고, 컴퓨터 시스템(100)이 사용하는 프로그램 또는 어플리케이션을 실행할 수 있다. 예컨대, 프로세서(120)는 실시예의 경로 안내 방법을 수행하기 위한 어플리케이션을 실행하고, 경로 안내를 제공하기 위해 서버(200)로부터 수신된 데이터를 처리하도록 구성될 수 있다. 또한, 프로세서(120)는 프로그램 또는 어플리케이션의 실행 및 데이터의 처리 등에 필요한 연산을 처리할 수 있으며, 컴퓨터 시스템(100)의 적어도 하나의 프로세서 또는 프로세서 내의 적어도 하나의 코어(core)일 수 있다.
통신 인터페이스(130)는 네트워크(160)를 통해 컴퓨터 시스템(100)이 다른 컴퓨터 시스템(미도시)과 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 컴퓨터 시스템(100)의 프로세서(120)가 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이나 명령, 데이터, 파일 등이 통신 인터페이스(130)의 제어에 따라 네트워크(160)를 통해 다른 컴퓨터 시스템으로 전달될 수 있다. 역으로, 다른 컴퓨터 시스템으로부터의 신호나 명령, 데이터, 파일 등이 네트워크(160)를 거쳐 컴퓨터 시스템(100)의 통신 인터페이스(130)를 통해 컴퓨터 시스템(100)으로 수신될 수 있다. 통신 인터페이스(130)를 통해 수신된 신호나 명령, 데이터 등은 프로세서(120)나 메모리(110)로 전달될 수 있고, 파일 등은 컴퓨터 시스템(100)이 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다. 일례로, 통신 인터페이스(130)는 컴퓨터 시스템(100)의 네트워크 인터페이스 카드, 네트워크 인터페이스 칩 및 네트워킹 인터페이스 포트 등과 같은 하드웨어 모듈 또는 네트워크 디바이스 드라이버(driver) 또는 네트워킹 프로그램과 같은 소프트웨어 모듈일 수 있다.
입출력 인터페이스(140)는 입출력 장치(150)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로, 입출력 인터페이스(140)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(150)는 컴퓨터 시스템(100)과 하나의 장치로 구성될 수도 있다.
또한, 다른 실시예들에서 컴퓨터 시스템(100)은 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요는 없다. 예를 들어, 컴퓨터 시스템(100)은 상술한 입출력 인터페이스(140)와 연결되는 입출력 장치들 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 컴퓨터 시스템(100)이 스마트폰과 같은 모바일 기기의 형태로 구현되는 경우, 일반적으로 모바일 기기가 포함하고 있는 카메라, 가속도 센서나 자이로 센서, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 컴퓨터 시스템(100)에 더 포함되도록 구현될 수 있다.
서버(200)는 컴퓨터 시스템(100)와 통신하여, 컴퓨터 시스템(100)에 대해 경로 안내를 위한 정보/데이터를 제공하는 전자 장치일 수 있다. 서버(200)는 (출발지로부터 목적지로의) 경로 및 경로에 대한 안내 정보를 생성하기 위한 데이터를 저장 및 유지하는 장치로서 데이터베이스를 포함하거나, 이러한 데이터베이스와 통신할 수 있다. 예컨대, 서버(200)는 디지털 지도(3D 지도 및/또는 2D)를 제공하는 맵 서버일 수 있다. 서버(200)는 적어도 하나의 컴퓨터 시스템을 포함할 수 있다. 서버(200)가 포함하는 컴퓨터 시스템은 전술된 컴퓨터 시스템(100)과 유사한 구성들을 포함할 수 있고, 이에 대해 중복되는 설명은 생략한다.
실시예에서, 사용자 단말(100)은 AR 뷰를 통해 경로 안내를 제공함에 있어서, 서버(200)와 통신하여, 서버(200)로부터 제공된 데이터 및/또는 정보에 기반하여, 안내 정보로서의 콘텐츠를 영상에 증강하여 표시할 수 있다.
후술될 상세한 설명에서는, 설명의 편의상 사용자 단말(100)에 해당하는 컴퓨터 시스템(100)을 중심으로 실시예들을 설명하고, 서버(200)와의 통신 및 서버(200) 측에서의 동작은 설명을 간략히 하거나 생략하는 경우가 있다.
또한, 후술될 상세한 설명에서는, 설명의 편의상 컴퓨터 시스템(100)(또는, 서버(200))의 구성(예컨대, 프로세서 등)에 의해 수행되는 동작들을 컴퓨터 시스템(100)(또는, 서버(200))에 의해 수행되는 것으로 기재할 수 있다.
이상 도 1을 참조하여 전술된 기술적 특징에 대한 설명은, 도 2에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 3은 일 실시예에 따른, AR 뷰를 사용하는 경로 안내 방법을 나타내는 흐름도이다.
도 3을 참조하여, 컴퓨터 시스템(100)에 의해 수행되는 경로 안내 방법에 대해 설명한다. 컴퓨터 시스템(100)은 도 1을 참조하여 전술된 사용자 단말(100)일 수 있는 바, 후술될 상세한 설명에서는, 컴퓨터 시스템(100) 대신에 사용자 단말(100)의 용어를 사용하여 실시예를 설명한다.
단계(310)에서, 사용자 단말(100)은 목적지를 설정할 수 있다. 목적지의 설정은 사용자 단말(100)의 사용자가 경로 안내 서비스를 제공하는 어플리케이션이 제공하는 사용자 인터페이스를 통해 이루어질 수 있다. 또한, 사용자 단말(100)은 출발지를 설정할 수 있다. 출발지는 목적지와 마찬가지로 사용자에 의해 사용자 인터페이스를 통해 설정될 수 있고, 또는, 사용자(사용자 단말(100))의 현재 위치가 출발지로서 설정될 수 있다.
단계(320)에서, 사용자 단말(100)은 출발지로부터 상기 설정된 목적지로의 경로를 획득할 수 있다. 상기 설정된 목적지로의 경로는 서버(200)에 의해 생성될 수 있고, 사용자 단말(100)은 서버(200)에 의해 생성된 경로를 획득할 수 있다. 서버(200)로부터의 경로의 획득은 출발지로부터 목적지로의 경로를 나타내는 정보/데이터를 수신하는 것일 수 있다. 획득된 경로는 출발지로부터 목적지로의 최단 거리 경로, 최소 시간 경로, 및 최적 경로 중 적어도 하나를 포함할 수 있다. 복수의 경로들이 생성되어 사용자 단말(100)에 제공되는 경우, 사용자 단말(100)은 사용자로부터 수신되는 선택에 기반하여, 선택된 경로에 대한 안내를 제공할 수 있다.
경로의 생성을 위해 요구되는 연산의 적어도 일부는 단말(100)에서 수행될 수도 있다.
단계(330)에서, 사용자 단말(100)은 단계(320)에서 획득된 경로에 기반하여, 사용자 단말(100)의 카메라에 의해 촬영되는 영상을 포함하는 AR 뷰를 통해 출발지로부터 목적지로의 경로 안내를 제공할 수 있다. 말하자면, 사용자는 AR 뷰의 영상에 증강하여 표시되는 안내 정보를 참고하여 출발지로부터 목적지로 이동할 수 있다. 단계(332)에서처럼, 사용자 단말(100)은 목적지까지의 이동을 위해 사용자가 이동해야 하는 방향을 나타내는 방향 인디케이터를 영상에 증강하여 표시할 수 있다. 사용자는 영상에 증강하여 표시되는 방향 인디케이터를 통해 이동해야 할 방향 및 턴을 인식할 수 있고, 이에 따라, 출발지로부터 목적지로 이동할 수 있다.
방향 인디케이터를 영상에 증강하여 표시함에 있어서는, 사용자 단말(100)은 방향 인디케이터를 영상의 지면에 해당하는 영역에서 표시하되, 사용자의 턴(turn)이 요구되는 경우 상기 턴을 나타내는 추가 방향 인디케이터를 지면보다 더 위에서 표시할 수 있다. 예컨대, 도 1에서 도시된 것처럼, AR 뷰의 영상에는 사용자가 경로를 따라 이동해야 할 방향을 나타내는 방향 인디케이터가 지면에 표시될 수 있고, 사용자가 좌회전을 해야 함을 나타내는 추가 방향 인디케이터는 지면보다 더 위에서 표시될 수 있다. 이에 따라, 사용자는 목적지로의 이동을 위해 요구되는 턴을 보다 분명하게 식별할 수 있다.
단계(320)에서 획득된 경로는 복수의 노드들을 포함할 수 있다. 또한, 경로는 노드들 중 2개의 노드를 연결한 링크를 포함할 수 있다.
관련하여, 도 7은 일 예에 따른, 노드 및 링크를 포함하는 경로를 나타낸다. 도 7은 복수의 노드들 및 노드들을 연결하는 링크들을 포함하는 공간이 도시되었다. 도시된 공간은 (예컨대, 강남역과 같은) 실내 공간이거나, 실외의 특정한 영역을 나타내는 공간일 수 있다.
도시된 것처럼, 공간 내에는 복수의 노드들(710)이 정의될 수 있다. 또한, 노드들(710) 중 2개를 연결한 선으로서 링크들(720)이 정의될 수 있다. 노드들(710) 및 링크들(720)은 서버(200)에 의해 정의될 수 있다. 예컨대, 노드들(710)의 각각은 서버(200)의 관리자에 의해 공간 내에 매핑될 수 있다. 또는, 서버(200)는 공간에 대응하는 (노드들을 포함하는) 메쉬를 생성함으로써 노드들(710) 중 적어도 일부를 자동으로 매핑할 수 있다. 노드들(710) 중 적어도 일부 및/또는 링크들(720) 중 적어도 일부에는 소정의 정보가 등록될 수 있다. 소정의 정보는 해당 노드 또는 링크와 관련한 안내 정보로서의 콘텐츠를 영상에 증강시키기 위해 요구되는 정보를 포함할 수 있다.
경로(730)는 단계(320)에서 획득된 경로의 일 예일 수 있다. 경로(730)는 출발지에 대응하는 노드와 목적지에 대응하는 노드를 연결함으로써 생성될 수 있다. 도시된 예시에서는, 경로(730)에 포함되는 노드들 및 링크들이 나머지 노드들 및 링크들과 구분하여 표시되었다.
일례로, 노드는 공간 내의 코너나 교차점에 매핑될 수 있고, 따라서 획득된 경로(730)에서 사용자의 턴이 요구되는 지점은 노드를 포함할 수 있다. 예컨대, 전술된 추가 방향 인디케이터는 (턴이 요구되는 지점의) 노드에 대응하는 영상 내의 위치에 표시될 수 있다. 턴을 나타내지 않는 일반적인 방향 인디케이터는 영상에서 노드와 노드 사이에 소정의 간격으로 표시될 수 있다.
실시예에서는, 경로(730)에 포함된 노드들 또는 링크들 중 소정의 정보가 등록된 노드 또는 링크와 사용자 단말(100)의 인터랙션이 발생하는 경우, 해당 소정의 정보와 연관된 콘텐츠가 안내 정보로서 영상에 증강하여 표시될 수 있다.
영상에 안내 정보를 증강하여 표시하는 구체적인 방법에 대해서는, 후술될 도면들을 참조하여 더 자세하게 설명된다.
한편, 단계(325)에서처럼, 사용자 단말(100)은, 목적지에 대한 경로 안내를 제공하기 위해, AR 뷰와 함께 AR 뷰의 영상에 매칭되는 지도를 포함하는 지도 뷰를 표시할 수 있다. 지도 뷰는 경로 및 사용자 단말의 현재 위치를 포함할 수 있다. 지도 뷰는 2차원 지도 또는 3차원 지도일 수 있다.
관련하여 도 10은 일 예에 따른, AR 뷰를 사용하는 경로 안내를 위한 사용자 단말(100)의 화면(1000)을 나타낸다.
도시된 것처럼, 지도 뷰(1010)는 사용자 단말(100)의 화면의 하단에 표시될 수 있다. 지도 뷰(1010)는 3차원 지도일 수 있고, 도시된 것처럼 평면도 형태의 지도가 아니라, 지도 상의 객체들을 3차원으로 식별할 수 있도록 기울어져 있을 수 있다.
지도 뷰(1010)가 기울어진 각도는 영상의 소실점(1040)의 위치에 기반하여 결정될 수 있다. 또한, 도시된 것처럼, 지도 뷰(1010)는 사다리꼴 형태(두 꼭지점이 둥글게 된 사다리꼴 형태)로 표시될 수 있다. 사다리꼴 형태의 지도 뷰(1010)의 평행하지 않는 두 변의 연장선은 영상의 소실점에서 교차하게 될 수 있다.
지도 뷰(1010)에 표시되는 지도는 AR 뷰의 영상보다 더 줌 아웃되어 있을 수 있다. 말하자면, 지도 뷰(1010)는 영상보다 더 넓은 영역에 대한 정보를 제공할 수 있다. 사용자는 AR 뷰의 영상과 함께 지도 뷰(1010)를 참조함으로써 목적지를 더 용이하게 찾아갈 수 있게 된다.
지도 뷰(1010)에는 경로(1012)와 사용자 단말(100)의 현재 위치(1014)가 표시될 수 있다.
또한, 전술된 것처럼, AR 뷰의 영상에는 사용자가 이동해야 할 방향을 나타내는 방향 인디케이터(1020)가 증강하여 표시될 수 있다. 방향 인디케이터(1020)는 영상의 지면에 해당하는 영역에서 표시될 수 있다. 또한, 영상에는 경로(1012) 상의 턴을 나타내는 추가 방향 인디케이터(1030)가 더 증강하여 표시될 수 있다. 추가 방향 인디케이터(1030)는 지면보다 더 위에서 표시될 수 있다. 예컨대, 추가 방향 인디케이터(1030)는 소실점(1040)보다 더 위에(또는, 더 아래에 혹은 소실점(1040)의 위치)에 표시될 수 있다. 또는, 추가 방향 인디케이터(1030)는 영상에서 기 설정된 높이에서 표시될 수 있다.
한편, 단계(335)에서처럼, 사용자 단말(100)은, 단계(320)에서 획득된 경로에 기반하여 사용자 단말(100)이 목적지를 향해 이동함에 따라, 사용자(사용자 단말(100))의 의 현재 위치의 주변에 존재하는 POI에 대한 정보를 영상에 증강하여 표시할 수 있다.
POI는 예컨대, 식당, 상점, 관공서, (지도 내의) 기타 지물 등과 같은 시설을 나타날 수 있다. POI에 대한 정보는 해당 POI에서 제공하는 상품, 서비스, 이벤트 등에 관한 정보를 포함할 수 있다. 또한, POI에 대한 정보는 해당 POI와 관련된 유고 정보(예컨대, 공사 중, 영업 중, 영업 종료, 폐업 등)를 포함할 수 있다.
이러한 POI에 대한 정보는, 사용자 단말(100)의 현재 위치의 주변에 대응하는 3차원 공간을 나타내는 지도에 포함된 POI에 대응하는 객체에 대해, z축 위치 정보(예컨대, z축 좌표)를 포함하여 태깅된 정보일 수 있다. 즉, POI에 대한 정보는 3차원 공간을 나타내는 지도의 해당 POI에 대응하는 객체에 매핑된 정보일 수 있고, z축 위치 정보를 포함하도록 객체에 매핑될 수 있다. 3차원 공간을 나타내는 지도는 예컨대, 3D 포인트 클라우드 맵일 수 있다.
영상 내에서 POI에 대한 정보가 표시되는 위치는 이러한 z축 위치 정보에 기반하여 결정될 수 있다. 이에 따라, POI에 대한 정보는 영상 내에서의 해당 POI의 3차원의 위치를 반영(즉, POI의 3차원 지오메트리를 반영)하도록 영상에 증강하여 표시될 수 있다.
일례로, POI가 건물의 2층에 존재하는 경우 해당 POI에 대한 정보는 3차원 공간을 나타내는 지도에 포함된 해당 POI를 포함하는 건물의 2층에 매핑될 수 있고, 사용자 단말(100)은 AR 뷰의 영상을 통해 상기 건물이 표시될 때 건물의 2층에서 POI에 대한 정보를 표시할 수 있다. POI에 대한 정보가 예컨대, "공사 중"을 포함할 경우, 사용자 단말(100)은 "공사 중"을 나타내는 정보와 함께 사용자에게 (주위를 지나갈 때) 주의를 요청하는 정보를 영상에 증강하여 표시할 수 있다(예컨대, "공사중입니다. 주의하세요", 혹은 "주변 교통 정보를 확인하세요" 등).
POI에 대한 정보가 표시되는 POI는 사용자가 이전에 방문한 POI 또는 상기 사용자에 의해 (예컨대, 즐겨찾기 또는 관심 대상으로서) 기 등록된 POI일 수 있다.
관련하여, 도 18은 일 예에 따른, 경로 안내를 제공함에 있어서 POI에 대한 정보를 AR 뷰의 영상에 증강하여 표시하는 방법을 나타낸다. 도 18은 AR 뷰를 사용하는 경로 안내를 위한 사용자 단말(100)의 화면(1800)의 일 예를 나타낸다.
도시된 것처럼, 편의점 A에 해당하는 POI에 대한 정보(1810)가 영상에 대해 증강하여 표시될 수 있다. POI에 대한 정보(1810)는 POI가 제공하는 상품, 서비스, 이벤트 등에 관한 정보를 포함할 수 있고, POI와 관련된 유고 정보를 포함할 수 있다. 또한, 도시된 것처럼, POI에 대한 정보(1810)는 해당 POI를 사용자가 이전에 방문했음을 나타내는 정보(또는, 사용자가 즐겨찾기 한 POI임을 나타내는 정보)를 포함할 수 있다.
POI에 대한 정보(1810)는 해당 POI의 3차원의 위치를 반영하여 영상에 증강하여 표시될 수 있다. 예컨대, 도시된 것처럼, POI에 대한 정보(1810)는 실제 편의점 A의 간판의 위치에 중첩하여 표시될 수 있다. 실시예에 따라, 사용자는 AR 뷰를 통해 보다 식별력 있고 실감나는 POI에 대한 정보를 확인할 수 있다.
POI에 대한 정보는 도시된 것과는 달리 POI로 이동하기 위한 출구/방향에 관한 정보를 포함할 수도 있다. POI는 상점 등과 같은 시설이거나, 입구 또는 출구, 화장실, 혹은 ATM일 수 있다. 다른 일례로, POI에 대한 정보는 "왼쪽/오른쪽 5m 부근에 나의 즐겨찾기 식당인 'OO 식당'이 있습니다"와 같이 영상에 증강하여 표시될 수 있다. 이 때, POI의 정보는 화면에서 해당 POI가 위치하는 방향에서 표시될 수 있다.
이상 도 1 및 도 2를 참조하여 전술된 기술적 특징에 대한 설명은, 도 3, 도 7, 도 10 및 도 18에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다.
도 4는 일 예에 따른, 안내 정보를 AR 뷰의 영상에 증강하여 표시함으로써 경로 안내를 제공하는 방법을 나타내는 흐름도이다.
도 4를 참조하여, 전술된 단계(330)에서의 AR 뷰를 통해 출발지로부터 목적지로의 경로 안내를 제공하는 방법을 더 자세하게 설명한다.
단계(410)에서, 사용자 단말(100)은, 단계(320)에서 획득된 경로에 기반하여 사용자 단말(100)(즉, 사용자)이 목적지를 향해 이동함에 따라, 사용자 단말(100)과 경로에 포함된 복수의 노드들 중 소정의 정보가 등록된 노드 또는 경로에 포함된 링크들 중 소정의 정보가 등록된 링크와의 인터랙션이 발생한 때, 해당 소정의 정보와 연관된 콘텐츠를 안내 정보로서 영상에 증강하여 표시할 수 있다. 예컨대, 사용자 단말(100)(또는, (서버(200)))은 사용자 단말(100)과 소정의 정보가 등록된 노드 또는 링크와의 인터랙션이 발생하는지 여부를 판정할 수 있다. 인터랙션이 발생한 것으로 판정된 때, 사용자 단말(100)은 해당 노드 또는 링크에 등록된 소정의 정보와 연관된 콘텐츠를 안내 정보로서 영상에 증강하여 표시할 수 있다
사용자 단말(100)과 노드 또는 링크와의 인터랙션은 사용자 단말(100)에 의한 특정한 액션을 포함할 수 있다. 예컨대, 사용자 단말(100)이 소정의 정보가 등록된 노드 또는 링크에 대응하는 위치(즉, 노드 또는 링크에 대응하는 현실 세계의 위치)로부터 소정의 거리 내에 접근하거나, 대응하는 위치에 도달(또는, 해당 위치를 통과)한 때 인터랙션이 발생한 것으로 판정될 수 있다. 이와 같은, 인터랙션의 발생을 판정하기 위한 조건은 각각의 노드 또는 링크에 기 설정되어 있을 수 있다. 예컨대, 각각의 노드 또는 링크에는 콘텐츠를 출력하기 위한 사용자 단말(100)의 접근 범위를 나타내는 "액션 레인지(Action Range)"가 기 설정되어 있을 수 있고, 설정된 액션 레인지 내에 사용자 단말(100)이 진입하는 경우 해당 노드 또는 링크에 등록된 소정의 정보와 연관된 콘텐츠가 영상에 표시될 수 있다.
이러한 콘텐츠는 영상 내의 소정의 정보가 등록된 노드 또는 링크와 연관된 위치에서 표시될 수 있다. 노드 또는 링크와 연관된 위치는 전술한 상기 노드 또는 링크에 대응하는 위치(즉, 노드 또는 링크에 대응하는 현실 세계의 위치)이거나, 노드 또는 링크에 대응하는 위치로부터 일정 거리 앞 또는 뒤의 위치일 수 있다. 상기 노드 또는 링크와 연관된 위치는 사용자 단말(100)의 화면 상에서의 위치를 의미할 수 있고, 따라서, 콘텐츠는 화면 상에서 해당 노드 또는 링크와 연관하여, 예컨대, 해당 노드 또는 링크의 주위에서 또는 해당 노드 또는 링크에 도착하기 전에 화면의 일 측 또는 중앙 등의 소정의 위치에서 표시될 수 있다.
콘텐츠는, 소정의 정보가 등록된 노드 또는 링크와 관련하여, 목적지 탐색 과정에서 사용자의 행동을 가이드할 수 있는 지시 내용을 포함할 수 있다. 예를 들어, 콘텐츠는, 사용자가 이동해야 하는 방향에 관한 정보 및 사용자가 취해야 할 액션에 관한 정보 중 적어도 하나를 포함할 수 있다.
콘텐츠가 포함하는 사용자가 취해야 할 액션에 관한 정보는, 예컨대, 개찰구 통과, 진입구 통과, 출입구 통과, 계단(또는 층) 이동, 방해물 회피, 엘리베이터 이용 및 티켓 또는 요금 준비 중 적어도 하나를 포함할 수 있다.
이에 따라, AR 뷰를 통해 경로 안내가 제공될 때, 사용자는 특정한 노드 또는 링크의 주변에서 목적지로 이동하기 위해 취해야 할 액션이 무엇인지를 보다 분명하게 알 수 있게 된다. 일례로, 사용자가 개찰구 앞(즉, 개찰구에 해당하는 노드의 주변)에 도착한 경우, 사용자 단말(100)은 "개찰구를 통과하세요" 및/또는 "표/요금을 준비하세요"와 같은 안내를 AR 뷰의 영상에 표시할 수 있다.
또한, 사용자 단말(100)은 단계(410)에서의 콘텐츠를 영상에 증강하여 표시함에 있어서, 사용자 단말(100)이 소정의 정보가 등록된 노드 또는 링크에 접근하는 방향에 따라, 상이한 안내 정보를 표시하도록 콘텐츠를 변경하여 영상에 증강하여 표시할 수 있다. 말하자면, 사용자가 소정의 정보가 등록된 노드 또는 링크에 접근하는 방향에 따라 영상에는 다른 안내 정보가 표시될 수 있으며, 따라서, 노드 또는 링크에 대해 사용자의 이동 방향에 적합한 안내 정보가 표시될 수 있다.
예컨대, 사용자가 개찰구에 해당하는 노드의 주변에 도착한 경우, 사용자가 개찰구를 통과해 들어가는 방향으로 이동 중이면, 사용자 단말(100)은 "개찰구를 통과해 지하철을 타세요" 및/또는 "표/요금을 준비하세요"와 같은 안내 정보를 영상에 표시할 수 있고, 사용자가 개찰구를 통과해 나가가는 방향으로 이동 중이면, 사용자 단말(100)은 "개찰구를 통과해 나가세요"와 같은 안내 정보를 영상에 표시할 수 있다. 또한, 사용자가 출입구에 해당하는 노드의 주변에 도착한 경우에 있어서도 사용자가 들어가는 방향으로 이동하는지 또는 나가는 방향으로 이동하는지에 따라 상이한 안내 정보를 영상에 표시할 수 있다.
관련하여, 도 8, 도 9, 도 11 및 도 12를 참조하여 실시예의 콘텐츠 표시 방법에 대해 더 자세하게 설명한다.
도 8은 일 예에 따른, 노드와 거기에 등록된 정보와 연관된 콘텐츠를 나타낸다.
도 8에서는 노드들과 링크들을 포함하는 경로(800)가 도시되었다.
도시된 것처럼, 노드들의 각각은 기본 노드, 개찰구 정보를 포함하는 노드, 계단 정보를 포함하는 노드, 또는 엘리베이터 정보를 포함하는 노드일 수 있다. 기본 노드는 안내 정보(콘텐츠)를 표시하기 위한 정보가 등록되지 않은 노드일 수 있다. 개찰구 정보를 포함하는 노드는 개찰구와 관련된 안내 정보를 표시하기 위한 정보가 등록된 노드일 수 있다. 계단 정보를 포함하는 노드는 계단과 관련된 안내 정보를 표시하기 위한 정보가 등록된 노드일 수 있다. 엘리베이터 정보를 포함하는 노드는 엘리베이터와 관련된 안내 정보를 표시하기 위한 정보가 등록된 노드일 수 있다.
노드(800-1)와 노드(800-2)에는 콘텐츠를 표시하기 위한 소정의 정보가 등록되었다. 노드(800-1)는 소정의 정보로서 개찰구 정보를 포함할 수 있고, 노드(800-2)는 소정의 정보로서 계단 정보를 포함할 수 있다.
사용자가 경로(800)를 따라 이동하는 경우에 있어서, 노드(800-1)에 접근하는 경우, 사용자 단말(100)은 콘텐츠(820-1)(즉, "개찰구 통과")를 안내 정보로서 영상에 증강하여 표시할 수 있다. 또한, 사용자가 노드(800-2)에 접근하는 경우, 사용자 단말(100)은 콘텐츠(820-2)(즉, "아랫층으로 이동")를 안내 정보로서 영상에 증강하여 표시할 수 있다.
또한, 도시된 것처럼, 사용자 단말(100)은 영상에 사용자가 이동해야 할 방향을 나타내는 방향 인디케이터를 영상에 증강하여 표시할 수 있다.
콘텐츠(820-1 또는 820-2)는 해당 노드(800-1 또는 800-2)에 접근하기 전(일례로는, 그 이전의 노드를 통과할 때) 표시될 수 있다. 콘텐츠의 표시 위치 또는 시점(time)은 노드(800-1 또는 800-2)에 정의된 액션 레인지 값에 따라 결정될 수 있다.
도 9 및 도 12는 일 예에 따른, 노드 또는 링크에 등록된 정보와 연관된 콘텐츠를 영상에 증강하여 표시하는 방법을 나타낸다.
도 9에서 도시된 AR 뷰에서처럼, 사용자가 개찰구에 해당하는 노드에 정의된 액션 레인지 내에 진입한 경우에 있어서, 사용자 단말(100)은 안내 정보에 해당하는 콘텐츠(개찰구 통과)를 영상에 증강하여 표시될 수 있다. 또한, 도시된 것처럼, 사용자 단말(100)은 영상에 사용자가 이동해야 할 방향을 나타내는 방향 인디케이터를 영상에 증강하여 표시할 수 있다.
도 12에서 도시된 AR 뷰에서처럼, 사용자가 계단에 해당하는 노드에 정의된 액션 레인지 내에 진입한 경우에 있어서, 사용자 단말(100)은 안내 정보에 해당하는 콘텐츠(윗층으로 이동(a) 또는 층 이동 후 주변 스캐닝(b))를 증강하여 표시할 수 있다. 또한, 도시된 것처럼, 사용자 단말(100)은 영상에 사용자가 이동해야 할 방향을 나타내는 방향 인디케이터를 영상에 증강하여 표시할 수 있다.
도 11은 일 예에 따른, 노드 또는 링크에 등록된 정보와 연관된 콘텐츠를 나타낸다. 도시된 것처럼, 노드 또는 링크에 대한 안내 정보로서 영상에 증강하여 표시되는 콘텐츠는 텍스트 정보 및 해당 텍스트를 설명하는 이미지를 포함할 수 있다.
실시예에서는, AR 뷰의 영상에 방향 인디케이터 뿐만아니라 도시된 것과 같은 콘텐츠를 증강하여 표시함으로써, 사용자에게 보다 상세한 경로 안내를 제공할 수 있다.
한편, 콘텐츠가 영상 내에서 증강하여 표시되는 위치는 사용자가 콘텐츠를 식별하기 용이한 위치로서 기 설정될 수 있다. 예컨대, 콘텐츠가 영상 내에서 증강하여 표시되는 위치는 영상의 소실점의 위치에 기반하여 결정될 수 있다. 또는, 이러한 콘텐츠는 영상의 우측 상단 또는 좌측 상단의 고정된 위치에 증강하여 표시될 수도 있다. 콘텐츠가 영상 내에서 증강하여 표시되는 위치는 사용자 단말(100)의 사용자에 의해 설정될 수 있다. 또는, 콘텐츠는 영상에서 기 설정된 높이에서 표시될 수 있다. 또는, 콘텐츠가 영상 내에서 증강하여 표시되는 위치는 도 10을 참조하여 전술한 전술한 턴을 나타내는 추가 방향 인디케이터(1030)가 증강하여 표시되는 위치와 유사한 방식으로 결정될 수도 있다.
아래에서는, 경로 속성에 기반한 추가 안내 정보를 사용하는 경로 안내 방법에 대해 설명한다.
단계(420)에서, 사용자 단말(100)은, 단계(320)에서 획득된 경로에 기반하여 사용자 단말(100)이 목적지를 향해 이동함에 따라, 경로의 경로 속성에 기반한 (추가) 안내 정보를 영상에 증강하여 표시할 수 있다. 말하자면, 실시예를 통해서는, 사용자 단말(100)은 (경로에 포함된 각각의 노드 또는 링크의 특성에 따른 안내 정보(전술한 노드 또는 링크에 등록된 소정의 정보와 연관된 콘텐츠) 외에도, 경로 자체의 특성을 고려한 안내 정보를 영상에 증강하여 표시할 수 있다.
사용자 단말(100)은 사용자가 현재 위치로부터 소정의 제1 거리 이상 직진할 것이 요구되는 경우, 계속 직진을 안내하는 제1 추가 안내 정보를 영상에 증강하여 표시할 수 있다. 예컨대, 사용자 단말(100)은, 획득된 경로가 직진을 나타내는 링크를 일정 거리 이상 포함하는 경우(즉, 경로에 포함된 노드들을 연결하는 링크들이 일정 거리 이상 직진을 나타내는 경우 또는 일정 거리에 대응하는 길이 이상의 직진 구간을 포함하는 경우), 사용자에게 '계속 직진'을 안내하는 제1 추가 안내 정보를 영상에 증강하여 표시할 수 있다. 안내되는 경로에서 제1 추가 안내 정보는 직진 구간이 종료될 때까지 영상에 증강되어 표시될 수 있다. 제1 추가 안내 정보는 직진 구간의 길이를 나타내는 정보를 포함할 수 있다. 직진 구간의 길이를 나타내는 정보는 사용자가 직진 구간을 이동함에 따라 가변할 수 있다.
제1 추가 안내 정보를 통해, 사용자는 목적지로 이동함에 있어서, 일정 거리 이상이 직진이 요구된다는 것을 미리 확인할 수 있다.
또한, 사용자 단말(100)은 사용자가 현재 위치로부터 소정의 제2 거리 내에 소정의 제1 횟수 이상의 턴들이 요구되는 경우, AR 뷰를 유지할 것을 요청하는 제2 추가 안내 정보를 영상에 증강하여 표시할 수 있다. 예컨대, 사용자 단말(100)은, 획득된 경로가 제1 횟수 이상의 턴들을 나타내는 링크들을 포함하는 (제2 거리에 대응하는 길이 이하의) 구간을 포함하는 경우, 사용자에게 AR 뷰를 종료하지 말고 유지할 것을 요청하는 제2 추가 안내 정보를 영상에 증강하여 표시할 수 있다. 즉, 경로 내의 상대적으로 짧은 구간 내에 상대적으로 많은 턴들이 포함되는 경우, 사용자 단말(100)은 해당 구간을 복잡한 경로로 판정할 수 있고, 사용자에게 AR 뷰를 유지할 것을 안내할 수 있다.
제2 추가 안내 정보를 통해, 사용자는 목적지로 이동함에 있어서, 짧은 구간에 많은 턴들을 요구하는 복잡한 구간으로의 진입을 미리 확인할 수 있고, AR 뷰를 유지하면서 해당 구간에 대한 안내를 제공 받을 수 있다.
또한, 사용자 단말(100)은 사용자가 현재 위치로부터 소정의 제3 거리 내에 소정의 제2 횟수 이상의 턴들이 요구되는 경우, 제2 횟수 이상의 턴들을 안내하는 텍스트 정보를 포함하는 제3 추가 안내 정보를 영상에 증강하여 표시할 수 있다. 예컨대, 사용자 단말(100)은, 획득된 경로가 제2 횟수 이상의 턴들을 나타내는 링크들을 포함하는 (제3 거리에 대응하는 길이 이하의) 구간을 포함하는 경우, 해당 제2 횟수 이상의 턴들을 텍스트 정보를 통해 안내할 수 있다. 즉, 경로 내의 상대적으로 짧은 구간 내에 상대적으로 많은 턴들이 포함되는 경우, 사용자 단말(100)은 해당 구간을 복잡한 경로로 판정할 수 있고, 사용자에게 텍스트 정보를 통해 해당 복잡한 경로를 안내할 수 있다. 텍스트 정보를 포함하는 제3 추가 안내 정보가 영상에 표시될 때, 전술된 방향 인디케이터는 영상에 더 이상 표시되지 않을 수 있다. 제3 거리는 제2 거리와 동일하거나 상이하게 설정될 수 있고, 제2 횟수는 제1 횟수와 동일하거나 상이하게 설정될 수 있다.
사용자 단말(100)은, 상황에 따라, 전술한 제1 추가 안내 정보, 제2 추가 안내 정보 및 제3 추가 안내 정보 중 적어도 하나를 영상에 증강하여 표시할 수 있다.
관련하여, 도 14 내지 도 17은 일 예에 따른, 경로의 특성을 나타내는 경로 속성에 기반한 안내 정보를 AR 뷰의 영상에 증강하여 표시하는 방법을 나타낸다.
도 14 및 도 17은 전술된 제1 추가 안내 정보를 표시하는 방법을 나타낸다.
도 14에서 도시된 것처럼, 사용자 단말(100)은 목적지(1410)까지의 경로(1400)가 소정의 길이(예컨대, 20m) 이상의 직진 링크를 포함하거나 해당 소정의 길이 이상의 직진 구간을 포함하는 경우, 제1 추가 안내 정보(1420)("계속 직진")를 영상에 증강하여 표시할 수 있다. 도시된 예시에서, 경로(1400) 내에 노드는 10미터 간격으로 배치될 수 있고, 방향 인디케이터는 2m 간격으로 배치될 수 있다. 2개의 노드들을 연결하는 링크는 10m의 길이를 가질 수 있다.
도 17은 경로 내에 장애물이 존재하는 경우에 있어서 제1 추가 안내 정보를 표시하는 방법을 나타낸다.
예컨대, (a)에서 도시된 것처럼, 경로 내에 기둥이 장애물로서 존재하는 경우, 장애물을 회피하기 위해 요구되는 턴의 각도가 소정의 값(예컨대, 45도) 미만인 경우, 사용자 단말(100)은 장애물을 회피하기 위해 요구되는 턴을 포함하는 구간을 직진 구간으로 판단할 수 있다. 따라서, 사용자 단말(100)은, 해당 직진 구간에 진입 시, 제1 추가 안내 정보로서 "직진 구간"을 영상에 증강하여 표시할 수 있다.
다만, (b)에서 도시된 것처럼, 장애물을 회피하기 위해 요구되는 턴의 각도가 소정의 값(예컨대, 45도) 이상인 경우, 사용자 단말(100)은 장애물을 회피하기 위해 요구되는 턴을 포함하는 구간을 직진 구간이 아닌 것으로 판단할 수 있다. 따라서, 사용자 단말(100)은 해당 구간에 진입 시에는 제1 추가 안내 정보를 표시하지 않을 수 있다.
도 15는 전술된 제2 추가 안내 정보를 표시하는 방법을 나타낸다.
도 15에서 도시된 것처럼, 사용자 단말(100)은 목적지(1510)까지의 경로(1500)가 소정 횟수 이상(예컨대, 3회)의 턴들을 포함하는 (소정의 길이 이하의) 구간을 포함하는 경우, 제2 추가 안내 정보(1520)("AR 뷰를 유지해 주세요")를 영상에 증강하여 표시할 수 있다. 사용자는 영상에 증강하여 표시된 제2 추가 안내 정보(1520)를 확인하여 AR 뷰를 유지함으로써 많은 턴들을 포함하는 복잡한 구간에 대한 안내를 제공 받을 수 있다.
도 16는 전술된 제3 추가 안내 정보를 표시하는 방법을 나타낸다.
도 16에서 도시된 것처럼, 사용자 단말(100)은 목적지(1610)까지의 경로(1600)가 소정 횟수 이상(예컨대, 3회)의 턴들을 포함하는 (소정의 길이 이하의) 구간을 포함하는 경우, 제3 추가 안내 정보(1620)("10미터 앞, 우회전, 다음 10미터 앞 좌회전, 다음 10미터 앞 좌회전, 다음 10미터 앞 우회전입니다")를 영상에 증강하여 표시할 수 있다. 사용자는 영상에 증강하여 표시된 제3 추가 안내 정보(1620)를 확인하여 많은 턴들을 포함하는 복잡한 구간에 대한 안내를 해당 턴들을 설명하는 텍스트 정보를 통해 제공 받을 수 있다.
한편, 단계(420)의 경로 속성에 기반한 추가 안내 정보를 상기 영상에 증강하여 표시함에 있어서, 사용자 단말(100)은, 획득된 경로에 기반하여 사용자 단말(100)이 목적지를 향해 이동함에 따라, 경로의 주변에 존재하는 POI에 대한 정보를 추가 안내 정보로서 영상에 증강하여 표시할 수 있다. POI에 대한 정보가 제공되는 POI는 사용자가 이전에 방문한 POI 또는 사용자에 의해 (예컨대, 즐겨찾기 또는 관심 대상으로서) 기 등록된 POI일 수 있다.
POI에 대한 정보에 대한 설명과 POI에 대한 정보를 영상에 증강하여 표시하는 방법에 대해서는, 도 3 및 도 18을 참조하여 전술된 POI에 대한 정보에 대한 설명 및 POI에 대한 정보를 영상에 증강하여 표시하는 방법이 유사하게 적용될 수 있다. 따라서, 중복되는 설명은 생략한다.
마찬가지로, POI에 대한 정보는 영상 내에서의 해당 POI의 3차원의 위치를 반영(즉, POI의 3차원 지오메트리를 반영)하도록 영상에 증강하여 표시될 수 있다.
한편, 출발지와 목적지가 실내 공간의 서로 다른 층에 위치하는 경우, 단계(320)에서 획득된 경로는 층 이동을 포함할 수 있다. 이 때, 단계(420)의 경로 속성에 기반한 추가 안내 정보를 상기 영상에 증강하여 표시함에 있어서, 사용자 단말(100)은, 사용자 단말(100)이 목적지와 다른 층에 위치하는 것으로 판정된 경우, 목적지까지의 이동을 위해 층 이동이 필요함을 나타내는 정보를 추가 안내 정보로서 영상에 증강하여 표시할 수 있다. 이 때, 영상에는 사용자가 이동해야 하는 방향을 나타내는 방향 인디케이터는 표시되지 않을 수 있다.
층 이동이 필요함을 나타내는 정보는 텍스트 정보를 포함할 수 있다. 층 이동이 필요함을 나타내는 정보는 예컨대, "가까운 계단/엘리베이터/에스컬레이터로 이동하세요"와 같은 정보를 포함할 수 있다. 이 때, 영상에는 방향 인디케이터는 표시되지 않을 수 있다(예컨대, 도 13 참조). 또는, 층 이동이 필요함을 나타내는 정보 사용자의 현재 위치로부터 가장 가까운 계단, 엘리베이터 또는 에스컬레이터로의 안내 정보를 포함할 수 있다(예컨대, 도 12의 (a) 참조).
사용자 단말(100)이 목적지와 동일한 층으로 이동된 후 다시 목적지에 대한 경로 안내가 개시될 수 있다.
아래에서는, 영상에 기반하여 획득되는 사용자 단말(100) 주변에 대한 실시간 정보에 기반한 안내 정보를 사용하는 경로 안내 방법에 대해 설명한다.
단계(430)에서, 사용자 단말(100)은, 영상에 기반하여 사용자 단말(100)의 주변에 대한 실시간 정보를 획득할 수 있다. 실시간 정보는 카메라에 의해 촬영된 영상을 분석함으로써 획득될 수 있다. 예컨대, 실시간 정보는 사용자 단말(100)의 주변에 대한 혼잡도를 포함할 수 있다. 사용자 단말(100)은 영상 내에 포함된 사람의 수를 카운트하거나, 지물 또는 장애물의 존재 여부를 고려하여 사용자 단말(100)의 주변에 대한 혼잡도를 계산할 수 있다. 즉, 사용자 단말(100)은 영상 내에 다이내믹 오브젝트의 수에 기반하여 사용자 단말(100)의 주변에 대한 혼잡도를 계산할 수 있다.
단계(440)에서, 사용자 단말(100)은, 실시간 정보에 기반하여, 목적지로의 경로 안내에 대한 추가 안내 정보를 영상에 증강하여 표시하거나, 상이한 안내 정보를 표시하도록 단계(410)을 참조하여 설명한 콘텐츠를 변경하여 영상에 증강하여 표시할 수 있다. 실시예를 통해서는, 사용자 단말의 주변에 대한 실시간 정보에 기반한 안내 정보가 영상에 증강하여 표시됨으로써, 경로 안내 시점(time)의 상황에 적합한 안내 정보가 제공될 수 있다.
예컨대, 사용자 단말(100)은, 실시간 정보에 기반하여 판정된 사용자 단말(100)의 주변의 혼잡도(즉, 영상을 통해 표시되는 영역의 혼잡도)가 소정의 값 이상인 경우, 사용자 단말의 주변의 경로의 적어도 일부에 대해 우회 경로에 대한 안내를 제공하도록 추가 안내 정보를 영상에 증강하여 표시하거나, (노드 또는 링크에 등록된 소정의 정보와 연관하여 표시되는) 콘텐츠를 변경하여 영상에 증강하여 표시할 수 있다. 즉, 사용자 단말(100)은 AR 뷰를 통해 경로 안내를 제공함에 있어서, 영상 분석에 따라 사용자 단말(100)의 주변의 혼잡도가 높은 것으로 판정된 경우, 사용자에게 원래의 경로가 아닌 다른 경로로 우회하도록 안내할 수 있다. 일례로, AR 뷰의 영상을 통해 표시되는 경로에 포함된 개찰구가 붐비는 경우(즉, 개찰구에 대응하는 노드의 주변의 혼잡도가 높은 경우), 사용자 단말(100)은, 추가 안내 정보를 영상에 증강하여 표시하거나 혼잡한 개찰구에 대응하는 노드와 연관하여 표시되는 콘텐츠를 변경하여 표시함으로써, 다른 개찰구를 이용하도록 사용자에게 안내할 수 있다.
또한, 사용자 단말(100)은, 실시간 정보에 기반하여 판정된 사용자 단말(100)의 주변의 혼잡도가 소정의 값 이상인 경우, 사용자 단말(100)의 주변의 경로의 적어도 일부에 대한 안내를 포함하는 텍스트 정보 및/또는 AR 뷰를 유지하지 말 것을 요청하는 정보를 추가 안내 정보로서 영상에 증강하여 표시할 수 있다. 즉, 사용자 단말(100)은 주변이 혼잡한 경우에는 사용자가 굳이 AR 뷰를 참조하지 않더라도 경로 안내를 제공받을 수 있도록 할 수 있다. 사용자는 주변이 혼잡한 경우 사용자 단말(100)에 표시된 텍스트 정보를 확인하여 목적지로 이동할 수 있다. 또한, 사용자는 주변이 혼잡한 경우 AR 뷰를 유지하지 않도록 사용자 단말(100)로부터 안내 받을 수 있다. 또는, 주변이 혼잡한 경우에 있어서의 경로 안내는 상기 텍스트 정보 대신에(혹은 추가적으로) 음성을 통해 제공될 수도 있다.
관련하여, 도 19 및 도 20은 일 예에 따른, 사용자 단말(100)의 주변에 대한 실시간 정보에 기반한 안내 정보를 AR 뷰의 영상에 증강하여 표시하는 방법을 나타낸다.
도 19는 사용자 단말(100)의 화면의 AR 뷰(1900)를 나타낸다. 도시된 것처럼, 사용자 단말(100)은, 영상 분석에 따라 사용자가 통과하고자 하는 개찰구 주변의 혼잡도가 높은 것으로 판정된 경우, 사용자에게 추가 안내 정보(또는 상이한 안내 정보를 표시하도록 변경된 콘텐츠)를 통해 다른 개찰구를 이용하도록 안내할 수 있다. 예컨대, 사용자 단말(100)은 "개찰구가 혼잡합니다. 옆/다른 개찰구를 이용해 주세요"와 같은 안내 정보를 영상에 증강하여 표시할 수 있다. 또는, 도시되지는 않았으나, 추가로 사용자 단말(100)은 우회 경로(즉, 다른 개찰구)로의 안내를 위한 방향 인디케이터를 영상에 증강하여 표시할 수 있다. 우회 경로(즉, 다른 개찰구)로의 안내를 위한 방향 인디케이터는 기존의 경로(붐비는 개찰구)로의 안내를 위한 방향 인디케이터와는 시각적으로 구분될 수 있다.
한편, 사용자 단말(100)은 AR 뷰에서 인식되는 개찰구와의 위치와 증강되는 콘텐츠의 위치를 비교하여, 개찰구의 위치를 고려하여 콘텐츠가 증강되는 위치를 적절하게 조절할 수 있다.
또한, 도 20에서 도시된 것처럼, 사용자 단말(100)은, 영상 분석에 따라 목적지(2010)까지의 경로(2000)에 있어서의 혼잡도가 높은 경우, 주변의 경로에 대한 안내를 포함하는 텍스트 정보 및 AR 뷰를 유지하지 말 것을 요청하는 정보를 추가 안내 정보(2020)로서 영상에 증강하여 표시할 수 있다. 영상에 증강하여 표시되는 정보(2020)는 예컨대, "AR 뷰를 유지하기에 적합하지 않습니다" 및 "10미터 앞, 우회전, 다음 10미터 앞 좌회전, 다음 10미터 앞 좌회전, 다음 10미터 앞 우회전입니다"와 같은 텍스트 정보를 포함할 수 있다.
사용자 단말(100)은 혼잡도가 높은 경우 사용자가 카메라를 들고 이동하기가 어려운 상황인 것으로 판단하여, (목적지에 대한 경로 안내를 요약하는) 텍스트 정보를 통해 목적지에 대한 경로 안내를 제공하고, AR 뷰를 유지하지 않도록 사용자를 유도할 수 있다. 추가 안내 정보(2020)는 텍스트 정보 대신에(또는 추가적으로) 음성으로 제공될 수도 있다.
이상 도 1 내지 도 3, 도 7, 도 10 및 도 18을 참조하여 전술된 기술적 특징에 대한 설명은, 도 4, 도 8, 도 9, 도 11, 도 12, 도 14 내지 도 17, 도 19 및 도 20에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다
도 5는 일 예에 따른, 안내 정보를 AR 뷰의 영상에 증강하여 표시함으로써 경로 안내를 제공하는 방법을 나타내는 흐름도이다.
도 5를 참조하여, 전술된 단계(330)에서의 AR 뷰를 통해 출발지로부터 목적지로의 경로 안내를 제공하는 방법을 더 자세하게 설명한다.
단계(510)에서, 사용자 단말(100)은, 사용자 단말(100)이 목적지와 다른 층에 위치하는지 여부를 판정할 수 있다.
단계(520)에서, 사용자 단말(100)은, 사용자 단말(100)이 목적지와 다른 층에 위치하는 것으로 판정된 경우, 층을 이동한 후 주변 스캐닝이 필요함을 나타내는 정보를 영상에 증강하여 표시할 수 있다.
즉, 사용자 단말(100)은 사용자 단말(100)이 목적지와 다른 층에 위치하는 경우, (사용자가 이동해야 하는 방향을 나타내는 방향 인디케이터를 표시하지 않고) 일단 사용자가 다른 층(목적지가 위치하는 층)으로 이동해야 함을 안내할 수 있다. 한편, 사용자 단말(100)이 목적지와 다른 층에 위치하는 경우란, 주변 스캐닝이 다시 요구되는 상태로서 사용자가 이동해야 하는 방향을 나타내는 방향 인디케이터의 표시가 불가능한 상태일 수 있다.
관련하여, 도 13은 일 예에 따른, AR 뷰를 사용하는 경로 안내를 위한 사용자 단말(100)의 화면(1300)을 나타낸다. 도시된 것처럼, 지하철 플랫폼 등에서 경로 탐색이 이루어진 경우, 목적지는 사용자 단말(100)의 위치와 다른 층에 위치할 수 있다. 이 때, 사용자 단말(100)은 일단 층을 이동한 후 주변 스캐닝이 필요함을 나타내는 정보(1310)("층 이동 후 주변 스캐닝(하세요)")를 영상에 증강하여 표시할 수 있다. 층을 이동한 후 주변 스캐닝이 필요한 경우, 지도 뷰 영역(1320)에도 해당 정보가 표시될 수 있다. 예컨대, 도시된 것처럼, 지도 뷰 영역(1320)에는 지도 대신에 사용자 단말(100)의 (실내) 위치가 제대로 파악되지 않았음을 나타내는 인디케이터가 표시될 수 있다.
사용자가 층 이동을 위해 계단 주변으로 이동하게 되면(즉, 계단에 해당하는 노드의 액션 레인지 내에 진입하게 되면), 사용자 단말(100)은 도 12의 (a) 및/또는 (b)에서 설명된 것과 같은 안내 정보를 표시할 수 있다.
사용자 단말(100)은 (예컨대, 고도 변화를 감지하는 것을 통해) 사용자 단말(100)이 층을 이동한 것으로 확인되면 주변을 스캐닝할 수 있다.
주변에 대한 스캐닝이 완료되면, 사용자 단말(100)은 실시예에 따른 목적지에 대한 안내를 계속할 수 있다.
이상 도 1 내지 도 4, 도 7 내지 도 12 및 도 14 내지 도 20을 참조하여 전술된 기술적 특징에 대한 설명은, 도 5및 도 13에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다
도 6은 일 예에 따른, 경로 안내를 제공함에 있어서 경로를 재탐색하는 방법을 나타내는 흐름도이다.
도 6을 참조하여, 전술된 단계(330)에서의 AR 뷰를 통해 출발지로부터 목적지로의 경로 안내를 제공하는 방법을 더 자세하게 설명한다.
단계(610)에서, 사용자 단말의 위치가 단계(320)에서 획득된 경로로부터 소정의 거리 이상 벗어나는지 여부를 판정할 수 있다.
단계(620)에서, 사용자 단말(100)은, 사용자 단말(100)의 위치가 경로로부터 소정의 거리 이상 벗어나는 경우, 목적지로의 경로를 재탐색할 수 있다. 소정의 거리는 사용자 단말(100)의 사용자 또는 서버(200)에 의해 설정될 수 있다. 따라서, 사용자 단말(100)은 사용자가 경로를 이탈한 것으로 판정된 때, 목적지로의 경로를 재탐색할 수 있다. 경로의 재탐색에 따라 경로는 재생성될 수 있다. 말하자면, 서버(200)는 경로를 재생성할 수 있고 사용자 단말(100)은 경로를 재획득할 수 있다.
한편, 도 4를 참조하여 전술된 실시간 정보에 기반하여 판정된 사용자 단말(100)의 주변의 혼잡도가 소정의 값 이상인 경우에는, 상기 소정의 거리는 더 크게 설정될 수 있다. 말하자면, 사용자 단말(100)의 주변의 혼잡도가 소정의 값 이상인 경우에는, 사용자 단말(100)은 사용자가 기존에 설정된 거리보다 더 많이 경로로부터 벗어나더라도, 사용자가 경로를 이탈하지 않은 것으로 판정할 수 있다.
이에 따라, 사용자가 혼잡한 상황을 회피하기 위해 불가피하게 경로로부터 이탈하는 경우에는, 사용자가 경로를 이탈하지 않은 것으로 간주될 수 있고, 불필요하게 목적지로의 경로가 재탐색 및 경로가 재생성(재획득)되는 것이 방지될 수 있다.
이상 도 1 내지 도 5 및 도 7 내지 도 20을 참조하여 전술된 기술적 특징에 대한 설명은, 도 6에 대해서도 그대로 적용될 수 있으므로 중복되는 설명은 생략한다
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (22)

  1. 사용자 단말에 의해 수행되는 경로 안내 방법에 있어서,
    출발지로부터 상기 사용자 단말의 사용자에 의해 설정된 목적지로의 경로를 획득하는 단계;
    상기 경로에 기반하여, 상기 사용자 단말의 카메라에 의해 촬영되는 영상을 포함하는 AR(augmented reality) 뷰를 통해 상기 출발지로부터 상기 목적지로의 경로 안내를 제공하는 단계
    를 포함하고,
    상기 경로는 복수의 노드들을 포함하고,
    상기 경로 안내를 제공하는 단계는,
    상기 경로에 기반하여 상기 사용자 단말이 상기 목적지를 향해 이동함에 따라, 상기 사용자 단말과 상기 복수의 노드들 중 소정의 정보가 등록된 노드 또는 상기 복수의 노드들 중 2개의 노드들을 연결한 링크들 중 상기 소정의 정보가 등록된 링크와의 인터랙션이 발생한 때, 상기 소정의 정보와 연관된 콘텐츠를 안내 정보로서 상기 영상에 증강하여 표시하는 단계
    를 포함하는, 경로 안내 방법.
  2. 제1항에 있어서,
    상기 사용자 단말이 상기 소정의 정보가 등록된 노드 또는 상기 소정의 정보가 등록된 링크에 대응하는 위치로부터 소정의 거리 내에 접근하거나, 상기 대응하는 위치에 도달한 때 상기 인터랙션이 발생한 것으로 판정되는, 경로 안내 방법.
  3. 제2항에 있어서,
    상기 증강하여 표시하는 단계는,
    상기 사용자 단말이 상기 소정의 정보가 등록된 노드 또는 상기 소정의 정보가 등록된 링크에 접근하는 방향에 따라, 상이한 안내 정보를 표시하도록 상기 콘텐츠를 변경하여 상기 영상에 증강하여 표시하는, 경로 안내 방법.
  4. 제1항에 있어서,
    상기 콘텐츠는,
    상기 영상 내의 상기 소정의 정보가 등록된 노드 또는 상기 소정의 정보가 등록된 링크와 연관된 위치에서 표시되고,
    상기 사용자가 이동해야 하는 방향에 관한 정보 및 상기 사용자가 취해야 할 액션에 관한 정보 중 적어도 하나를 포함하는, 경로 안내 방법.
  5. 제4항에 있어서,
    상기 콘텐츠가 상기 영상 내에서 표시되는 위치는, 상기 영상의 소실점의 위치에 기반하여 결정되는, 경로 안내 방법.
  6. 제4항에 있어서,
    상기 콘텐츠는 상기 사용자가 취해야 할 액션에 관한 정보를 포함하고,
    상기 액션에 관한 정보는 개찰구 통과, 진입구 통과, 출입구 통과, 계단 이동, 방해물 회피, 엘리베이터 이용 및 티켓 또는 요금 준비 중 적어도 하나를 포함하는, 경로 안내 방법.
  7. 제1항에 있어서,
    상기 AR 뷰와 함께, 상기 영상에 매칭되는 지도를 포함하는 지도 뷰를 표시하는 단계
    를 더 포함하고,
    상기 지도 뷰는 상기 경로 및 상기 사용자 단말의 현재 위치를 포함하는, 경로 안내 방법.
  8. 제1항에 있어서,
    상기 경로 안내를 제공하는 단계는,
    상기 목적지까지의 이동을 위해 상기 사용자가 이동해야 하는 방향을 나타내는 방향 인디케이터를 상기 영상에 증강하여 표시하는 단계
    를 포함하는, 경로 안내 방법.
  9. 제8항에 있어서,
    상기 방향 인디케이터를 상기 영상에 증강하여 표시하는 단계는,
    상기 방향 인디케이터를 상기 영상의 지면에 해당하는 영역에서 표시하되, 상기 사용자의 턴(turn)이 요구되는 경우 상기 턴을 나타내는 추가 방향 인디케이터를 상기 지면보다 더 위에서 표시하는, 경로 안내 방법.
  10. 제1항에 있어서,
    상기 경로 안내를 제공하는 단계는,
    상기 사용자 단말이 상기 목적지와 다른 층에 위치하는 것으로 판정된 경우, 층을 이동한 후 주변 스캐닝이 필요함을 나타내는 정보를 상기 영상에 증강하여 표시하는 단계
    를 포함하는, 경로 안내 방법.
  11. 제1항에 있어서,
    상기 경로 안내를 제공하는 단계는,
    상기 경로에 기반하여 상기 사용자 단말이 상기 목적지를 향해 이동함에 따라, 상기 경로의 경로 속성에 기반한 추가 안내 정보를 상기 영상에 증강하여 표시하는 단계
    를 포함하는, 경로 안내 방법.
  12. 제11항에 있어서,
    상기 추가 안내 정보를 상기 영상에 증강하여 표시하는 단계는,
    상기 사용자가 현재 위치로부터 소정의 제1 거리 이상 직진할 것이 요구되는 경우, 계속 직진을 안내하는 제1 추가 안내 정보,
    상기 사용자가 현재 위치로부터 소정의 제2 거리 내에 소정의 제1 횟수 이상의 턴들이 요구되는 경우, 상기 AR 뷰를 유지할 것을 요청하는 제2 추가 안내 정보, 및
    상기 사용자가 현재 위치로부터 소정의 제3 거리 내에 소정의 제2 횟수 이상의 턴들이 요구되는 경우, 상기 제2 횟수 이상의 턴들을 안내하는 텍스트 정보를 포함하는 제3 추가 안내 정보
    중 적어도 하나를 상기 영상에 증강하여 표시하는, 경로 안내 방법.
  13. 제11항에 있어서,
    상기 경로는 층 이동을 포함하고,
    상기 추가 안내 정보를 상기 영상에 증강하여 표시하는 단계는,
    상기 사용자 단말이 상기 목적지와 다른 층에 위치하는 것으로 판정된 경우, 상기 목적지까지의 이동을 위해 상기 사용자가 이동해야 하는 방향을 나타내는 방향 인디케이터를 표시하지 않고, 층 이동이 필요함을 나타내는 정보를 상기 추가 안내 정보로서 상기 영상에 증강하여 표시하는, 경로 안내 방법.
  14. 제11항에 있어서,
    상기 추가 안내 정보를 상기 영상에 증강하여 표시하는 단계는,
    상기 경로에 기반하여 상기 사용자 단말이 상기 목적지를 향해 이동함에 따라, 상기 경로의 주변에 존재하는 POI에 대한 정보를 상기 추가 안내 정보로서 상기 영상에 증강하여 표시하고,
    상기 POI는 상기 사용자가 이전에 방문한 POI 또는 상기 사용자에 의해 기 등록된 POI인, 경로 안내 방법.
  15. 제1항에 있어서,
    상기 경로에 기반하여 상기 사용자 단말이 상기 목적지를 향해 이동함에 따라, 상기 사용자의 현재 위치의 주변에 존재하는 POI에 대한 정보를 상기 영상에 증강하여 표시하는 단계
    를 더 포함하고,
    상기 POI에 대한 정보는, 상기 현재 위치의 주변에 대응하는 3차원 공간을 나타내는 지도에 포함된 상기 POI에 대응하는 객체에 대해, z축 위치 정보를 포함하여 태깅된 정보이고,
    상기 z축 위치 정보에 기반하여, 상기 영상 내에 상기 POI에 대한 정보가 표시되는 위치가 결정되는, 경로 안내 방법.
  16. 제15항에 있어서,
    상기 POI에 대한 정보는 상기 영상 내에서의 상기 POI의 3차원의 위치를 반영하도록 상기 영상에 증강하여 표시되는, 경로 안내 방법.
  17. 제1항에 있어서,
    상기 경로 안내를 제공하는 단계는,
    상기 영상에 기반하여 상기 사용자 단말의 주변에 대한 실시간 정보를 획득하는 단계; 및
    상기 실시간 정보에 기반하여, 상기 목적지로의 경로 안내에 대한 추가 안내 정보를 상기 영상에 증강하여 표시하거나, 상이한 안내 정보를 표시하도록 상기 콘텐츠를 변경하여 상기 영상에 증강하여 표시하는 단계
    를 포함하는, 경로 안내 방법.
  18. 제17항에 있어서,
    상기 추가 안내 정보를 상기 영상에 증강하여 표시하거나, 상이한 안내 정보를 표시하도록 상기 콘텐츠를 변경하여 상기 영상에 증강하여 표시하는 단계는,
    상기 실시간 정보에 기반하여 판정된 상기 사용자 단말의 주변의 혼잡도가 소정의 값 이상인 경우, 상기 사용자 단말의 주변의 상기 경로의 적어도 일부에 대한 안내를 포함하는 텍스트 정보 및 상기 AR 뷰를 유지하지 말 것을 요청하는 정보를 상기 추가 안내 정보로서 상기 영상에 증강하여 표시하는, 경로 안내 방법.
  19. 제17항에 있어서,
    상기 추가 안내 정보를 상기 영상에 증강하여 표시하거나, 상이한 안내 정보를 표시하도록 상기 콘텐츠를 변경하여 상기 영상에 증강하여 표시하는 단계는,
    상기 실시간 정보에 기반하여 판정된 상기 사용자 단말의 주변의 혼잡도가 소정의 값 이상인 경우, 상기 사용자 단말의 주변의 상기 경로의 적어도 일부에 대해 우회 경로에 대한 안내를 제공하도록 상기 추가 안내 정보를 상기 영상에 증강하여 표시하거나, 상기 콘텐츠를 변경하여 상기 영상에 증강하여 표시하는, 경로 안내 방법.
  20. 제17항에 있어서,
    상기 경로 안내를 제공하는 단계는,
    상기 사용자 단말의 위치가 상기 경로로부터 소정의 거리 이상 벗어나는 경우, 상기 목적지로의 경로를 재탐색하는 단계
    를 포함하고,
    상기 실시간 정보에 기반하여 판정된 상기 사용자 단말의 주변의 혼잡도가 소정의 값 이상인 경우, 상기 소정의 거리는 더 크게 설정되는, 경로 안내 방법.
  21. 제1항 내지 제20항 중 어느 한 항의 경로 안내 방법을 컴퓨터 시스템에서 실행시키기 위해 비-일시적인 컴퓨터 판독가능한 기록 매체에 저장되는 컴퓨터 프로그램.
  22. 사용자 단말을 구현하는 컴퓨터 시스템에 있어서,
    메모리에 포함된 컴퓨터 판독 가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서
    를 포함하고,
    상기 적어도 하나의 프로세서는,
    출발지로부터 사용자에 의해 설정된 목적지로의 경로- 상기 경로는 복수의 노드들을 포함함 -를 획득하고, 상기 경로에 기반하여, 상기 사용자 단말의 카메라에 의해 촬영되는 영상을 포함하는 AR(augmented reality) 뷰를 통해 상기 출발지로부터 상기 목적지로의 경로 안내를 제공하고, 상기 경로에 기반하여 상기 사용자 단말이 상기 목적지를 향해 이동함에 따라, 상기 사용자 단말과 상기 복수의 노드들 중 소정의 정보가 등록된 노드 또는 상기 복수의 노드들 중 2개의 노드들을 연결한 링크들 중 상기 소정의 정보가 등록된 링크와의 인터랙션이 발생한 때, 상기 소정의 정보와 연관된 콘텐츠를 안내 정보로서 상기 영상에 증강하여 표시하는, 컴퓨터 시스템.
KR1020200120680A 2020-09-18 2020-09-18 증강현실 뷰를 사용하는 경로 안내 방법 및 장치 KR102458102B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020200120680A KR102458102B1 (ko) 2020-09-18 2020-09-18 증강현실 뷰를 사용하는 경로 안내 방법 및 장치
JP2023517677A JP2023541957A (ja) 2020-09-18 2021-04-27 拡張現実ビューを使用する経路案内方法および装置
PCT/KR2021/005279 WO2022059878A1 (ko) 2020-09-18 2021-04-27 증강현실 뷰를 사용하는 경로 안내 방법 및 장치
KR1020220133920A KR102555924B1 (ko) 2020-09-18 2022-10-18 증강현실 뷰를 사용하는 경로 안내 방법 및 장치
US18/185,831 US20230228587A1 (en) 2020-09-18 2023-03-17 Route guidance method and device using augmented reality view

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200120680A KR102458102B1 (ko) 2020-09-18 2020-09-18 증강현실 뷰를 사용하는 경로 안내 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020220133920A Division KR102555924B1 (ko) 2020-09-18 2022-10-18 증강현실 뷰를 사용하는 경로 안내 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20220037789A true KR20220037789A (ko) 2022-03-25
KR102458102B1 KR102458102B1 (ko) 2022-10-24

Family

ID=80776902

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020200120680A KR102458102B1 (ko) 2020-09-18 2020-09-18 증강현실 뷰를 사용하는 경로 안내 방법 및 장치
KR1020220133920A KR102555924B1 (ko) 2020-09-18 2022-10-18 증강현실 뷰를 사용하는 경로 안내 방법 및 장치

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020220133920A KR102555924B1 (ko) 2020-09-18 2022-10-18 증강현실 뷰를 사용하는 경로 안내 방법 및 장치

Country Status (4)

Country Link
US (1) US20230228587A1 (ko)
JP (1) JP2023541957A (ko)
KR (2) KR102458102B1 (ko)
WO (1) WO2022059878A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024048873A1 (ko) * 2022-08-31 2024-03-07 네이버랩스 주식회사 커스텀 영역 생성 툴을 사용하여, 공간 내에서 서비스 요소가 연관된 커스텀 영역을 생성하는 방법 및 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150088662A (ko) * 2014-01-24 2015-08-03 한국전자통신연구원 증강현실 특이점을 이용한 이동 길 안내 서비스 제공 방법 및 장치
KR102009031B1 (ko) * 2018-09-07 2019-08-08 네이버랩스 주식회사 증강현실을 이용한 실내 내비게이션을 위한 방법 및 시스템
KR20190143626A (ko) * 2018-06-21 2019-12-31 김형철 정보 디스플레이 시스템 및 방법

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101404976B1 (ko) * 2013-09-06 2014-06-10 이승택 3차원 매칭을 이용한 영상 기반의 보행 경로 poi표출 시스템

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150088662A (ko) * 2014-01-24 2015-08-03 한국전자통신연구원 증강현실 특이점을 이용한 이동 길 안내 서비스 제공 방법 및 장치
KR20190143626A (ko) * 2018-06-21 2019-12-31 김형철 정보 디스플레이 시스템 및 방법
KR102009031B1 (ko) * 2018-09-07 2019-08-08 네이버랩스 주식회사 증강현실을 이용한 실내 내비게이션을 위한 방법 및 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024048873A1 (ko) * 2022-08-31 2024-03-07 네이버랩스 주식회사 커스텀 영역 생성 툴을 사용하여, 공간 내에서 서비스 요소가 연관된 커스텀 영역을 생성하는 방법 및 장치

Also Published As

Publication number Publication date
WO2022059878A1 (ko) 2022-03-24
KR20220144790A (ko) 2022-10-27
KR102458102B1 (ko) 2022-10-24
JP2023541957A (ja) 2023-10-04
KR102555924B1 (ko) 2023-07-17
US20230228587A1 (en) 2023-07-20

Similar Documents

Publication Publication Date Title
US20240167826A1 (en) Localizing transportation requests utilizing an image based transportation request interface
KR102280671B1 (ko) 내비게이션 지시사항들을 디스플레이하는 장치 및 방법
KR101864814B1 (ko) 스트리트 뷰 목적지에 대한 안내를 제공하는 방법 및 장치
US11886184B2 (en) Navigating an autonomous vehicle based upon an image from a mobile computing device
KR102040566B1 (ko) 명확한 픽업 장소를 제공하는 방법과 시스템 및 비-일시적인 컴퓨터 판독 가능한 기록 매체
KR102009031B1 (ko) 증강현실을 이용한 실내 내비게이션을 위한 방법 및 시스템
US9459115B1 (en) Unobstructed map navigation using animation
KR20190018243A (ko) 영상 통화를 이용한 길안내 방법 및 시스템
KR20200042443A (ko) 내비게이션 조종과 연계할 관심지점(poi)을 선택하기 위한 시스템 및 방법
US9026359B2 (en) Visually representing a three-dimensional environment
US10830597B2 (en) Smart city crosswalk and traffic navigation system
KR102555924B1 (ko) 증강현실 뷰를 사용하는 경로 안내 방법 및 장치
CN107229461B (zh) 将导航服务整合为软件应用的一部分的方法以及计算设备
KR20190120122A (ko) 영상 통화를 이용한 길안내 방법 및 시스템
JP6785871B2 (ja) ナビゲーション指示の提供
JP2018165674A (ja) 情報処理装置、プログラム
KR102016434B1 (ko) 경로 안내 방법 및 장치
KR20220126550A (ko) 증강현실 뷰를 사용하는 경로 안내 방법 및 장치
KR102421370B1 (ko) 위치 기반 ar 서비스에서 지도와 ar 상의 poi 하이라이팅을 연동하는 방법 및 시스템
KR102645423B1 (ko) 증강현실 뷰를 사용하는 게임 콘텐츠 제공 방법 및 장치
US20240132101A1 (en) Autonomous driving system in heterogeneous sd map and hd map environment and management method for the autonomous driving
KR102343182B1 (ko) 건물에 대해 매핑된 입구점을 사용하여 poi의 입구점을 결정하는 방법 및 장치
KR20240022714A (ko) 기 설정된 커스텀 영역에 사용자 단말이 위치함에 기반하여 사용자 단말을 제어하는 방법 및 장치
KR20240030481A (ko) 커스텀 영역 생성 툴을 사용하여, 공간 내에서 서비스 요소가 연관된 커스텀 영역을 생성하는 방법 및 장치
KR20190125263A (ko) 명확한 픽업 장소를 제공하는 방법과 시스템 및 비-일시적인 컴퓨터 판독 가능한 기록 매체

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant