KR20190018243A - 영상 통화를 이용한 길안내 방법 및 시스템 - Google Patents

영상 통화를 이용한 길안내 방법 및 시스템 Download PDF

Info

Publication number
KR20190018243A
KR20190018243A KR1020170102953A KR20170102953A KR20190018243A KR 20190018243 A KR20190018243 A KR 20190018243A KR 1020170102953 A KR1020170102953 A KR 1020170102953A KR 20170102953 A KR20170102953 A KR 20170102953A KR 20190018243 A KR20190018243 A KR 20190018243A
Authority
KR
South Korea
Prior art keywords
terminal
information
video call
route guidance
guiding
Prior art date
Application number
KR1020170102953A
Other languages
English (en)
Inventor
이동원
박정준
조종진
조인원
Original Assignee
라인 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라인 가부시키가이샤 filed Critical 라인 가부시키가이샤
Priority to KR1020170102953A priority Critical patent/KR20190018243A/ko
Priority to JP2018144838A priority patent/JP7164987B2/ja
Priority to CN201810901022.3A priority patent/CN109387217B/zh
Priority to US16/100,694 priority patent/US11268822B2/en
Publication of KR20190018243A publication Critical patent/KR20190018243A/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/362Destination input or retrieval received from an external device or application, e.g. PDA, mobile phone or calendar application
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • G01C21/3614Destination input or retrieval through interaction with a road map, e.g. selecting a POI icon on a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3664Details of the user input interface, e.g. buttons, knobs or sliders, including those provided on a touch screen; remote controllers; input using gestures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Navigation (AREA)
  • Telephone Function (AREA)
  • Traffic Control Systems (AREA)
  • Telephonic Communication Services (AREA)

Abstract

일 실시예에 따른 컴퓨터로 구현되는 길안내 방법은, 영상 통화 중에 단말의 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터를 상대방 단말로 전송하는 단계; 상기 영상 데이터가 영상 통화 화면에 표시된 상대방 단말로부터 상기 영상 데이터에 기반하여 길안내를 위한 지시 정보를 수신하는 단계; 상기 지시 정보를 상기 단말의 영상 데이터에 매핑하여 길안내 정보를 생성하는 단계; 및 상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계를 포함할 수 있다.

Description

영상 통화를 이용한 길안내 방법 및 시스템{METHOD AND SYSTEM FOR NAVIGATION USING VIDEO CALL}
아래의 설명은 영상 통화 중에 길안내 정보를 가이드하는 방법 및 시스템에 관한 것이다.
통신 기술이 발달함에 따라 휴대폰 등과 같은 휴대형 통신 기기뿐만 아니라 TV와 같은 대형 전자 기기들에도 영상 통화 서비스를 제공하고 있다. 영상 통화 서비스는 발신 단말로부터 영상 통화 호가 시도되면, 기지국/기지국 제어기를 통해 교환기로 호 시도 메시지가 전송되며, 교환기는 홈 위치 등록기를 통해 착신 단말로의 라우팅 정보를 획득하여 착신측 교환기를 통해 착신 단말과 세션 설정을 수행한다. 이러한 과정에 따라 발신 단말과 착신 단말은 오디오 및 영상의 송수신을 통해 서로 상대방의 얼굴을 보면서 영상 통화를 수행할 수 있게 된다.
그러나, 영상 통화는 상대방이 보고 있는 영상을 볼 수도 없고, 상대방이 전송하는 영상에 대해서도 확인할 수 없다. 이에 따라, 영상 통화 중에 경로를 질의하거나 안내받고자 할 경우, 음성으로만 경로를 설명해야 한다는 불편함이 존재한다.
대한민국 공개특허 10-2016-0086560, 대한민국 공개특허 10-2012-0008400,
단말간 영상 통화 중에 증강 현실기반의 길안내 정보를 제공하는 방법 및 시스템을 제공할 수 있다.
단말간 영상 통화 중에 단말의 위치 정보에 기반하여 생성된 길안내 정보를 가이드하는 방법 및 시스템을 제공할 수 있다.
컴퓨터로 구현되는 길안내 방법은, 영상 통화 중에 단말의 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터를 상대방 단말로 전송하는 단계; 상기 영상 데이터가 영상 통화 화면에 표시된 상대방 단말로부터 상기 영상 데이터에 기반한 길안내를 위한 지시 정보를 수신하는 단계; 상기 지시 정보를 상기 단말의 영상 데이터에 매핑하여 길안내 정보를 생성하는 단계; 및 상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계를 포함할 수 있다.
상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는, 상기 지시 정보를 상기 단말의 영상 데이터에 매핑함에 따라 생성된 증강 현실 기반의 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계를 포함할 수 있다.
상기 지시 정보를 상기 단말의 영상 데이터에 매핑하여 길안내 정보를 생성하는 단계는, 상기 지시 정보를 포함하는 레이어를 상기 지시 정보가 입력된 위치에 대응하여 상기 영상 데이터에 매핑하여 길안내 정보를 생성하는 단계를 포함할 수 있다.
상기 영상 데이터가 영상 통화 화면에 표시된 상대방 단말로부터 상기 영상 데이터에 기반한 길안내를 위한 지시 정보를 수신하는 단계는, 상기 상대방 단말에 지시 정보를 입력하는 유저 인터페이스가 제공됨에 따라 상기 상대방 단말로부터 상기 유저 인터페이스를 통하여 입력된 지시 정보를 수신하는 단계를 포함할 수 있다.
상기 영상 데이터가 영상 통화 화면에 표시된 상대방 단말로부터 상기 영상 데이터에 기반한 길안내를 위한 지시 정보를 수신하는 단계는, 상기 상대방 단말로부터 상기 영상 데이터에 입력된 특정 이벤트와 관련된 지시 정보를 수신하는 단계를 포함할 수 있다.
상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는, 상기 단말의 위치 정보에 따라 상기 길안내 정보와 관련된 가이드 정보를 제공하는 단계를 포함할 수 있다.
상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는, 상기 단말의 위치 정보가 변경됨에 따라 상기 단말의 변경된 위치 정보에 기초하여 계속적으로 길안내 정보가 업데이트되는 단계를 포함할 수 있다.
상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는, 상기 단말의 목적지 경로를 포함하는 컨텐츠가 상기 상대방 단말에 의하여 업로드됨에 따라 상기 컨텐츠를 상기 길안내 정보로서 상기 단말의 위치 정보에 따라 재생하는 단계를 포함할 수 있다.
상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는, 상기 길안내 정보에 기초하여 상기 단말의 이탈이 발생함을 감지할 경우, 상기 이탈과 관련된 경보를 발생시키는 단계를 포함할 수 있다.
상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는, 상기 단말 및 상기 상대방 단말에서 메시지를 송수신하는 단계를 포함할 수 있다.
상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는, 상기 단말의 위치 정보에 따라 이동하고 있는 이동 경로를 표시하는 단계를 포함할 수 있다.
상기 영상 통화 중에 단말의 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터를 상대방 단말로 전송하는 단계는, 카메라 모드에 따라 상기 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터를 상대방 단말로 전송하는 단계를 포함할 수 있다.
길안내 방법을 실행시키기 위해 컴퓨터 판독 가능한 저장매체에 저장된 컴퓨터 프로그램은, 영상 통화 중에 단말의 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터를 상대방 단말로 전송하는 단계; 상기 영상 데이터가 영상 통화 화면에 표시된 상대방 단말로부터 상기 영상 데이터에 기반하여 길안내를 위한 지시 정보를 수신하는 단계; 상기 지시 정보를 상기 단말의 영상 데이터에 매핑하여 길안내 정보를 생성하는 단계; 및 상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계를 포함할 수 있다.
길안내 서버는, 영상 통화 중에 단말의 현재 위치 정보를 판단하는 위치정보 판단부; 상기 단말의 영상 데이터가 상대방 단말의 영상 통화 화면에 표시됨에 따라 상기 상대방 단말로부터 상기 영상 데이터에 기반하여 입력된 길안내를 위한 지시 정보와 연관된 부가 정보를 획득하는 부가 정보 획득부; 및 상기 지시 정보와 연관된 부가 정보를 영상 데이터에 매핑하기 위하여 상기 단말로 제공하는 부가 정보 제공부를 포함할 수 있다.
상기 부가 정보 제공부는, 상기 단말에서 상기 지시 정보와 연관된 부가 정보가 상기 영상 데이터에 매핑되어 증강 현실 기반의 길안내 정보가 생성될 수 있다.
상기 길안내 서버는, 상기 단말의 현재 위치 정보를 포함하는 지도 정보를 상기 상대방 단말의 영상 통화 화면으로 전달하는 지도 정보 전달부를 더 포함할 수 있다.
상기 부가 정보 획득부는, 상기 단말의 현재 위치 정보 및 상기 지시 정보에 기반하여 가이드 정보를 생성할 수 있다.
상기 부가 정보 획득부는, 상기 단말의 이탈을 감지하기 위한 이탈 범위를 설정하고, 상기 이탈 범위를 기준으로 상기 단말의 이탈 여부를 판단하여 경보 메시지를 생성할 수 있다.
상기 부가 정보 제공부는, 상기 지시 정보와 연관된 부가 정보를 포함하는 레이어를 생성하여 상기 단말로 전송할 수 있다.
상기 지도 정보 전달부는, 상기 단말의 영상 통화 화면에 표시되는 길안내 정보에 기초하여 상기 단말의 위치 정보에 따른 이동 경로를 상기 상대방 단말의 영상 통화 화면에 제공할 수 있다.
단말간 영상 통화 중에 단말의 영상 통화 화면에 길안내 정보를 표시함으로써 간편하게 이동 경로를 파악할 수 있다.
단말간 영상 통화 중에 단말의 영상 통화 화면에 단말의 위치 정보에 따른 길안내 정보가 가이드됨으로써 쉽고 정확하게 목적지에 도달할 수 있다.
도 1 은 일 실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 2a는 일 실시예에 따른 단말 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 2b는 일 실시예에 따른 단말의 프로세서가 포함할 수 있는 구성 요소의 예를 도시한 블록도이다.
도 3은 일 실시예에 따른 단말의 길안내 방법의 예를 도시한 흐름도이다.
도 4 는 일 실시예에 따른 서버의 프로세서가 포함할 수 있는 구성 요소의 예를 도시한 블록도이다.
도 5는 일 실시예에 따른 단말의 영상 통화 화면에 영상 데이터가 입력되는 것을 설명하기 위한 도면이다.
도 6 및 도 7은 일 실시예에 따른 단말에서 지시 정보가 입력되는 예를 설명하기 위한 도면이다.
도 8 내지 도 11은 일 실시예에 따른 단말에서 길안내 정보가 제공되는 것을 설명하기 위한 도면이다.
도 12는 일 실시예에 따른 길안내 정보를 제공하는 방법을 도시한 흐름도이다.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.
도 1 은 일 실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 1의 네트워크 환경은 단말(110), 서버(100) 및 네트워크(120)를 포함하는 예를 나타내고 있다. 이러한 도 1은 발명의 설명을 위한 일례로 단말의 수나 서버의 수가 도 1과 같이 한정되는 것은 아니다.
단말(110)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 단말(110)의 예를 들면, 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC, 웨어러블 기기, HMD(Head mounted Display) 등이 있다. 단말(110)은 무선 또는 유선 통신 방식을 이용하여 네트워크(120)를 통해 다른 단말들 및/또는 서버(100)와 통신할 수 있다.
통신 방식은 제한되지 않으며, 네트워크(120)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(120)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(120)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
서버(100)는 단말(110)과 네트워크(120)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. 일례로, 서버(100)는 네트워크(120)를 통해 접속한 단말(110)로 어플리케이션의 설치를 위한 파일을 제공할 수 있다. 이 경우 단말(110)은 서버(100)로부터 제공된 파일을 이용하여 어플리케이션을 설치할 수 있다. 또한 단말(110)이 포함하는 운영체제(Operating System, OS)나 적어도 하나의 프로그램(일례로 브라우저나 상기 설치된 어플리케이션)의 제어에 따라 서버(100)에 접속하여 서버(100)가 제공하는 서비스나 컨텐츠를 제공받을 수 있다. 예를 들면, 단말(110)이 어플리케이션의 제어에 따라 네트워크(120)를 통해 서비스 요청 메시지를 서버(100)로 전송하면, 서버(100)는 서비스 요청 메시지에 대응하는 코드를 단말(110)로 전송할 수 있고, 단말(110)은 어플리케이션의 제어에 따라 코드에 따른 화면을 구성하여 표시함으로써 사용자에게 컨텐츠를 제공할 수 있다.
이하에서는, 적어도 하나 이상의 단말(110)들이 영상 통화가 수행되는 중에 길안내 정보를 제공하는 기술에 대하여 구체적으로 설명하기로 한다.
도 2a는 일 실시예에 따른 단말 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 2a에서는 하나의 단말 및 하나의 서버의 내부 구성을 설명하고 있으나, 도 1을 통해 설명한 네트워크 환경에 포함될 수 있는 또 다른 단말들이나 또 다른 서버들에도 동일한 또는 유사한 내부 구성요소들이 적용될 수 있다.
단말(110)은 예를 들면, 프로세서(200), 적어도 하나의 어플리케이션(201), 메모리(202), 통신 모듈(203), 입출력 인터페이스(204) 및 카메라(206)를 포함할 수 있다.
서버(200)는 프로세서(211), 메모리(212), 통신 모듈(213)을 포함할 수 있다. 메모리(202, 212)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 영구 대용량 저장장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(202, 212)에는 운영체제나 적어도 하나의 프로그램 코드(일례로 단말(110)에 설치되어 구동되는 브라우저나 상술한 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(202, 212)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 통신 모듈(203, 213)을 통해 메모리(202, 212)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템(일례로 상술한 서버(100))가 네트워크(120)를 통해 제공하는 파일들에 의해 설치되는 프로그램(일례로 상술한 어플리케이션)에 기반하여 메모리(202, 212)에 로딩될 수 있다.
프로세서(200, 211)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(202, 212) 또는 통신 모듈(203, 213)에 의해 프로세서(200, 211)로 제공될 수 있다. 예를 들면, 프로세서(200, 211)는 메모리(202, 212)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
통신 모듈(203, 213)은 네트워크(120)를 통해 단말(110)과 길안내 서버(100)가 서로 통신하기 위한 기능을 제공할 수 있으며, 다른 단말 또는 다른 서버와 통신하기 위한 기능을 제공할 수 있다. 일례로, 단말(110)의 프로세서(200)가 메모리(202)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(203)의 제어에 따라 네트워크(120)를 통해 길안내 서버(100)로 전달될 수 있다. 역으로, 서버(100)의 프로세서(211)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신 모듈(213)과 네트워크(120)를 거쳐 단말(110)의 통신 모듈(203)을 통해 단말(110)로 수신될 수 있다. 예를 들면, 통신 모듈(203)을 통해 수신된 길안내 서버(100)의 제어 신호나 명령 등은 프로세서(200)나 메모리(202)로 전달될 수 있고, 컨텐츠나 파일 등은 단말(110)이 더 포함할 수 있는 저장 매체로 저장될 수 있다.
입출력 인터페이스(204)는 입출력 장치와의 인터페이스를 위한 수단일 수 있다. 예를 들면, 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 어플리케이션의 통신 세션을 표시하기 위한 디스플레이와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(204)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 보다 구체적인 예로, 단말(110)의 프로세서(200)는 메모리(202)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 길안내 서버(100)나 다른 단말이 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(204)를 통해 디스플레이(205)에 표시될 수 있다.
또한, 다른 실시예들에서 단말(110) 및 서버(100)는 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들면, 단말(110)은 입출력 장치 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라(206), 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 단말(110)이 스마트 폰인 경우, 일반적으로 스마트 폰이 포함하고 있는 가속도 센서나 자이로 센서, 카메라 모듈, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 단말(110)에 더 포함되도록 구현될 수 있다.
도 2b는 일 실시예에 따른 단말의 프로세서가 포함할 수 있는 구성 요소의 예를 도시한 블록도이고, 도 3은 일 실시예에 따른 단말의 길안내 방법의 예를 도시한 흐름도이다.
단말(110)의 프로세서(200)는 위치기반 영상데이터 전송부(210), 길안내 지시정보 수신부(220), 안내 생성부(230) 및 경로 안내부(240)를 포함할 수 있다. 이러한 프로세서(200)의 구성요소들은 단말(110)에 저장된 프로그램 코드가 제공하는 제어 명령에 따라 프로세서(200)에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 프로세서(200) 및 프로세서(200)의 구성요소들은 도 3의 길안내 방법이 포함하는 단계들(310 내지 340)을 수행하도록 단말(110)을 제어할 수 있다. 이때, 프로세서(200) 및 프로세서(200)의 구성요소들은 메모리가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.
프로세서(200)는 길안내 방법을 위한 프로그램의 파일에 저장된 프로그램 코드를 메모리에 로딩할 수 있다. 예를 들면, 단말(110)에서 프로그램이 실행되면, 프로세서는 운영체제의 제어에 따라 프로그램의 파일로부터 프로그램 코드를 메모리에 로딩하도록 단말을 제어할 수 있다. 이때, 프로세서(200) 및 프로세서(200)가 포함하는 위치기반 영상데이터 전송부(210), 길안내 지시정보 수신부(220), 안내 생성부(230) 및 경로 안내부(240) 각각은 메모리에 로딩된 프로그램 코드 중 대응하는 부분의 명령을 실행하여 이후 단계들(310 내지 340)을 실행하기 위한 프로세서(200)의 서로 다른 기능적 표현들일 수 있다.
단계(310)에서 위치기반 영상데이터 전송부(210)는 영상 통화 중에 단말의 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터를 상대방 단말로 전송할 수 있다.
단계(320)에서 길안내 지시정보 수신부(220)는 영상 데이터가 영상 통화 화면에 표시된 상대방 단말로부터 영상 데이터에 기반하여 길안내를 위한 지시 정보를 수신할 수 있다. 예를 들면, 상대방 단말에 지시 정보를 입력하는 유저 인터페이스가 제공될 수 있다. 상대방 단말로부터 유저 인터페이스를 통하여 입력된 지시 정보를 수신할 수 있다. 또는, 상대방 단말로부터 상대방 단말의 영상 통화 화면에 표시된 영상 데이터에 입력된 이벤트를 통하여 지시 정보를 수신할 수 있다.
단계(330)에서 안내 생성부(230)는 지시 정보를 단말의 영상 데이터에 매핑하여 길안내 정보를 생성할 수 있다. 안내 생성부(230)는 지시 정보를 포함하는 레이어를 지시 정보가 입력된 위치에 대응하여 영상 데이터에 매핑하여 길안내 정보를 생성할 수 있다. 이때, 지시 정보를 포함하는 레이어는 영상 데이터에서 입력된 지시 정보의 위치 정보를 포함할 수 있다. 안내 생성부(230)는 지시 정보를 포함하는 레이어를 단말의 영상 데이터에 매핑함으로써 증강 현실 기반의 길안내 정보를 생성할 수 있다. 또한, 안내 생성부(230)는 서버로부터 지시 정보와 관련된 부가 정보를 전달받으면, 부가 정보를 포함하는 레이어를 단말에 표시되고 있는 영상 데이터에 매핑하여 길안내 정보를 생성할 수 있다.
단계(340)에서 경로 안내부(340)는 길안내 정보를 단말의 위치 정보에 따라 가이드할 수 있다. 이때, 경로 안내부(340)는 단말의 위치 정보가 변경됨에 따라 단말의 변경된 위치 정보에 기초하여 길안내 정보를 업데이트할 수 있고, 업데이트된 길안내 정보를 제공할 수 있다. 경로 안내부(340)는 단말의 위치 정보에 따른 길안내 정보와 관련된 가이드 정보를 제공할 수 있다. 예를 들면, 경로 안내부(340)는 단말의 현재 위치에 대한 길안내 정보에서 어느 방향으로 이동해야 하는 지 통보할 수 있다. 경로 안내부(340)는 가이드 정보를 단말의 영상 통화 화면에 텍스트 데이터로 표시함과 동시에 음성 데이터로 제공할 수 있다. 또한, 경로 안내부(340)는 단말의 영상 통화 화면에 단말의 위치 정보에 따라 이동하고 있는 이동 경로를 함께 표시할 수 있다.
도 4 는 일 실시예에 따른 서버의 프로세서가 포함할 수 있는 구성 요소의 예를 도시한 블록도이다.
길안내 서버(100)의 프로세서(211)는 위치정보 판단부(410), 부가 정보 획득부(420), 부가 정보 제공부(430) 및 지도 정보 전달부(440)를 포함할 수 있다. 이러한 프로세서(211)의 구성요소들은 길안내 서버(100)에 저장된 프로그램 코드가 제공하는 제어 명령에 따라 프로세서(211)에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 프로세서(211) 및 프로세서(211)의 구성요소들은 메모리가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다.
프로세서(211)는 길안내 방법을 위한 프로그램의 파일에 저장된 프로그램 코드를 메모리에 로딩할 수 있다. 예를 들면, 단말(110)에서 프로그램이 실행되면, 프로세서는 운영체제의 제어에 따라 프로그램의 파일로부터 프로그램 코드를 메모리에 로딩하도록 단말을 제어할 수 있다. 이때, 프로세서(211) 및 프로세서(211)가 포함하는 위치정보 판단부(410), 부가 정보 획득부(420), 부가 정보 제공부(430) 및 지도 정보 전달부(440) 각각은 메모리에 로딩된 프로그램 코드 중 대응하는 부분의 명령을 실행하는 프로세서(211)의 서로 다른 기능적 표현들일 수 있다.
위치정보 판단부(410)는 영상 통화 중에 단말의 현재 위치 정보를 판단할 수 있다. 일례로, 위치정보 판단부(410)는 단말의 영상 통화 화면에 입력되는 영상 데이터에 기초하여 단말의 현재 위치 정보를 판단할 수 있다. 보다 구체적으로, 위치정보 판단부(410)는 단말의 카메라로부터 획득된 영상 데이터에 포함된 메타 데이터에 기초하여 단말의 위치 정보를 판단할 수 있다. 영상 데이터에는 영상의 크기 정보, 영상이 촬영된 날짜 정보, 영상이 촬영된 위치 정보 등의 메타 데이터가 포함될 수 있다. 또 다른 예로서, 위치정보 판단부(410)는 단말의 카메라로부터 입력된 영상 데이터를 통하여 건물 정보 및 도로 정보 등에 기초하여 단말이 실내인지 또는 실외인지 판단할 수 있다. 위치정보 판단부(410)는 영상 데이터에 포함된 건물 정보(예를 들면, 상호명, 전화번호 등) 및 도로 정보(예를 들면, 도로명 주소)에 포함된 텍스트 정보 또는 이미지 정보로부터 단말의 현재 위치 정보를 추정할 수 있다. 또 다른 예로서, 위치정보 판단부(410)는 단말의 GPS 정보를 이용하여 단말의 현재 위치 정보를 추정할 수 있다.
부가 정보 획득부(420)는 단말의 영상 데이터가 상대방 단말의 영상 통화 화면에 표시됨에 따라 상대방 단말로부터 영상 데이터에 기반하여 입력된 길안내를 위한 지시 정보와 연관된 부가 정보를 획득할 수 있다. 이때, 부가 정보는, 지시 정보와 관련하여 추가적으로 제공할 수 있는 정보일 수 있다. 일례로, 부가 정보 획득부(420)는 단말의 현재 위치 정보 및 지시 정보에 기반하여 가이드 정보를 생성할 수 있다. 부가 정보 획득부(420)는 단말의 현재 위치 정보에 기초하여 길안내 정보를 가이드하기 위하여 가이드 정보를 생성할 수 있다. 이때, 가이드 정보는 네비게이션과 같이 단말의 현재 위치 정보에 기초하여 안내 메시지를 제공하는 것을 의미할 수 있다. 또한, 부가 정보 획득부(420)는 단말에서 가이드되는 길안내 정보에 기초하여 단말의 이탈을 감지하기 위한 이탈 범위를 설정하고, 이탈 범위를 기준으로 단말의 이탈 여부를 판단하여 경보 메시지를 생성할 수 있다. 예를 들면, 부가 정보 획득부(420)는 단말에 가이드되는 길안내 정보에 기초하여 단말이 경로를 이동하는 중에, 5M 이상 벗어날 경우, 단말이 이탈한 것으로 판단하여 경보 메시지를 생성할 수 있다.
부가 정보 제공부(430)는 지시 정보와 연관된 부가 정보를 영상 데이터에 매핑하기 위하여 단말로 제공할 수 있다. 부가 정보 제공부(430)는 지시 정보와 연관된 부가 정보를 단말에 현재 표시되고 있는 영상 데이터에 매핑하기 위하여 단말로 제공할 수 있다. 예를 들면, 부가 정보 제공부(430)는 지시 정보와 연관된 부가 정보를 포함하는 레이어를 생성하여 단말로 전송할 수 있다. 부가 정보 제공부(430)에서 단말로 제공된 부가 정보를 포함하는 레이어가 단말에 현재 표시되고 있는 영상 데이터에 매핑되어 길안내 정보가 생성될 수 있다. 이때, 길안내 정보는 증강 현실 기반의 길안내 정보가 생성될 수 있다.
지도 정보 전달부(440)는 단말의 현재 위치 정보를 포함하는 지도 정보를 상대방 단말의 영상 통화 화면으로 전달할 수 있다. 예를 들면, 지도 정보 전달부(440)는 지도 서버로부터 단말의 현재 위치 정보를 포함하는 지도 정보를 통하여 상대방 단말의 영상 통화 화면으로 전달할 수 있고, 지도 API를 통하여 상대방 단말의 영상 통화 화면에 지도 정보를 제공할 수 있다. 지도 정보 전달부(440)는 단말의 영상 통화 화면에 표시되는 길안내 정보에 기초하여 단말의 위치 정보에 따른 이동 경로(예를 들면, 단말이 이동하고 있는 경로)를 상대방 단말의 영상 통화 화면에도 제공할 수 있다. 상대방 단말은 영상 통화 화면에 표시된 단말의 이동 경로를 확인할 수 있게 된다.
도 5는 일 실시예에 따른 단말의 영상 통화 화면에 영상 데이터가 입력되는 것을 설명하기 위한 도면이다.
적어도 하나 이상의 단말과 적어도 하나 이상의 상대방 단말이 영상 통화가 수행 중일 수 있다. 이때, 영상 통화는 일반적으로 하나의 단말과 다른 하나의 단말간 영상 통화가 이루어질 수 있으나, 복수의 단말들간 영상 통화가 이루어지는 것도 가능하다. 일례로, 메신저 어플리케이션을 통하여 영상 통화가 수행될 경우, 메신저 어플리케이션의 대화방에 존재하는 복수의 단말간 영상 통화가 지원된다. 이때, 단말들은 영상 통화를 위하여 각각의 단말에 전방 카메라가 동작될 수 있다. 이에 따라 단말 각각에 사용자의 얼굴이 표시됨으로써 서로 얼굴을 마주보고 영상 통화를 수행할 수 있게 된다.
단말(110)은 상대방 단말과 영상 통화 중에 상대방 단말에게 경로를 질의할 수 있다. 단말(110)이 상대방 단말이 이미 알고 있는 위치를 질의할 수 있다. 예를 들면, 단말(110)이 상대방 단말이 위치하고 있는 장소로 이동하고 있거나, 상대방 단말이 다녀온 장소일 수 있다. 단말(110)에 동작되고 있는 전방 카메라를 실행하는 전방 카메라 모드가 후방 카메라(510)를 실행하는 후방 카메라 모드로 전환될 수 있다. 단말(110)에 후방 카메라(510)가 동작될 수 있다.
단말(110)에 후방 카메라(510)가 동작됨에 따라 단말(110)이 현재 위치하고 있는 현재 위치 기반의 영상 데이터가 촬영될 수 있다. 단말(110)은 영상 통화 중에 단말(110)의 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터를 획득할 수 있다. 예를 들면, 단말(110)의 후방 카메라(510)를 통하여 입력되는 영상 데이터는 단말(110) 주변에 존재하는 도로, 건물들을 포함하는 길거리 모습을 포함할 수 있다. 단말(110)의 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터가 상대방 단말로 전송될 수 있다.
단말(110)은 다른 단말에게 경로를 질의하는 단말 및 질의된 경로에 대한 길안내를 제공하는 단말을 포함할 수 있다. 이때, 각각의 단말은 상황에 따라 경로를 질의할 수도, 길안내를 제공할 수 있다. 이하, 질의된 경로에 대한 길안내를 제공하는 단말을 110a, 다른 단말에게 경로를 질의하는 단말을 110b로 구분하여 설명하기로 한다.
도 6 및 도 7은 일 실시예에 따른 단말에서 지시 정보가 입력되는 예를 설명하기 위한 도면이다.
도 6 및 도 7은 영상 데이터가 영상 통화 화면(600)에 표시된 상대방 단말(110a)에서 지시 정보를 입력하는 방법을 설명하기로 한다.
단말의 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터가 상대방 단말(110a)로 전송될 수 있다. 상대방 단말(110a)의 영상 통화 화면(600)에 영상 데이터가 표시될 수 있다. 상대방 단말(110a)의 영상 통화 화면(600)에 영상 데이터 및 지도 정보가 표시될 수 있다. 이때, 서버로부터 단말의 현재 위치 정보(640)를 포함하는 지도 정보(610)가 제공될 수 있다.
사용자(630)는 상대방 단말(110a)의 영상 통화 화면(600)에 표시된 영상 데이터에 지시 정보를 입력할 수 있다. 이때, 상대방 단말(110a)의 화면이 터치의 입력이 가능한 터치 스크린으로 구성될 수 있다. 상대방 단말(110a)은 사용자(630)로부터 입력되는 지시 정보를 인식할 수 있다.
도 6를 참고하면, 사용자(630)는 상대방 단말(110a)의 영상 통화 화면(600)에 표시된 영상 데이터에 기반하여 특정 이벤트(예를 들면, 터치&드래그)를 통하여 지시 정보를 입력할 수 있다. 이때, 특정 이벤트는 사용자로부터 입력되는 명령을 지시 정보로 식별하기 위하여 설정된 것으로서, 예를 들면, 터치&드래그가 해당될 수 있다. 또한, 사용자의 설정에 따라 지시 정보로 식별하기 위한 특정 이벤트가 변경될 수 있다. 예를 들면, 사용자는 터치&드래그를 통하여 방향 정보를 포함하는 지시 정보를 입력할 수 있다.
일례로, 사용자(630)는 상대방 단말(110a)의 영상 통화 화면(600)에 표시된 단말의 현재 위치 정보(640)를 포함하는 지도 정보(610)에 기초하여 영상 데이터에 지시 정보를 입력할 수 있다. 사용자(630)는 상대방 단말(110a)의 영상 통화 화면(600)에 지시 정보를 입력하기 위한 터치를 입력할 수 있고, 터치를 입력한 시작점(620)에서 터치를 종료하고자 하는 완료점(622)까지 드래그(621)함으로써 지시 정보를 입력할 수 있다.
다른 예로서, 도 7을 참고하면, 상대방 단말(110a)의 영상 통화 화면(600)에 지시 정보를 입력하는 유저 인터페이스(710~713)가 제공될 수 있다. 사용자는 상대방 단말(110a)의 영상 통화 화면(600)에 표시된 단말의 위치 정보를 포함하는 지도 정보에 기초하여 상대방 단말의 영상 통화 화면(600)의 영상 데이터에 유저 인터페이스(710~713)를 선택할 수 있다. 이때, 유저 인터페이스는, 상, 하, 좌, 우에 대한 방향 정보가 포함될 수 있다. 상대방 단말(110a)의 영상 통화 화면(600)에 표시된 영상 데이터에 사용자로부터 선택된 유저 인터페이스(720)가 표시될 수 있다. 사용자는 상대방 단말(110a)의 영상 통화 화면(600)의 영상 데이터에 표시된 유저 인터페이스를 수정할 수도 있다.
이와 같이, 단말은 사용자로부터 상대방 단말의 영상 통화 화면(600)에 입력된 지시 정보를 수신함에 따라 사용자 단말의 현재 위치 정보에 기초하여 길안내 정보를 생성할 수 있다. 다시 말해서, 사용자는 상대방 단말의 영상 통화 화면(600)에 상대방 단말의 지도 정보에 표시된 현재 위치 정보(640)를 정확하게 선택하는 것이 불가능하기 때문에 단말은 상대방 단말의 영상 통화에 표시된 영상 데이터에 입력된 지시 정보를 단말의 현재 위치 정보(640)에 기초하여 길안내 정보를 생성하게 된다.
도 8 내지 도 11은 일 실시예에 따른 단말에서 길안내 정보가 제공되는 것을 설명하기 위한 도면이다.
단말(110b)은 상대방 단말로부터 입력된 지시 정보를 단말의 영상 데이터에 매핑하여 길안내 정보를 생성할 수 있다. 단말(110b)은 지시 정보를 포함하는 레이어를 지시 정보가 입력된 위치에 대응하여 영상 데이터에 매핑함으로써 길안내 정보(810)를 생성할 수 있다. 뿐만 아니라, 서버에서 상대방 단말로부터 입력된 지시 정보 및 단말의 위치 정보에 기초하여 가이드 정보가 생성될 수 있다. 단말(110b)은 가이드 정보를 서버로부터 수신함에 따라 가이드 정보를 영상 데이터에 매핑하여 길안내 정보(810)를 생성하게 된다.
단말(110b)은 길안내 정보(810)를 단말의 위치 정보에 따라 가이드할 수 있다. 이때, 단말(110b)은 길안내 정보(810)를 증강 현실 기반의 길안내 정보로 가이드할 수 있으며, 단말(110b)에 따라 가상 현실 기반의 길안내 정보로 가이드될 수 있다.
단말(110b)의 영상 통화 화면(600)에 길안내 정보(810) 및 가이드 정보(820)가 제공될 수 있다. 단말(110b)은 단말(110b)이 길안내 정보에 기초하여 이동하고 있을 경우, 단말의 위치 정보에 기초하여 가이드 정보(820)를 제공할 수 있다. 예를 들면, 단말이 지시 정보(810)에 기초하여 이동함에 따라 단말이 현재 존재하고 있는 현재 위치 정보에 기초하여 '20M 전방에서 우회전 하세요'와 같은 가이드 정보(820)를 제공할 수 있다. 이때, 가이드 정보(820)는 단말(110b)의 영상 통화 화면(600)에 메시지로 표시될 수 있으며, 음성 메시지로도 출력될 수 있다.
일 실시예에 따른 단말은 길안내 정보를 통하여 경로를 안내할 뿐만 아니라 가이드 정보(820)를 함께 제공함으로써 사용자에게 보다 쉽게 경로를 찾아갈 수 있도록 제공할 수 있다.
한편, 단말(110b) 및 상대방 단말이 영상 통화를 수행하는 중이므로 단말(110b)이 이동하고 있는 이동 경로를 포함하는 영상 데이터를 상대방 단말의 영상 통화 화면에 표시할 수 있다. 상대방 단말은 영상 통화 화면에 표시된 영상 데이터 및 이동 경로에 대하여 영상 통화를 통하여 명령을 입력할 수 있다. 예를 들면, 상대방 단말에서 단말(110b)이 이동하고 있는 이동 경로에 대하여 '오른쪽으로 우회전 하면 바로 찾을 수 있어'와 같은 메시지를 입력하면, 입력된 메시지가 단말(110b)에게 전달될 수 있다.
도 9를 참고하면, 단말(110b)의 목적지 경로를 포함하는 컨텐츠가 업로드됨에 따라 단말에 재생되어 길안내 정보로 제공될 수 있다. 일례로, 단말(110b)은 앱(900)에 등록된 획득된 경로 정보들에 기반하여 길안내 정보를 생성할 수 있다. 예를 들면, 사용자가 새로운 여행지에 처음 도착한 경우, 목적지에 도달하기에 어려움이 존재한다. 이에 따라, 앱(900)을 통하여 목적지까지 도달할 수 있는 길안내 정보가 제공할 수 있다. 더욱 상세하게는, 새로운 여행지를 다녀온 다른 사용자들로부터 경로 정보가 입력됨에 따라 길안내 서버는 이를 취합하여 길안내 정보를 포함하는 컨텐츠를 생성할 수 있다. 단말(110b)은 단말(110b)의 위치 정보에 따라 컨텐츠(910)를 재생시킴으로써 길안내 정보를 가이드할 수 있다. 예를 들면, 단말(110b)에 단말의 위치 정보에 따른 증강 현실 기반의 길안내 정보를 포함하는 컨텐츠(910)가 재생될 수 있다. 이때, 사용자의 위치 정보에 대응하는 컨텐츠가 재생됨으로써 사용자가 목적지까지 보다 쉽게 찾아갈 수 있다.
또는, 단말(110b)은 새로운 여행지를 다녀온 다른 사용자 또는 목적지에 존재하는 사용자에 의하여 경로 정보가 포함된 컨텐츠(910)를 제공받을 수 있고, 단말(110b)의 위치 정보에 따라 컨텐츠(910)를 재생시킴으로써 길안내 정보를 가이드할 수 있다.
도 10를 참고하면, 단말(110b)의 영상 통화 화면(600)에 단말(110b)의 현재 위치 정보(1020)가 표시될 수 있다. 단말(110b)은 길안내 정보(1010)에 설정된 이탈 범위(1000)를 기준으로 단말(110b)의 현재 위치 정보(1020)를 이탈하였는지 여부를 판단할 수 있다. 단말(110b)은 단말(110b)이 이탈 범위(100)를 벗어났을 경우, 길안내 서버로부터 경보 메시지를 수신할 수 있다. 단말(110b)의 영상 통화 화면(600)에 경보 메시지(1030)가 표시될 수 있고, 단말(110b)에 경보(예를 들면, 진동)를 발생시킬 수 있다. 예를 들면, 길안내 서버는 상대방 단말부터 입력된 지시 정보에 기초하여 단말의 이탈을 감지하기 위한 이탈 범위(1000)를 설정할 수 있다. 길안내 서버는 설정된 이탈 범위(1000)를 기준으로 단말(110b)의 이탈 여부를 판단하여 경보 메시지를 생성할 수 있다. 길안내 서버는 경보 메시지를 단말(110b)로 전달할 수 있다. 또 다른 예로서, 단말(110b) 및 상대방 단말에 단말(110b)의 현재 위치 정보(1020)를 제공함으로써 단말(110b)의 길안내 정보에 따른 이동 경로가 단말(110b) 및 상대방 단말의 영상 통화 화면에 표시될 수 있다. 길안내 서버는 단말(110b)이 이탈 범위(100)를 벗어났을 경우 경보 메시지를 상대방 단말로 전달할 수 있다. 상대방 단말의 영상 통화 화면에 표시된 단말(110b)의 현재 위치 정보(1020)에 기초하여 상대방 단말로부터 단말(110b)로 경보를 발생시킬 수 있다.
도 11을 참고하면, 길안내 서버는 단말(110b)의 영상 통화 화면에 길안내를 가이드함과 동시에 메시징 환경(1100)을 제공할 수 있다. 단말(110b) 및 상대방 단말(110a)에 영상 통화가 수행됨에 따라 단말(110b)의 영상 통화 화면(600)에 단말의 위치 정보에 따라 길안내 정보가 가이드될 수 있다. 이때, 단말(110b) 및 상대방 단말(110a)의 영상 통화 화면(600)에 메시지(1110)를 입력할 수 있는 유저 인터페이스가 제공될 수 있다. 예를 들면, 상대방 단말(110a)의 영상 통화 화면에 '언제 도착해?'라는 메시지(1110)가 입력됨에 따라 단말(110b)의 영상 통화 화면 및 상대방 단말(110a)의 영상 통화 화면에 상대방 단말(110a)로부터 입력된 메시지(1110)가 표시될 수 있다. 단말(110b)은 단말의 영상 통화 화면을 통하여 상대방 단말(110a)로부터 입력된 메시지(1110)에 대한 응답 메시지를 입력할 수 있다. 단말(110b)의 영상 통화 화면에 입력된 응답 메시지가 단말(110b) 및 상대방 단말(110a)의 영상 통화 화면에 표시될 수 있다. 이와 같이, 단말들의 영상 통화 화면을 통하여 길안내를 제공받음과 동시에 메시지(1110)를 송수신할 수 있다.
도 12는 일 실시예에 따른 길안내 정보를 제공하는 방법을 도시한 흐름도이다.
제1 단말(1210), 제2 단말(1230) 및 서버(100)의 동작을 통하여 길안내 정보를 가이드하는 방법을 설명하기로 한다.
제1 단말(1210)은 제2 단말(1230)로 영상 통화를 요청할 수 있다. 제2 단말(1230)은 제1 단말(1210)로부터 요청된 영상 통화 요청에 대한 응답으로 영상 통화를 수락할 수 있다. 이를 통하여, 제1 단말(1210) 및 제2 단말(1230)간에 영상 통화 호가 연결되어 영상 통화가 수행될 수 있다.
제1 단말(1210)과 제2 단말(1230)이 영상 통화 중(1211)에 제1 단말(1210)의 영상 통화 화면은 제1 단말(1210)의 후방 카메라를 통하여 입력되는 영상 데이터를 획득할 수 있다. 여기서, 제1 단말(1210)에서 동작하고 있는 적어도 하나의 카메라 모드(예를 들면, 전방 카메라를 실행하는 전방 카메라 모드 또는 후방 카메라를 실행하는 후방 카메라 모드) 중 후방 카메라 모드를 예를 들어 설명한 것일 뿐, 후방 카메라 모드에 한정되는 것은 아니며, 제1 단말(1210)에서 영상 통화 중(1211)에 입력되는 영상 데이터이면 무방하다. 이때, 영상 데이터는 단말의 현재 위치 기반의 영상 데이터일 수 있다. 제1 단말(1210)은 제1 단말의 영상 통화 화면에 입력된 영상 데이터를 제2 단말(1230)로 전송할 수 있다(1212). 이때, 도 12에서는 제1 단말(1210)로부터 경로가 질의되는 것으로 설명하나, 제1 단말(1210)에 한정되는 것은 아니다.
제2 단말(1230)은 제1 단말의 영상 통화 화면에 입력된 영상 데이터를 수신할 수 있다. 이때, 예를 들면, 서버(100)는 제1 단말(1210)의 영상 통화 화면에 입력되는 영상 데이터를 수신함에 따라 제1 단말의 위치 정보를 판단할 수 있다(1213). 다른 예로서, 서버(100)는 제1 단말(1210)의 GPS 정보를 참조하여 제1 단말(1210)의 위치 정보를 판단할 수 있다. 또 다른 예로서, 서버(100)는 제1 단말(1210)의 GPS 정보와 제1 단말(1210)의 영상 통화 화면에 입력되는 영상 데이터를 수신함에 따라 제1 단말의 위치 정보를 판단할 수도 있다. 서버(100)는 제2 단말(1230)로 제1 단말의 현재 위치 정보를 포함하는 지도 정보를 전달할 수 있다(1214). 이에 따라, 제2 단말(1230)의 영상 통화 화면에 제1 단말(1210)로부터 전송된 영상 데이터 및 지도 정보가 표시될 수 있다(1215).
제2 단말(1230)은 영상 데이터에 기반하여 길안내를 위한 지시 정보를 입력할 수 있다(1216). 제2 단말(1230)은 영상 데이터에 입력된 지시 정보를 제1 단말(1210)로 전달할 수 있다. 제1 단말(1210)은 제2 단말(1230)로부터 입력된 지시 정보를 수신할 수 있다. 이때, 서버(100)는 제2 단말(1230)로부터 입력된 지시 정보에 기초하여 부가 정보를 획득할 수 있다(1218). 예를 들면, 서버(100)는 지시 정보에 기초하여 별도의 서버를 통하여 부가 정보를 획득할 수 있다. 또는, 서버(100)는 지시 정보에 기초하여 데이터베이스에 저장된 정보를 추출함으로써 부가 정보를 생성할 수 있다. 서버(100)는 획득된 부가 정보를 제1 단말(1210)로 전달할 수 있다(1219).
제1 단말(1210)은 제2 단말(1230)로부터 수신된 지시 정보 및 서버(100)로부터 수신된 부가 정보를 제1 단말(1210)에 현재 표시되고 있는 영상 데이터에 매핑하여 길안내 정보를 생성할 수 있다(1220). 예를 들면, 제1 단말(1210)은 지시 정보를 포함하는 레이어 및 부가 정보를 포함하는 레이어를 지시 정보가 입력된 위치 및 제1 단말(1210)의 위치 정보에 기초하여 영상 데이터에 각각 중첩시켜 매핑할 수 있다. 이때, 증강 현실 기반의 길안내 정보가 생성될 수 있다.
제1 단말(1210)은 길안내 정보를 위치 정보에 따라 가이드할 수 있다(1221). 예를 들면, 제1 단말(1210)의 사용자가 이동함에 따라 제1 단말(1210)의 위치 정보에 따른 길안내 정보를 가이드하게 된다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 컴퓨터로 구현되는 길안내 방법에 있어서,
    영상 통화 중에 단말의 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터를 상대방 단말로 전송하는 단계;
    상기 영상 데이터가 영상 통화 화면에 표시된 상대방 단말로부터 상기 영상 데이터에 기반한 길안내를 위한 지시 정보를 수신하는 단계;
    상기 지시 정보를 상기 단말의 영상 데이터에 매핑하여 길안내 정보를 생성하는 단계; 및
    상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계
    를 포함하는 길안내 방법.
  2. 제1항에 있어서,
    상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는,
    상기 지시 정보를 상기 단말의 영상 데이터에 매핑함에 따라 생성된 증강 현실 기반의 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계
    를 포함하는 길안내 방법.
  3. 제1항에 있어서,
    상기 지시 정보를 상기 단말의 영상 데이터에 매핑하여 길안내 정보를 생성하는 단계는,
    상기 지시 정보를 포함하는 레이어를 상기 지시 정보가 입력된 위치에 대응하여 상기 영상 데이터에 매핑하여 길안내 정보를 생성하는 단계
    를 포함하는 길안내 방법.
  4. 제1항에 있어서,
    상기 영상 데이터가 영상 통화 화면에 표시된 상대방 단말로부터 상기 영상 데이터에 기반한 길안내를 위한 지시 정보를 수신하는 단계는,
    상기 상대방 단말에 지시 정보를 입력하는 유저 인터페이스가 제공됨에 따라 상기 상대방 단말로부터 상기 유저 인터페이스를 통하여 입력된 지시 정보를 수신하는 단계
    를 포함하는 길안내 방법.
  5. 제1항에 있어서,
    상기 영상 데이터가 영상 통화 화면에 표시된 상대방 단말로부터 상기 영상 데이터에 기반한 길안내를 위한 지시 정보를 수신하는 단계는,
    상기 상대방 단말로부터 상기 영상 데이터에 입력된 특정 이벤트와 관련된 지시 정보를 수신하는 단계
    를 포함하는 길안내 방법.
  6. 제1항에 있어서,
    상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는,
    상기 단말의 위치 정보에 따라 상기 길안내 정보와 관련된 가이드 정보를 제공하는 단계
    를 포함하는 길안내 방법.
  7. 제1항에 있어서,
    상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는,
    상기 단말의 위치 정보가 변경됨에 따라 상기 단말의 변경된 위치 정보에 기초하여 계속적으로 길안내 정보를 업데이트하는 단계
    를 포함하는 길안내 방법.
  8. 제1항에 있어서,
    상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는,
    상기 단말의 목적지 경로를 포함하는 컨텐츠가 상기 상대방 단말에 의하여 업로드됨에 따라 상기 컨텐츠를 상기 길안내 정보로서 상기 단말의 위치 정보에 따라 재생하는 단계
    를 포함하는 길안내 방법.
  9. 제1항에 있어서,
    상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는,
    상기 길안내 정보에 기초하여 상기 단말의 이탈이 발생함을 감지할 경우, 상기 이탈과 관련된 경보를 발생시키는 단계
    를 포함하는 길안내 방법.
  10. 제1항에 있어서,
    상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는,
    상기 단말 및 상기 상대방 단말에서 메시지를 송수신하는 단계
    를 포함하는 길안내 방법.
  11. 제1항에 있어서,
    상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는,
    상기 단말의 위치 정보에 따라 이동하고 있는 이동 경로를 표시하는 단계
    를 포함하는 길안내 방법.
  12. 제1항에 있어서,
    상기 영상 통화 중에 단말의 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터를 상대방 단말로 전송하는 단계는,
    상기 영상 통화 중에 동작되고 있는 카메라 모드에 따라 상기 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터를 상대방 단말로 전송하는 단계
    를 포함하는 길안내 방법.
  13. 길안내 방법을 실행시키기 위해 컴퓨터 판독 가능한 저장매체에 저장된 컴퓨터 프로그램에 있어서,
    영상 통화 중에 단말의 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터를 상대방 단말로 전송하는 단계;
    상기 영상 데이터가 영상 통화 화면에 표시된 상대방 단말로부터 상기 영상 데이터에 기반하여 길안내를 위한 지시 정보를 수신하는 단계;
    상기 지시 정보를 상기 단말의 영상 데이터에 매핑하여 길안내 정보를 생성하는 단계; 및
    상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계
    를 포함하는 컴퓨터 프로그램.
  14. 길안내 서버에 있어서,
    영상 통화 중에 단말의 현재 위치 정보를 판단하는 위치정보 판단부;
    상기 단말의 영상 데이터가 상대방 단말의 영상 통화 화면에 표시됨에 따라 상기 상대방 단말로부터 상기 영상 데이터에 기반하여 입력된 길안내를 위한 지시 정보와 연관된 부가 정보를 획득하는 부가 정보 획득부; 및
    상기 지시 정보와 연관된 부가 정보를 영상 데이터에 매핑하기 위하여 상기 단말로 제공하는 부가 정보 제공부
    를 포함하는 길안내 서버.
  15. 제14항에 있어서,
    상기 부가 정보 제공부는,
    상기 단말에서 상기 지시 정보와 연관된 부가 정보가 상기 영상 데이터에 매핑되어 증강 현실 기반의 길안내 정보가 생성되도록 하는, 길안내 서버.
  16. 제14항에 있어서,
    상기 단말의 현재 위치 정보를 포함하는 지도 정보를 상기 상대방 단말의 영상 통화 화면으로 전달하는 지도 정보 전달부
    를 더 포함하는 길안내 서버.
  17. 제14항에 있어서,
    상기 부가 정보 획득부는,
    상기 단말의 현재 위치 정보 및 상기 지시 정보에 기반하여 가이드 정보를 생성하는, 길안내 서버.
  18. 제14항에 있어서,
    상기 부가 정보 획득부는,
    상기 단말의 이탈을 감지하기 위한 이탈 범위를 설정하고, 상기 이탈 범위를 기준으로 상기 단말의 이탈 여부를 판단하여 경보 메시지를 생성하는, 길안내 서버.
  19. 제14항에 있어서,
    상기 부가 정보 제공부는,
    상기 지시 정보와 연관된 부가 정보를 포함하는 레이어를 생성하여 상기 단말로 전송하는, 길안내 서버.
  20. 제16항에 있어서,
    상기 지도 정보 전달부는,
    상기 단말의 영상 통화 화면에 표시되는 길안내 정보에 기초하여 상기 단말의 위치 정보에 따른 이동 경로를 상기 상대방 단말의 영상 통화 화면에 제공하는, 길안내 서버.
KR1020170102953A 2017-08-14 2017-08-14 영상 통화를 이용한 길안내 방법 및 시스템 KR20190018243A (ko)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020170102953A KR20190018243A (ko) 2017-08-14 2017-08-14 영상 통화를 이용한 길안내 방법 및 시스템
JP2018144838A JP7164987B2 (ja) 2017-08-14 2018-08-01 映像通話を利用した道案内方法およびシステム
CN201810901022.3A CN109387217B (zh) 2017-08-14 2018-08-09 导航方法、计算机可读存储介质及导航服务器
US16/100,694 US11268822B2 (en) 2017-08-14 2018-08-10 Method and system for navigation using video call

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170102953A KR20190018243A (ko) 2017-08-14 2017-08-14 영상 통화를 이용한 길안내 방법 및 시스템

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020190127608A Division KR102225175B1 (ko) 2019-10-15 2019-10-15 영상 통화를 이용한 길안내 방법 및 시스템

Publications (1)

Publication Number Publication Date
KR20190018243A true KR20190018243A (ko) 2019-02-22

Family

ID=65274110

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170102953A KR20190018243A (ko) 2017-08-14 2017-08-14 영상 통화를 이용한 길안내 방법 및 시스템

Country Status (4)

Country Link
US (1) US11268822B2 (ko)
JP (1) JP7164987B2 (ko)
KR (1) KR20190018243A (ko)
CN (1) CN109387217B (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102372811B1 (ko) * 2021-02-18 2022-03-11 포티투닷 주식회사 내비게이션 장치, 내비게이션 서비스 제공 방법 및 내비게이션 서비스 제공 서버
WO2022055240A1 (ko) * 2020-09-08 2022-03-17 포티투닷 주식회사 내비게이션 장치, 내비게이션 서비스 제공 방법 및 내비게이션 서비스 제공 서버
WO2022255625A1 (ko) * 2021-06-02 2022-12-08 삼성전자주식회사 영상 통화 중 다양한 커뮤니케이션을 지원하는 전자 장치 및 그의 동작 방법

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110177241B (zh) * 2019-04-08 2021-06-01 广东小天才科技有限公司 一种可穿戴设备的姿态调整方法及可穿戴设备
CN114125353B (zh) * 2020-08-31 2023-03-28 华为技术有限公司 视频电话的呼叫方法、终端设备以及存储介质
US20220229535A1 (en) * 2021-01-19 2022-07-21 Samsung Electronics Company, Ltd. Systems and Methods for Manipulating Views and Shared Objects in XR Space
JP2024003484A (ja) * 2022-06-27 2024-01-15 株式会社カーメイト リアルタイム映像配信システム

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160086560A (ko) 2015-01-12 2016-07-20 에스케이텔레콤 주식회사 영상 통화 중 증강 현실 컨텐츠 제공 방법을 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록매체 및 이를 위한 장치

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7756635B2 (en) * 2003-04-09 2010-07-13 Primordial, Inc. Method and system for generating and presenting off-road travel routes
US20050131638A1 (en) * 2003-12-11 2005-06-16 Sencaj Randall W. Route sequence viewing in navigation system
EP1757904B1 (en) * 2004-06-18 2012-11-28 Navitime Japan Co., Ltd. Communicative navigation system and information distribution server, and mobile navigation terminal
JP4464780B2 (ja) 2004-09-28 2010-05-19 株式会社日立製作所 案内情報表示装置
CN102798397B (zh) * 2005-06-06 2017-05-03 通腾科技股份有限公司 带有相机信息的导航装置
JP4916749B2 (ja) * 2006-03-30 2012-04-18 京セラ株式会社 テレビ電話システム及びテレビ電話端末装置並びにテレビ電話画像表示方法
KR20110044012A (ko) * 2009-10-22 2011-04-28 삼성전자주식회사 화상통화 단말기를 이용한 길 안내 장치 및 방법
JP2011179943A (ja) * 2010-03-01 2011-09-15 Nec Corp ナビゲーションシステム、携帯端末装置、ナビゲーション方法及びナビゲーションプログラム
KR101667715B1 (ko) * 2010-06-08 2016-10-19 엘지전자 주식회사 증강현실을 이용한 경로 안내 방법 및 이를 이용하는 이동 단말기
KR101118010B1 (ko) 2010-07-16 2012-06-12 텔코웨어 주식회사 증강 현실을 이용한 영상 통화 서비스 방법 및 그 시스템, 및 기록매체
US9002957B2 (en) * 2011-04-27 2015-04-07 Verizon Patent And Licensing Inc. Profile message communications
US8706397B2 (en) * 2011-07-11 2014-04-22 Harman International Industries, Incorporated System and method for determining an optimal route using aggregated route information
KR101838119B1 (ko) * 2011-12-15 2018-03-14 삼성전자 주식회사 휴대단말기의 위치 표시 장치 및 방법
JP5862346B2 (ja) * 2012-02-13 2016-02-16 株式会社デンソー 移動支援システム
KR102021050B1 (ko) * 2012-06-06 2019-09-11 삼성전자주식회사 내비게이션 정보를 제공하는 방법, 기계로 읽을 수 있는 저장 매체, 이동 단말 및 서버
US9990836B2 (en) * 2013-07-16 2018-06-05 Rockwilli RMR LLC Systems and methods for automated personal emergency responses
CN105300392B (zh) * 2014-05-27 2018-07-27 中国电信股份有限公司 用于在街景地图中显示规划路径的方法、装置和系统
KR101602268B1 (ko) * 2014-10-23 2016-03-10 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US10391361B2 (en) * 2015-02-27 2019-08-27 Icon Health & Fitness, Inc. Simulating real-world terrain on an exercise device
JP2016205865A (ja) * 2015-04-16 2016-12-08 株式会社パンタグラフ 誘導システム、携帯端末、およびプログラム
KR101821456B1 (ko) * 2015-09-09 2018-01-23 라인 가부시키가이샤 위치 이탈에 따른 알림을 제공하는 시스템 및 방법
KR102482595B1 (ko) 2015-12-17 2022-12-30 삼성전자주식회사 지도 정보 제공 방법 및 이를 지원하는 전자 장치
US10670418B2 (en) * 2016-05-04 2020-06-02 International Business Machines Corporation Video based route recognition
US20180232112A1 (en) * 2017-02-13 2018-08-16 Sheng-Chun Lin Messaging system with location tracking
US10347046B2 (en) * 2017-06-16 2019-07-09 Daqri, Llc Augmented reality transportation notification system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160086560A (ko) 2015-01-12 2016-07-20 에스케이텔레콤 주식회사 영상 통화 중 증강 현실 컨텐츠 제공 방법을 위한 프로그램을 기록한 컴퓨터 판독 가능한 기록매체 및 이를 위한 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022055240A1 (ko) * 2020-09-08 2022-03-17 포티투닷 주식회사 내비게이션 장치, 내비게이션 서비스 제공 방법 및 내비게이션 서비스 제공 서버
KR102372811B1 (ko) * 2021-02-18 2022-03-11 포티투닷 주식회사 내비게이션 장치, 내비게이션 서비스 제공 방법 및 내비게이션 서비스 제공 서버
WO2022255625A1 (ko) * 2021-06-02 2022-12-08 삼성전자주식회사 영상 통화 중 다양한 커뮤니케이션을 지원하는 전자 장치 및 그의 동작 방법

Also Published As

Publication number Publication date
CN109387217B (zh) 2024-01-16
JP7164987B2 (ja) 2022-11-02
US11268822B2 (en) 2022-03-08
CN109387217A (zh) 2019-02-26
JP2019036953A (ja) 2019-03-07
US20190049265A1 (en) 2019-02-14

Similar Documents

Publication Publication Date Title
US11245746B2 (en) Methods, systems, and media for controlling information used to present content on a public display device
KR20190018243A (ko) 영상 통화를 이용한 길안내 방법 및 시스템
US10108390B2 (en) Methods, systems, and media for presenting requested content on public display devices
KR101786737B1 (ko) 사용자 동선 기반 지도데이터 부분 업데이트 시스템 및 방법, 그리고, 이를 위한 기록 매체
CN109374002B (zh) 导航方法和系统、计算机可读存储介质
US20160203643A1 (en) Exhibition guide apparatus, exhibition media display apparatus, mobile terminal and method for guiding exhibition
CN102216959A (zh) 用于操纵全景的技术
US9909878B2 (en) Method and apparatus for triggering conveyance of guidance information
KR102225175B1 (ko) 영상 통화를 이용한 길안내 방법 및 시스템
TWI618430B (zh) 提供基於位置脫離的通知的系統、方法和電腦可讀記錄介質
KR102040566B1 (ko) 명확한 픽업 장소를 제공하는 방법과 시스템 및 비-일시적인 컴퓨터 판독 가능한 기록 매체
KR101702773B1 (ko) 통신 세션상에서 이미지를 이용하여 위치정보를 제공하는 정보 제공 시스템 및 방법
US20230252689A1 (en) Map driven augmented reality
US11656089B2 (en) Map driven augmented reality
KR20200108272A (ko) 대화방을 3차원 형태로 제공하는 방법과 시스템 및 비-일시적인 컴퓨터 판독 가능한 기록 매체
US20150277719A1 (en) System and method for providing simplified path and points of interest user interfaces
KR20180123999A (ko) 그룹 주행 시의 멤버 위치 표시 방법, 이를 위한 장치 및 시스템
KR20150066353A (ko) 그룹 주행 시의 멤버 위치 표시 방법, 이를 위한 장치 및 시스템
CN117308966B (zh) 室内定位与导航方法、系统、计算机设备
KR102558397B1 (ko) Cctv 정보의 제공을 위한 시스템 및 방법
CN109990781B (zh) 一种导航处理方法和装置、一种用于导航处理的装置
KR101839514B1 (ko) 지도데이터 부분 업데이트 방법 및 이를 위한 단말 장치
JP2023179237A (ja) 通信機能付ナビゲーション装置、車両のルート案内プログラム及び方法
KR20190125263A (ko) 명확한 픽업 장소를 제공하는 방법과 시스템 및 비-일시적인 컴퓨터 판독 가능한 기록 매체
KR20160110879A (ko) Cctv 정보의 제공을 위한 시스템 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
A107 Divisional application of patent