KR20190120122A - Method and system for navigation using video call - Google Patents

Method and system for navigation using video call Download PDF

Info

Publication number
KR20190120122A
KR20190120122A KR1020190127608A KR20190127608A KR20190120122A KR 20190120122 A KR20190120122 A KR 20190120122A KR 1020190127608 A KR1020190127608 A KR 1020190127608A KR 20190127608 A KR20190127608 A KR 20190127608A KR 20190120122 A KR20190120122 A KR 20190120122A
Authority
KR
South Korea
Prior art keywords
terminal
information
video call
input
call screen
Prior art date
Application number
KR1020190127608A
Other languages
Korean (ko)
Other versions
KR102225175B1 (en
Inventor
이동원
박정준
조종진
조인원
Original Assignee
라인 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라인 가부시키가이샤 filed Critical 라인 가부시키가이샤
Priority to KR1020190127608A priority Critical patent/KR102225175B1/en
Publication of KR20190120122A publication Critical patent/KR20190120122A/en
Application granted granted Critical
Publication of KR102225175B1 publication Critical patent/KR102225175B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/023Services making use of location information using mutual or relative location information between multiple location based services [LBS] targets or of distance thresholds
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Navigation (AREA)
  • Telephone Function (AREA)

Abstract

According to one embodiment, a computer-implemented road guide method can comprise: a step of transmitting the video data based on a current location, which is inputted in a video call screen of a terminal, to a counterpart terminal during a video call; a step of receiving instruction information for road guidance on the basis of the video data from the counterpart terminal on which the video data is displayed on the video call screen; a step of generating road guidance information by mapping the instruction information to video data of the terminal; and a step of guiding the road guidance information according to the location information of the terminal. Therefore, the present invention is capable of providing a movement route which can conveniently be grasped.

Description

영상 통화를 이용한 길안내 방법 및 시스템{METHOD AND SYSTEM FOR NAVIGATION USING VIDEO CALL}Direction method and system using video call {METHOD AND SYSTEM FOR NAVIGATION USING VIDEO CALL}

아래의 설명은 영상 통화 중에 길안내 정보를 가이드하는 방법 및 시스템에 관한 것이다. The description below relates to a method and system for guiding directions information during a video call.

통신 기술이 발달함에 따라 휴대폰 등과 같은 휴대형 통신 기기뿐만 아니라 TV와 같은 대형 전자 기기들에도 영상 통화 서비스를 제공하고 있다. 영상 통화 서비스는 발신 단말로부터 영상 통화 호가 시도되면, 기지국/기지국 제어기를 통해 교환기로 호 시도 메시지가 전송되며, 교환기는 홈 위치 등록기를 통해 착신 단말로의 라우팅 정보를 획득하여 착신측 교환기를 통해 착신 단말과 세션 설정을 수행한다. 이러한 과정에 따라 발신 단말과 착신 단말은 오디오 및 영상의 송수신을 통해 서로 상대방의 얼굴을 보면서 영상 통화를 수행할 수 있게 된다. As communication technology develops, video communication services are provided not only for portable communication devices such as mobile phones but also for large electronic devices such as TVs. When the video call service is attempted by the calling terminal, the call attempt message is transmitted to the exchange through the base station / base station controller, and the exchange acquires the routing information to the destination terminal through the home location register and receives the incoming call through the destination exchange. Perform session setup with the terminal. According to this process, the calling terminal and the called terminal can perform a video call while looking at each other's faces through transmission and reception of audio and video.

그러나, 영상 통화는 상대방이 보고 있는 영상을 볼 수도 없고, 상대방이 전송하는 영상에 대해서도 확인할 수 없다. 이에 따라, 영상 통화 중에 경로를 질의하거나 안내받고자 할 경우, 음성으로만 경로를 설명해야 한다는 불편함이 존재한다. However, the video call cannot see the video being viewed by the other party, nor can it check the video transmitted by the other party. Accordingly, in the case of querying or guiding a route during a video call, it is inconvenient to explain the route only by voice.

대한민국 공개특허 10-2016-0086560, 대한민국 공개특허 10-2012-0008400,Republic of Korea Patent Publication 10-2016-0086560, Republic of Korea Patent Publication 10-2012-0008400,

단말간 영상 통화 중에 증강 현실기반의 길안내 정보를 제공하는 방법 및 시스템을 제공할 수 있다. A method and system for providing augmented reality based road guidance information during a video call between terminals may be provided.

단말간 영상 통화 중에 단말의 위치 정보에 기반하여 생성된 길안내 정보를 가이드하는 방법 및 시스템을 제공할 수 있다. A method and system for guiding road guidance information generated based on location information of a terminal during a video call between terminals may be provided.

컴퓨터로 구현되는 길안내 방법은, 영상 통화 중에 단말의 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터를 상대방 단말로 전송하는 단계; 상기 영상 데이터가 영상 통화 화면에 표시된 상대방 단말로부터 상기 영상 데이터에 기반한 길안내를 위한 지시 정보를 수신하는 단계; 상기 지시 정보를 상기 단말의 영상 데이터에 매핑하여 길안내 정보를 생성하는 단계; 및 상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계를 포함할 수 있다. The computer-based road guidance method may include transmitting current location-based video data input to a video call screen of a terminal to a counterpart terminal during a video call; Receiving indication information for road guidance based on the video data from a counterpart terminal on which the video data is displayed on a video call screen; Generating road guide information by mapping the indication information to image data of the terminal; And guiding the road guide information according to the location information of the terminal.

상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는, 상기 지시 정보를 상기 단말의 영상 데이터에 매핑함에 따라 생성된 증강 현실 기반의 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계를 포함할 수 있다. The step of guiding the road guide information according to the location information of the terminal comprises: guiding augmented reality-based road guide information generated by mapping the indication information to image data of the terminal according to the location information of the terminal. It may include.

상기 지시 정보를 상기 단말의 영상 데이터에 매핑하여 길안내 정보를 생성하는 단계는, 상기 지시 정보를 포함하는 레이어를 상기 지시 정보가 입력된 위치에 대응하여 상기 영상 데이터에 매핑하여 길안내 정보를 생성하는 단계를 포함할 수 있다. The generating of the road guidance information by mapping the indication information to the image data of the terminal may include generating road guidance information by mapping a layer including the indication information to the image data corresponding to a position where the indication information is input. It may include the step.

상기 영상 데이터가 영상 통화 화면에 표시된 상대방 단말로부터 상기 영상 데이터에 기반한 길안내를 위한 지시 정보를 수신하는 단계는, 상기 상대방 단말에 지시 정보를 입력하는 유저 인터페이스가 제공됨에 따라 상기 상대방 단말로부터 상기 유저 인터페이스를 통하여 입력된 지시 정보를 수신하는 단계를 포함할 수 있다. Receiving the indication information for the guidance based on the video data from the counterpart terminal in which the video data is displayed on the video call screen, the user terminal from the counterpart terminal as the user interface for inputting the indication information is provided to the counterpart terminal; And receiving indication information input through an interface.

상기 영상 데이터가 영상 통화 화면에 표시된 상대방 단말로부터 상기 영상 데이터에 기반한 길안내를 위한 지시 정보를 수신하는 단계는, 상기 상대방 단말로부터 상기 영상 데이터에 입력된 특정 이벤트와 관련된 지시 정보를 수신하는 단계를 포함할 수 있다. Receiving direction information based on the video data from the counterpart terminal on which the video data is displayed on the video call screen, receiving the guide information related to a specific event input to the video data from the counterpart terminal. It may include.

상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는, 상기 단말의 위치 정보에 따라 상기 길안내 정보와 관련된 가이드 정보를 제공하는 단계를 포함할 수 있다. The step of guiding the road guide information according to the location information of the terminal may include providing guide information related to the road guide information according to the location information of the terminal.

상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는, 상기 단말의 위치 정보가 변경됨에 따라 상기 단말의 변경된 위치 정보에 기초하여 계속적으로 길안내 정보가 업데이트되는 단계를 포함할 수 있다. The step of guiding the road guide information according to the location information of the terminal may include continuously updating the road guide information based on the changed location information of the terminal as the location information of the terminal is changed.

상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는, 상기 단말의 목적지 경로를 포함하는 컨텐츠가 상기 상대방 단말에 의하여 업로드됨에 따라 상기 컨텐츠를 상기 길안내 정보로서 상기 단말의 위치 정보에 따라 재생하는 단계를 포함할 수 있다. The step of guiding the road guide information according to the location information of the terminal may include the content as the road guide information according to the location information of the terminal as the content including the destination route of the terminal is uploaded by the counterpart terminal. Reproducing.

상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는, 상기 길안내 정보에 기초하여 상기 단말의 이탈이 발생함을 감지할 경우, 상기 이탈과 관련된 경보를 발생시키는 단계를 포함할 수 있다. The step of guiding the road guide information according to the location information of the terminal may include generating an alarm related to the departure when detecting that the departure of the terminal occurs based on the road guidance information. .

상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는, 상기 단말 및 상기 상대방 단말에서 메시지를 송수신하는 단계를 포함할 수 있다. The step of guiding the road guide information according to the location information of the terminal may include transmitting and receiving a message between the terminal and the counterpart terminal.

상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계는, 상기 단말의 위치 정보에 따라 이동하고 있는 이동 경로를 표시하는 단계를 포함할 수 있다. The step of guiding the road guide information according to the location information of the terminal may include displaying a moving route moving according to the location information of the terminal.

상기 영상 통화 중에 단말의 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터를 상대방 단말로 전송하는 단계는, 카메라 모드에 따라 상기 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터를 상대방 단말로 전송하는 단계를 포함할 수 있다. Transmitting the current location-based video data input to the video call screen of the terminal to the counterpart terminal during the video call, transmitting the current location-based video data input to the video call screen to the other terminal according to the camera mode It may include a step.

길안내 방법을 실행시키기 위해 컴퓨터 판독 가능한 저장매체에 저장된 컴퓨터 프로그램은, 영상 통화 중에 단말의 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터를 상대방 단말로 전송하는 단계; 상기 영상 데이터가 영상 통화 화면에 표시된 상대방 단말로부터 상기 영상 데이터에 기반하여 길안내를 위한 지시 정보를 수신하는 단계; 상기 지시 정보를 상기 단말의 영상 데이터에 매핑하여 길안내 정보를 생성하는 단계; 및 상기 길안내 정보를 상기 단말의 위치 정보에 따라 가이드하는 단계를 포함할 수 있다. A computer program stored in a computer readable storage medium for executing the way guidance method comprises the steps of: transmitting video data based on the current location inputted on the video call screen of the terminal to the counterpart terminal during the video call; Receiving indication information for driving directions based on the video data from a counterpart terminal on which the video data is displayed on a video call screen; Generating road guide information by mapping the indication information to image data of the terminal; And guiding the road guide information according to the location information of the terminal.

길안내 서버는, 영상 통화 중에 단말의 현재 위치 정보를 판단하는 위치정보 판단부; 상기 단말의 영상 데이터가 상대방 단말의 영상 통화 화면에 표시됨에 따라 상기 상대방 단말로부터 상기 영상 데이터에 기반하여 입력된 길안내를 위한 지시 정보와 연관된 부가 정보를 획득하는 부가 정보 획득부; 및 상기 지시 정보와 연관된 부가 정보를 영상 데이터에 매핑하기 위하여 상기 단말로 제공하는 부가 정보 제공부를 포함할 수 있다. The route guidance server may include a location information determiner configured to determine current location information of the terminal during a video call; An additional information obtaining unit which obtains additional information associated with indication information for way guidance input based on the video data from the counterpart terminal as the video data of the terminal is displayed on the video call screen of the counterpart terminal; And an additional information providing unit for providing the terminal with additional information associated with the indication information to the image data.

상기 부가 정보 제공부는, 상기 단말에서 상기 지시 정보와 연관된 부가 정보가 상기 영상 데이터에 매핑되어 증강 현실 기반의 길안내 정보가 생성될 수 있다. The additional information providing unit may generate additional augmented reality-based road guidance information by mapping additional information associated with the indication information in the terminal to the image data.

상기 길안내 서버는, 상기 단말의 현재 위치 정보를 포함하는 지도 정보를 상기 상대방 단말의 영상 통화 화면으로 전달하는 지도 정보 전달부를 더 포함할 수 있다.The road guidance server may further include a map information transfer unit for transmitting map information including current location information of the terminal to a video call screen of the counterpart terminal.

상기 부가 정보 획득부는, 상기 단말의 현재 위치 정보 및 상기 지시 정보에 기반하여 가이드 정보를 생성할 수 있다. The additional information obtaining unit may generate guide information based on the current location information of the terminal and the indication information.

상기 부가 정보 획득부는, 상기 단말의 이탈을 감지하기 위한 이탈 범위를 설정하고, 상기 이탈 범위를 기준으로 상기 단말의 이탈 여부를 판단하여 경보 메시지를 생성할 수 있다. The additional information obtaining unit may set a departure range for detecting departure of the terminal, and generate an alarm message by determining whether the terminal is leaving based on the departure range.

상기 부가 정보 제공부는, 상기 지시 정보와 연관된 부가 정보를 포함하는 레이어를 생성하여 상기 단말로 전송할 수 있다. The additional information providing unit may generate a layer including additional information associated with the indication information and transmit the generated layer to the terminal.

상기 지도 정보 전달부는, 상기 단말의 영상 통화 화면에 표시되는 길안내 정보에 기초하여 상기 단말의 위치 정보에 따른 이동 경로를 상기 상대방 단말의 영상 통화 화면에 제공할 수 있다. The map information transfer unit may provide a moving path according to the location information of the terminal to the video call screen of the counterpart terminal based on the road guide information displayed on the video call screen of the terminal.

단말간 영상 통화 중에 단말의 영상 통화 화면에 길안내 정보를 표시함으로써 간편하게 이동 경로를 파악할 수 있다. By displaying the road guidance information on the video call screen of the terminal during the video call between the terminal can easily determine the movement route.

단말간 영상 통화 중에 단말의 영상 통화 화면에 단말의 위치 정보에 따른 길안내 정보가 가이드됨으로써 쉽고 정확하게 목적지에 도달할 수 있다. The road guidance information according to the location information of the terminal is guided to the video call screen of the terminal during the video call between the terminals to easily and accurately reach the destination.

도 1 은 일 실시예에 따른 네트워크 환경의 예를 도시한 도면이다.
도 2a는 일 실시예에 따른 단말 및 서버의 내부 구성을 설명하기 위한 블록도이다.
도 2b는 일 실시예에 따른 단말의 프로세서가 포함할 수 있는 구성 요소의 예를 도시한 블록도이다.
도 3은 일 실시예에 따른 단말의 길안내 방법의 예를 도시한 흐름도이다.
도 4 는 일 실시예에 따른 서버의 프로세서가 포함할 수 있는 구성 요소의 예를 도시한 블록도이다.
도 5는 일 실시예에 따른 단말의 영상 통화 화면에 영상 데이터가 입력되는 것을 설명하기 위한 도면이다.
도 6 및 도 7은 일 실시예에 따른 단말에서 지시 정보가 입력되는 예를 설명하기 위한 도면이다.
도 8 내지 도 11은 일 실시예에 따른 단말에서 길안내 정보가 제공되는 것을 설명하기 위한 도면이다.
도 12는 일 실시예에 따른 길안내 정보를 제공하는 방법을 도시한 흐름도이다.
1 is a diagram illustrating an example of a network environment according to an embodiment.
2A is a block diagram illustrating an internal configuration of a terminal and a server according to an embodiment.
2B is a block diagram illustrating an example of components that may be included in a processor of a terminal according to an embodiment.
3 is a flowchart illustrating an example of a method for guiding a terminal according to an embodiment.
4 is a block diagram illustrating an example of a component that may be included in a processor of a server according to an exemplary embodiment.
5 is a diagram for describing input of video data on a video call screen of a terminal according to an exemplary embodiment.
6 and 7 are diagrams for describing an example of inputting indication information in a terminal according to an exemplary embodiment.
8 to 11 are diagrams for explaining that the road guidance information is provided in the terminal according to an embodiment.
12 is a flowchart illustrating a method of providing road guidance information according to an embodiment.

이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings.

도 1 은 일 실시예에 따른 네트워크 환경의 예를 도시한 도면이다.1 is a diagram illustrating an example of a network environment according to an embodiment.

도 1의 네트워크 환경은 단말(110), 서버(100) 및 네트워크(120)를 포함하는 예를 나타내고 있다. 이러한 도 1은 발명의 설명을 위한 일례로 단말의 수나 서버의 수가 도 1과 같이 한정되는 것은 아니다.The network environment of FIG. 1 illustrates an example including a terminal 110, a server 100, and a network 120. 1 is an example for describing the present invention, and the number of terminals and the number of servers are not limited as in FIG. 1.

단말(110)은 컴퓨터 장치로 구현되는 고정형 단말이거나 이동형 단말일 수 있다. 단말(110)의 예를 들면, 스마트폰(smart phone), 휴대폰, 네비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC, 웨어러블 기기, HMD(Head mounted Display) 등이 있다. 단말(110)은 무선 또는 유선 통신 방식을 이용하여 네트워크(120)를 통해 다른 단말들 및/또는 서버(100)와 통신할 수 있다. The terminal 110 may be a fixed terminal or a mobile terminal implemented with a computer device. Examples of the terminal 110 include a smart phone, a mobile phone, navigation, a computer, a notebook computer, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), a tablet PC, a wearable device, and an HMD ( Head mounted Display). The terminal 110 may communicate with other terminals and / or the server 100 through the network 120 using a wireless or wired communication scheme.

통신 방식은 제한되지 않으며, 네트워크(120)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(120)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(120)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.The communication method is not limited and may include not only a communication method using a communication network (eg, a mobile communication network, a wired internet, a wireless internet, a broadcasting network) that the network 120 may include, but also a short range wireless communication between devices. For example, the network 120 may include a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), and a broadband network (BBN). And one or more of networks such as the Internet. In addition, the network 120 may include any one or more of network topologies including a bus network, a star network, a ring network, a mesh network, a star-bus network, a tree, or a hierarchical network. It is not limited.

서버(100)는 단말(110)과 네트워크(120)를 통해 통신하여 명령, 코드, 파일, 컨텐츠, 서비스 등을 제공하는 컴퓨터 장치 또는 복수의 컴퓨터 장치들로 구현될 수 있다. 일례로, 서버(100)는 네트워크(120)를 통해 접속한 단말(110)로 어플리케이션의 설치를 위한 파일을 제공할 수 있다. 이 경우 단말(110)은 서버(100)로부터 제공된 파일을 이용하여 어플리케이션을 설치할 수 있다. 또한 단말(110)이 포함하는 운영체제(Operating System, OS)나 적어도 하나의 프로그램(일례로 브라우저나 상기 설치된 어플리케이션)의 제어에 따라 서버(100)에 접속하여 서버(100)가 제공하는 서비스나 컨텐츠를 제공받을 수 있다. 예를 들면, 단말(110)이 어플리케이션의 제어에 따라 네트워크(120)를 통해 서비스 요청 메시지를 서버(100)로 전송하면, 서버(100)는 서비스 요청 메시지에 대응하는 코드를 단말(110)로 전송할 수 있고, 단말(110)은 어플리케이션의 제어에 따라 코드에 따른 화면을 구성하여 표시함으로써 사용자에게 컨텐츠를 제공할 수 있다.The server 100 may be implemented as a computer device or a plurality of computer devices that communicate with the terminal 110 through the network 120 to provide commands, codes, files, contents, services, and the like. For example, the server 100 may provide a file for installing an application to the terminal 110 connected through the network 120. In this case, the terminal 110 may install an application using a file provided from the server 100. In addition, a service or content provided by the server 100 by accessing the server 100 under the control of an operating system (OS) included in the terminal 110 or at least one program (for example, a browser or the installed application). Can be provided. For example, when the terminal 110 transmits a service request message to the server 100 through the network 120 under the control of the application, the server 100 transmits a code corresponding to the service request message to the terminal 110. The terminal 110 may provide content to a user by configuring and displaying a screen according to a code under the control of an application.

이하에서는, 적어도 하나 이상의 단말(110)들이 영상 통화가 수행되는 중에 길안내 정보를 제공하는 기술에 대하여 구체적으로 설명하기로 한다. Hereinafter, a description will be given in detail of a technique for providing at least one terminal 110 with road guidance information during a video call.

도 2a는 일 실시예에 따른 단말 및 서버의 내부 구성을 설명하기 위한 블록도이다. 2A is a block diagram illustrating an internal configuration of a terminal and a server according to an embodiment.

도 2a에서는 하나의 단말 및 하나의 서버의 내부 구성을 설명하고 있으나, 도 1을 통해 설명한 네트워크 환경에 포함될 수 있는 또 다른 단말들이나 또 다른 서버들에도 동일한 또는 유사한 내부 구성요소들이 적용될 수 있다.Although FIG. 2A illustrates an internal configuration of one terminal and one server, the same or similar internal components may be applied to other terminals or other servers that may be included in the network environment described with reference to FIG. 1.

단말(110)은 예를 들면, 프로세서(200), 적어도 하나의 어플리케이션(201), 메모리(202), 통신 모듈(203), 입출력 인터페이스(204) 및 카메라(206)를 포함할 수 있다. The terminal 110 may include, for example, a processor 200, at least one application 201, a memory 202, a communication module 203, an input / output interface 204, and a camera 206.

서버(200)는 프로세서(211), 메모리(212), 통신 모듈(213)을 포함할 수 있다. 메모리(202, 212)는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 영구 대용량 저장장치(permanent mass storage device)를 포함할 수 있다. 또한, 메모리(202, 212)에는 운영체제나 적어도 하나의 프로그램 코드(일례로 단말(110)에 설치되어 구동되는 브라우저나 상술한 어플리케이션 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(202, 212)와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 통신 모듈(203, 213)을 통해 메모리(202, 212)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템(일례로 상술한 서버(100))가 네트워크(120)를 통해 제공하는 파일들에 의해 설치되는 프로그램(일례로 상술한 어플리케이션)에 기반하여 메모리(202, 212)에 로딩될 수 있다. The server 200 may include a processor 211, a memory 212, and a communication module 213. The memories 202 and 212 are computer-readable recording media and may include permanent mass storage devices such as random access memory (RAM), read only memory (ROM), and disk drives. In addition, the memory 202 or 212 may store an operating system or at least one program code (for example, a code installed in the terminal 110 and driven for the browser or the above-described application). These software components may be loaded from a computer readable recording medium separate from the memories 202 and 212. Such a separate computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, a disk, a tape, a DVD / CD-ROM drive, a memory card, and the like. In other embodiments, software components may be loaded into the memory 202, 212 via the communication module 203, 213 rather than a computer readable recording medium. For example, at least one program is a program installed by files provided by a file distribution system (for example, the server 100 described above) through the network 120 for distributing installation files of developers or applications (for example, May be loaded into the memory 202 or 212 based on the above-described application).

프로세서(200, 211)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(202, 212) 또는 통신 모듈(203, 213)에 의해 프로세서(200, 211)로 제공될 수 있다. 예를 들면, 프로세서(200, 211)는 메모리(202, 212)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.Processors 200 and 211 may be configured to process instructions of a computer program by performing basic arithmetic, logic and input / output operations. Instructions may be provided to the processors 200, 211 by the memory 202, 212 or the communication modules 203, 213. For example, processors 200 and 211 may be configured to execute instructions received in accordance with program codes stored in recording devices such as memories 202 and 212.

통신 모듈(203, 213)은 네트워크(120)를 통해 단말(110)과 길안내 서버(100)가 서로 통신하기 위한 기능을 제공할 수 있으며, 다른 단말 또는 다른 서버와 통신하기 위한 기능을 제공할 수 있다. 일례로, 단말(110)의 프로세서(200)가 메모리(202)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신 모듈(203)의 제어에 따라 네트워크(120)를 통해 길안내 서버(100)로 전달될 수 있다. 역으로, 서버(100)의 프로세서(211)의 제어에 따라 제공되는 제어 신호나 명령, 컨텐츠, 파일 등이 통신 모듈(213)과 네트워크(120)를 거쳐 단말(110)의 통신 모듈(203)을 통해 단말(110)로 수신될 수 있다. 예를 들면, 통신 모듈(203)을 통해 수신된 길안내 서버(100)의 제어 신호나 명령 등은 프로세서(200)나 메모리(202)로 전달될 수 있고, 컨텐츠나 파일 등은 단말(110)이 더 포함할 수 있는 저장 매체로 저장될 수 있다.The communication module 203 or 213 may provide a function for the terminal 110 and the road guidance server 100 to communicate with each other through the network 120, and may provide a function for communicating with another terminal or another server. Can be. For example, a request generated by the processor 200 of the terminal 110 according to a program code stored in a recording device such as a memory 202 may be generated through a network 120 through the network 120 under the control of the communication module 203. 100). Conversely, control signals, commands, contents, files, and the like provided according to the control of the processor 211 of the server 100 are transmitted through the communication module 213 and the network 120 to the communication module 203 of the terminal 110. It may be received by the terminal 110 through. For example, a control signal or command of the road guidance server 100 received through the communication module 203 may be transmitted to the processor 200 or the memory 202, and the content or file may be transmitted to the terminal 110. This may be stored as a storage medium that may further include.

입출력 인터페이스(204)는 입출력 장치와의 인터페이스를 위한 수단일 수 있다. 예를 들면, 입력 장치는 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 어플리케이션의 통신 세션을 표시하기 위한 디스플레이와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(204)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 보다 구체적인 예로, 단말(110)의 프로세서(200)는 메모리(202)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 길안내 서버(100)나 다른 단말이 제공하는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(204)를 통해 디스플레이(205)에 표시될 수 있다. The input / output interface 204 may be a means for interfacing with the input / output device. For example, the input device may include a device such as a keyboard or mouse, and the output device may include a device such as a display for displaying a communication session of an application. As another example, the input / output interface 204 may be a means for interfacing with a device in which functions for input and output are integrated into one, such as a touch screen. More specifically, the processor 200 of the terminal 110 may include a service screen configured by using data provided by the road guidance server 100 or another terminal in processing a command of a computer program loaded in the memory 202. Content may be displayed on display 205 via input / output interface 204.

또한, 다른 실시예들에서 단말(110) 및 서버(100)는 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들면, 단말(110)은 입출력 장치 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), GPS(Global Positioning System) 모듈, 카메라(206), 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다. 보다 구체적인 예로, 단말(110)이 스마트 폰인 경우, 일반적으로 스마트 폰이 포함하고 있는 가속도 센서나 자이로 센서, 카메라 모듈, 각종 물리적인 버튼, 터치패널을 이용한 버튼, 입출력 포트, 진동을 위한 진동기 등의 다양한 구성요소들이 단말(110)에 더 포함되도록 구현될 수 있다.In addition, in other embodiments, the terminal 110 and the server 100 may include more components than the components of FIG. 2. However, it is not necessary to clearly show most of the prior art components. For example, the terminal 110 may be implemented to include at least some of the input / output devices or further include other components such as a transceiver, a global positioning system (GPS) module, a camera 206, various sensors, a database, and the like. You may. More specifically, when the terminal 110 is a smart phone, the acceleration sensor or gyro sensor, a camera module, various physical buttons, a button using a touch panel, an input / output port, a vibrator for vibration, and the like generally included in the smart phone Various components may be implemented to be further included in the terminal 110.

도 2b는 일 실시예에 따른 단말의 프로세서가 포함할 수 있는 구성 요소의 예를 도시한 블록도이고, 도 3은 일 실시예에 따른 단말의 길안내 방법의 예를 도시한 흐름도이다.2B is a block diagram illustrating an example of a component that may be included in a processor of a terminal according to an exemplary embodiment. FIG. 3 is a flowchart illustrating an example of a method for guiding a terminal according to an embodiment.

단말(110)의 프로세서(200)는 위치기반 영상데이터 전송부(210), 길안내 지시정보 수신부(220), 안내 생성부(230) 및 경로 안내부(240)를 포함할 수 있다. 이러한 프로세서(200)의 구성요소들은 단말(110)에 저장된 프로그램 코드가 제공하는 제어 명령에 따라 프로세서(200)에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 프로세서(200) 및 프로세서(200)의 구성요소들은 도 3의 길안내 방법이 포함하는 단계들(310 내지 340)을 수행하도록 단말(110)을 제어할 수 있다. 이때, 프로세서(200) 및 프로세서(200)의 구성요소들은 메모리가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. The processor 200 of the terminal 110 may include a location-based image data transmitter 210, a road guidance instruction information receiver 220, a guide generator 230, and a route guide 240. The components of the processor 200 may be representations of different functions performed by the processor 200 according to a control command provided by a program code stored in the terminal 110. The processor 200 and the components of the processor 200 may control the terminal 110 to perform steps 310 to 340 included in the way guidance method of FIG. 3. In this case, the processor 200 and the components of the processor 200 may be implemented to execute instructions according to code of an operating system included in a memory and code of at least one program.

프로세서(200)는 길안내 방법을 위한 프로그램의 파일에 저장된 프로그램 코드를 메모리에 로딩할 수 있다. 예를 들면, 단말(110)에서 프로그램이 실행되면, 프로세서는 운영체제의 제어에 따라 프로그램의 파일로부터 프로그램 코드를 메모리에 로딩하도록 단말을 제어할 수 있다. 이때, 프로세서(200) 및 프로세서(200)가 포함하는 위치기반 영상데이터 전송부(210), 길안내 지시정보 수신부(220), 안내 생성부(230) 및 경로 안내부(240) 각각은 메모리에 로딩된 프로그램 코드 중 대응하는 부분의 명령을 실행하여 이후 단계들(310 내지 340)을 실행하기 위한 프로세서(200)의 서로 다른 기능적 표현들일 수 있다. The processor 200 may load a program code stored in a file of a program for the way guidance method into a memory. For example, when a program is executed in the terminal 110, the processor may control the terminal to load program code from a file of a program into a memory under control of an operating system. In this case, each of the processor 200 and the location-based image data transmitter 210, the road guidance instruction information receiver 220, the guide generator 230, and the path guide 240 included in the processor 200 may be stored in a memory. It may be different functional representations of the processor 200 for executing instructions of a corresponding portion of the loaded program code to execute steps 310-340 thereafter.

단계(310)에서 위치기반 영상데이터 전송부(210)는 영상 통화 중에 단말의 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터를 상대방 단말로 전송할 수 있다. In operation 310, the location-based video data transmitter 210 may transmit the current location-based video data input to the video call screen of the terminal to the counterpart terminal during the video call.

단계(320)에서 길안내 지시정보 수신부(220)는 영상 데이터가 영상 통화 화면에 표시된 상대방 단말로부터 영상 데이터에 기반하여 길안내를 위한 지시 정보를 수신할 수 있다. 예를 들면, 상대방 단말에 지시 정보를 입력하는 유저 인터페이스가 제공될 수 있다. 상대방 단말로부터 유저 인터페이스를 통하여 입력된 지시 정보를 수신할 수 있다. 또는, 상대방 단말로부터 상대방 단말의 영상 통화 화면에 표시된 영상 데이터에 입력된 이벤트를 통하여 지시 정보를 수신할 수 있다. In operation 320, the direction guidance instruction information receiver 220 may receive direction information for route guidance based on the image data from the counterpart terminal on which the video data is displayed on the video call screen. For example, a user interface for inputting indication information to the counterpart terminal may be provided. The indication information input through the user interface may be received from the counterpart terminal. Alternatively, the indication information may be received from the counterpart terminal through an event input to the video data displayed on the video call screen of the counterpart terminal.

단계(330)에서 안내 생성부(230)는 지시 정보를 단말의 영상 데이터에 매핑하여 길안내 정보를 생성할 수 있다. 안내 생성부(230)는 지시 정보를 포함하는 레이어를 지시 정보가 입력된 위치에 대응하여 영상 데이터에 매핑하여 길안내 정보를 생성할 수 있다. 이때, 지시 정보를 포함하는 레이어는 영상 데이터에서 입력된 지시 정보의 위치 정보를 포함할 수 있다. 안내 생성부(230)는 지시 정보를 포함하는 레이어를 단말의 영상 데이터에 매핑함으로써 증강 현실 기반의 길안내 정보를 생성할 수 있다. 또한, 안내 생성부(230)는 서버로부터 지시 정보와 관련된 부가 정보를 전달받으면, 부가 정보를 포함하는 레이어를 단말에 표시되고 있는 영상 데이터에 매핑하여 길안내 정보를 생성할 수 있다. In operation 330, the guide generator 230 may generate road guide information by mapping the indication information to image data of the terminal. The guide generation unit 230 may generate road guide information by mapping a layer including the indication information to image data corresponding to a position where the indication information is input. In this case, the layer including the indication information may include location information of the indication information input from the image data. The guide generation unit 230 may generate augmented reality-based road guide information by mapping a layer including the indication information to image data of the terminal. In addition, when the guide generation unit 230 receives additional information related to the indication information from the server, the guide generation unit 230 may generate road guide information by mapping a layer including the additional information to image data displayed on the terminal.

단계(340)에서 경로 안내부(340)는 길안내 정보를 단말의 위치 정보에 따라 가이드할 수 있다. 이때, 경로 안내부(340)는 단말의 위치 정보가 변경됨에 따라 단말의 변경된 위치 정보에 기초하여 길안내 정보를 업데이트할 수 있고, 업데이트된 길안내 정보를 제공할 수 있다. 경로 안내부(340)는 단말의 위치 정보에 따른 길안내 정보와 관련된 가이드 정보를 제공할 수 있다. 예를 들면, 경로 안내부(340)는 단말의 현재 위치에 대한 길안내 정보에서 어느 방향으로 이동해야 하는 지 통보할 수 있다. 경로 안내부(340)는 가이드 정보를 단말의 영상 통화 화면에 텍스트 데이터로 표시함과 동시에 음성 데이터로 제공할 수 있다. 또한, 경로 안내부(340)는 단말의 영상 통화 화면에 단말의 위치 정보에 따라 이동하고 있는 이동 경로를 함께 표시할 수 있다. In operation 340, the route guide unit 340 may guide the road guide information according to the location information of the terminal. In this case, as the location information of the terminal is changed, the route guide unit 340 may update the road guide information based on the changed location information of the terminal, and may provide updated road guidance information. The route guide 340 may provide guide information related to the road guide information according to the location information of the terminal. For example, the route guide 340 may notify in which direction to move in the road guide information for the current location of the terminal. The route guide 340 may display the guide information as text data on the video call screen of the terminal and provide the guide information as voice data. In addition, the route guide 340 may display the movement route moving along the position information of the terminal on the video call screen of the terminal.

도 4 는 일 실시예에 따른 서버의 프로세서가 포함할 수 있는 구성 요소의 예를 도시한 블록도이다.4 is a block diagram illustrating an example of a component that may be included in a processor of a server according to an exemplary embodiment.

길안내 서버(100)의 프로세서(211)는 위치정보 판단부(410), 부가 정보 획득부(420), 부가 정보 제공부(430) 및 지도 정보 전달부(440)를 포함할 수 있다. 이러한 프로세서(211)의 구성요소들은 길안내 서버(100)에 저장된 프로그램 코드가 제공하는 제어 명령에 따라 프로세서(211)에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 프로세서(211) 및 프로세서(211)의 구성요소들은 메모리가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. The processor 211 of the road guidance server 100 may include a location information determiner 410, an additional information acquirer 420, an additional information provider 430, and a map information transfer unit 440. The components of the processor 211 may be representations of different functions performed by the processor 211 according to a control command provided by the program code stored in the guidance server 100. The processor 211 and the components of the processor 211 may be implemented to execute instructions according to code of an operating system included in the memory and code of at least one program.

프로세서(211)는 길안내 방법을 위한 프로그램의 파일에 저장된 프로그램 코드를 메모리에 로딩할 수 있다. 예를 들면, 단말(110)에서 프로그램이 실행되면, 프로세서는 운영체제의 제어에 따라 프로그램의 파일로부터 프로그램 코드를 메모리에 로딩하도록 단말을 제어할 수 있다. 이때, 프로세서(211) 및 프로세서(211)가 포함하는 위치정보 판단부(410), 부가 정보 획득부(420), 부가 정보 제공부(430) 및 지도 정보 전달부(440) 각각은 메모리에 로딩된 프로그램 코드 중 대응하는 부분의 명령을 실행하는 프로세서(211)의 서로 다른 기능적 표현들일 수 있다. The processor 211 may load program code stored in a file of a program for the way guidance method into a memory. For example, when a program is executed in the terminal 110, the processor may control the terminal to load program code from a file of a program into a memory under control of an operating system. In this case, each of the processor 211 and the location information determining unit 410, the additional information obtaining unit 420, the additional information providing unit 430, and the map information transmitting unit 440 included in the processor 211 are loaded into a memory. Different functional representations of the processor 211 executing instructions of the corresponding portion of the programmed code.

위치정보 판단부(410)는 영상 통화 중에 단말의 현재 위치 정보를 판단할 수 있다. 일례로, 위치정보 판단부(410)는 단말의 영상 통화 화면에 입력되는 영상 데이터에 기초하여 단말의 현재 위치 정보를 판단할 수 있다. 보다 구체적으로, 위치정보 판단부(410)는 단말의 카메라로부터 획득된 영상 데이터에 포함된 메타 데이터에 기초하여 단말의 위치 정보를 판단할 수 있다. 영상 데이터에는 영상의 크기 정보, 영상이 촬영된 날짜 정보, 영상이 촬영된 위치 정보 등의 메타 데이터가 포함될 수 있다. 또 다른 예로서, 위치정보 판단부(410)는 단말의 카메라로부터 입력된 영상 데이터를 통하여 건물 정보 및 도로 정보 등에 기초하여 단말이 실내인지 또는 실외인지 판단할 수 있다. 위치정보 판단부(410)는 영상 데이터에 포함된 건물 정보(예를 들면, 상호명, 전화번호 등) 및 도로 정보(예를 들면, 도로명 주소)에 포함된 텍스트 정보 또는 이미지 정보로부터 단말의 현재 위치 정보를 추정할 수 있다. 또 다른 예로서, 위치정보 판단부(410)는 단말의 GPS 정보를 이용하여 단말의 현재 위치 정보를 추정할 수 있다. The location information determiner 410 may determine the current location information of the terminal during the video call. For example, the location information determination unit 410 may determine the current location information of the terminal based on the video data input to the video call screen of the terminal. More specifically, the location information determiner 410 may determine the location information of the terminal based on metadata included in the image data acquired from the camera of the terminal. The image data may include metadata such as size information of the image, date information on which the image is captured, and location information on which the image is captured. As another example, the location information determiner 410 may determine whether the terminal is indoor or outdoor based on building information and road information through image data input from the camera of the terminal. The location information determination unit 410 may determine the current location of the terminal from text information or image information included in building information (eg, business name, telephone number, etc.) and road information (eg, road name address) included in the image data. Information can be estimated. As another example, the location information determiner 410 may estimate the current location information of the terminal using the GPS information of the terminal.

부가 정보 획득부(420)는 단말의 영상 데이터가 상대방 단말의 영상 통화 화면에 표시됨에 따라 상대방 단말로부터 영상 데이터에 기반하여 입력된 길안내를 위한 지시 정보와 연관된 부가 정보를 획득할 수 있다. 이때, 부가 정보는, 지시 정보와 관련하여 추가적으로 제공할 수 있는 정보일 수 있다. 일례로, 부가 정보 획득부(420)는 단말의 현재 위치 정보 및 지시 정보에 기반하여 가이드 정보를 생성할 수 있다. 부가 정보 획득부(420)는 단말의 현재 위치 정보에 기초하여 길안내 정보를 가이드하기 위하여 가이드 정보를 생성할 수 있다. 이때, 가이드 정보는 네비게이션과 같이 단말의 현재 위치 정보에 기초하여 안내 메시지를 제공하는 것을 의미할 수 있다. 또한, 부가 정보 획득부(420)는 단말에서 가이드되는 길안내 정보에 기초하여 단말의 이탈을 감지하기 위한 이탈 범위를 설정하고, 이탈 범위를 기준으로 단말의 이탈 여부를 판단하여 경보 메시지를 생성할 수 있다. 예를 들면, 부가 정보 획득부(420)는 단말에 가이드되는 길안내 정보에 기초하여 단말이 경로를 이동하는 중에, 5M 이상 벗어날 경우, 단말이 이탈한 것으로 판단하여 경보 메시지를 생성할 수 있다. The additional information obtaining unit 420 may obtain additional information associated with the indication information for the guidance input based on the video data from the counterpart terminal as the video data of the terminal is displayed on the video call screen of the counterpart terminal. In this case, the additional information may be information that can be additionally provided in relation to the indication information. For example, the additional information obtaining unit 420 may generate guide information based on current location information and indication information of the terminal. The additional information obtaining unit 420 may generate guide information to guide the road guide information based on the current location information of the terminal. In this case, the guide information may mean providing a guide message based on the current location information of the terminal, such as navigation. In addition, the additional information obtaining unit 420 sets a departure range for detecting departure of the terminal based on the road guide information guided by the terminal, and generates an alarm message by determining the departure of the terminal based on the departure range. Can be. For example, the additional information obtaining unit 420 may generate an alert message by determining that the terminal has deviated when the terminal leaves 5M or more while moving the route based on the road guide information guided to the terminal.

부가 정보 제공부(430)는 지시 정보와 연관된 부가 정보를 영상 데이터에 매핑하기 위하여 단말로 제공할 수 있다. 부가 정보 제공부(430)는 지시 정보와 연관된 부가 정보를 단말에 현재 표시되고 있는 영상 데이터에 매핑하기 위하여 단말로 제공할 수 있다. 예를 들면, 부가 정보 제공부(430)는 지시 정보와 연관된 부가 정보를 포함하는 레이어를 생성하여 단말로 전송할 수 있다. 부가 정보 제공부(430)에서 단말로 제공된 부가 정보를 포함하는 레이어가 단말에 현재 표시되고 있는 영상 데이터에 매핑되어 길안내 정보가 생성될 수 있다. 이때, 길안내 정보는 증강 현실 기반의 길안내 정보가 생성될 수 있다. The additional information provider 430 may provide additional information associated with the indication information to the terminal to map the additional information to the image data. The additional information provider 430 may provide additional information associated with the indication information to the terminal in order to map the image information currently displayed on the terminal. For example, the additional information provider 430 may generate a layer including additional information associated with the indication information and transmit the generated layer to the terminal. The layer including additional information provided to the terminal from the additional information providing unit 430 may be mapped to image data currently displayed on the terminal to generate road guidance information. In this case, the road guidance information may be generated based on the augmented reality.

지도 정보 전달부(440)는 단말의 현재 위치 정보를 포함하는 지도 정보를 상대방 단말의 영상 통화 화면으로 전달할 수 있다. 예를 들면, 지도 정보 전달부(440)는 지도 서버로부터 단말의 현재 위치 정보를 포함하는 지도 정보를 통하여 상대방 단말의 영상 통화 화면으로 전달할 수 있고, 지도 API를 통하여 상대방 단말의 영상 통화 화면에 지도 정보를 제공할 수 있다. 지도 정보 전달부(440)는 단말의 영상 통화 화면에 표시되는 길안내 정보에 기초하여 단말의 위치 정보에 따른 이동 경로(예를 들면, 단말이 이동하고 있는 경로)를 상대방 단말의 영상 통화 화면에도 제공할 수 있다. 상대방 단말은 영상 통화 화면에 표시된 단말의 이동 경로를 확인할 수 있게 된다. The map information transmitter 440 may transfer map information including current location information of the terminal to a video call screen of the counterpart terminal. For example, the map information transfer unit 440 may transmit the map information from the map server to the video call screen of the counterpart terminal through map information including the current location information of the terminal, and map the video call screen of the counterpart terminal through the map API. Information can be provided. The map information transmitting unit 440 may also display a moving path (for example, a path in which the terminal moves) according to the location information of the terminal based on the road guidance information displayed on the video call screen of the terminal. Can provide. The counterpart terminal may check the movement path of the terminal displayed on the video call screen.

도 5는 일 실시예에 따른 단말의 영상 통화 화면에 영상 데이터가 입력되는 것을 설명하기 위한 도면이다. 5 is a diagram for describing input of video data on a video call screen of a terminal according to an exemplary embodiment.

적어도 하나 이상의 단말과 적어도 하나 이상의 상대방 단말이 영상 통화가 수행 중일 수 있다. 이때, 영상 통화는 일반적으로 하나의 단말과 다른 하나의 단말간 영상 통화가 이루어질 수 있으나, 복수의 단말들간 영상 통화가 이루어지는 것도 가능하다. 일례로, 메신저 어플리케이션을 통하여 영상 통화가 수행될 경우, 메신저 어플리케이션의 대화방에 존재하는 복수의 단말간 영상 통화가 지원된다. 이때, 단말들은 영상 통화를 위하여 각각의 단말에 전방 카메라가 동작될 수 있다. 이에 따라 단말 각각에 사용자의 얼굴이 표시됨으로써 서로 얼굴을 마주보고 영상 통화를 수행할 수 있게 된다. At least one terminal and at least one counterpart terminal may be in a video call. In this case, the video call may generally be a video call between one terminal and the other terminal, it is also possible to make a video call between a plurality of terminals. For example, when a video call is performed through a messenger application, a video call between a plurality of terminals existing in a chat room of the messenger application is supported. In this case, the terminals may operate a front camera for each terminal for a video call. Accordingly, the face of the user is displayed on each terminal, so that the video call can be performed facing each other.

단말(110)은 상대방 단말과 영상 통화 중에 상대방 단말에게 경로를 질의할 수 있다. 단말(110)이 상대방 단말이 이미 알고 있는 위치를 질의할 수 있다. 예를 들면, 단말(110)이 상대방 단말이 위치하고 있는 장소로 이동하고 있거나, 상대방 단말이 다녀온 장소일 수 있다. 단말(110)에 동작되고 있는 전방 카메라를 실행하는 전방 카메라 모드가 후방 카메라(510)를 실행하는 후방 카메라 모드로 전환될 수 있다. 단말(110)에 후방 카메라(510)가 동작될 수 있다. The terminal 110 may query the other terminal for a path during a video call with the other terminal. The terminal 110 may query a location that the other terminal already knows. For example, the terminal 110 may be moving to a place where the other terminal is located, or may be a place that the other terminal has visited. The front camera mode for executing the front camera operated in the terminal 110 may be switched to the rear camera mode for executing the rear camera 510. The rear camera 510 may operate in the terminal 110.

단말(110)에 후방 카메라(510)가 동작됨에 따라 단말(110)이 현재 위치하고 있는 현재 위치 기반의 영상 데이터가 촬영될 수 있다. 단말(110)은 영상 통화 중에 단말(110)의 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터를 획득할 수 있다. 예를 들면, 단말(110)의 후방 카메라(510)를 통하여 입력되는 영상 데이터는 단말(110) 주변에 존재하는 도로, 건물들을 포함하는 길거리 모습을 포함할 수 있다. 단말(110)의 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터가 상대방 단말로 전송될 수 있다. As the rear camera 510 is operated in the terminal 110, image data based on the current location where the terminal 110 is currently located may be captured. The terminal 110 may acquire video data based on the current location input on the video call screen of the terminal 110 during the video call. For example, the image data input through the rear camera 510 of the terminal 110 may include a street view including roads and buildings existing around the terminal 110. The current location-based video data input to the video call screen of the terminal 110 may be transmitted to the counterpart terminal.

단말(110)은 다른 단말에게 경로를 질의하는 단말 및 질의된 경로에 대한 길안내를 제공하는 단말을 포함할 수 있다. 이때, 각각의 단말은 상황에 따라 경로를 질의할 수도, 길안내를 제공할 수 있다. 이하, 질의된 경로에 대한 길안내를 제공하는 단말을 110a, 다른 단말에게 경로를 질의하는 단말을 110b로 구분하여 설명하기로 한다. The terminal 110 may include a terminal for querying a path to another terminal and a terminal for providing a road guide for the queried path. At this time, each terminal may query the route according to the situation, it may provide a road guide. Hereinafter, the terminal providing the route guidance for the inquired route is divided into 110a and the terminal inquiring the route to another terminal will be described as 110b.

도 6 및 도 7은 일 실시예에 따른 단말에서 지시 정보가 입력되는 예를 설명하기 위한 도면이다. 6 and 7 are diagrams for describing an example of inputting indication information in a terminal according to an exemplary embodiment.

도 6 및 도 7은 영상 데이터가 영상 통화 화면(600)에 표시된 상대방 단말(110a)에서 지시 정보를 입력하는 방법을 설명하기로 한다. 6 and 7 illustrate a method of inputting indication information from the counterpart terminal 110a in which video data is displayed on the video call screen 600.

단말의 영상 통화 화면에 입력되는 현재 위치 기반의 영상 데이터가 상대방 단말(110a)로 전송될 수 있다. 상대방 단말(110a)의 영상 통화 화면(600)에 영상 데이터가 표시될 수 있다. 상대방 단말(110a)의 영상 통화 화면(600)에 영상 데이터 및 지도 정보가 표시될 수 있다. 이때, 서버로부터 단말의 현재 위치 정보(640)를 포함하는 지도 정보(610)가 제공될 수 있다.The current location-based video data input to the video call screen of the terminal may be transmitted to the counterpart terminal 110a. Video data may be displayed on the video call screen 600 of the counterpart terminal 110a. Video data and map information may be displayed on the video call screen 600 of the counterpart terminal 110a. In this case, map information 610 including the current location information 640 of the terminal may be provided from the server.

사용자(630)는 상대방 단말(110a)의 영상 통화 화면(600)에 표시된 영상 데이터에 지시 정보를 입력할 수 있다. 이때, 상대방 단말(110a)의 화면이 터치의 입력이 가능한 터치 스크린으로 구성될 수 있다. 상대방 단말(110a)은 사용자(630)로부터 입력되는 지시 정보를 인식할 수 있다. The user 630 may input indication information into the video data displayed on the video call screen 600 of the counterpart terminal 110a. In this case, the screen of the counterpart terminal 110a may be configured as a touch screen capable of inputting a touch. The counterpart terminal 110a may recognize the indication information input from the user 630.

도 6를 참고하면, 사용자(630)는 상대방 단말(110a)의 영상 통화 화면(600)에 표시된 영상 데이터에 기반하여 특정 이벤트(예를 들면, 터치&드래그)를 통하여 지시 정보를 입력할 수 있다. 이때, 특정 이벤트는 사용자로부터 입력되는 명령을 지시 정보로 식별하기 위하여 설정된 것으로서, 예를 들면, 터치&드래그가 해당될 수 있다. 또한, 사용자의 설정에 따라 지시 정보로 식별하기 위한 특정 이벤트가 변경될 수 있다. 예를 들면, 사용자는 터치&드래그를 통하여 방향 정보를 포함하는 지시 정보를 입력할 수 있다. Referring to FIG. 6, the user 630 may input indication information through a specific event (eg, touch and drag) based on the video data displayed on the video call screen 600 of the counterpart terminal 110a. . In this case, the specific event is set to identify the command input from the user as the indication information. For example, the specific event may correspond to a touch and a drag. In addition, a specific event for identifying with indication information may be changed according to the user's setting. For example, the user may input indication information including the direction information through the touch and drag.

일례로, 사용자(630)는 상대방 단말(110a)의 영상 통화 화면(600)에 표시된 단말의 현재 위치 정보(640)를 포함하는 지도 정보(610)에 기초하여 영상 데이터에 지시 정보를 입력할 수 있다. 사용자(630)는 상대방 단말(110a)의 영상 통화 화면(600)에 지시 정보를 입력하기 위한 터치를 입력할 수 있고, 터치를 입력한 시작점(620)에서 터치를 종료하고자 하는 완료점(622)까지 드래그(621)함으로써 지시 정보를 입력할 수 있다. For example, the user 630 may input indication information into the image data based on the map information 610 including the current location information 640 of the terminal displayed on the video call screen 600 of the counterpart terminal 110a. have. The user 630 may input a touch for inputting indication information on the video call screen 600 of the counterpart terminal 110a, and the completion point 622 to end the touch at the start point 620 where the touch is input. The instruction information can be input by dragging 621.

다른 예로서, 도 7을 참고하면, 상대방 단말(110a)의 영상 통화 화면(600)에 지시 정보를 입력하는 유저 인터페이스(710~713)가 제공될 수 있다. 사용자는 상대방 단말(110a)의 영상 통화 화면(600)에 표시된 단말의 위치 정보를 포함하는 지도 정보에 기초하여 상대방 단말의 영상 통화 화면(600)의 영상 데이터에 유저 인터페이스(710~713)를 선택할 수 있다. 이때, 유저 인터페이스는, 상, 하, 좌, 우에 대한 방향 정보가 포함될 수 있다. 상대방 단말(110a)의 영상 통화 화면(600)에 표시된 영상 데이터에 사용자로부터 선택된 유저 인터페이스(720)가 표시될 수 있다. 사용자는 상대방 단말(110a)의 영상 통화 화면(600)의 영상 데이터에 표시된 유저 인터페이스를 수정할 수도 있다.As another example, referring to FIG. 7, user interfaces 710 to 713 for inputting indication information on the video call screen 600 of the counterpart terminal 110a may be provided. The user selects the user interface 710 to 713 from the video data of the video call screen 600 of the counterpart terminal based on the map information including the location information of the terminal displayed on the video call screen 600 of the counterpart terminal 110a. Can be. In this case, the user interface may include direction information for up, down, left, and right. The user interface 720 selected by the user may be displayed on the video data displayed on the video call screen 600 of the counterpart terminal 110a. The user may modify the user interface displayed on the video data of the video call screen 600 of the counterpart terminal 110a.

이와 같이, 단말은 사용자로부터 상대방 단말의 영상 통화 화면(600)에 입력된 지시 정보를 수신함에 따라 사용자 단말의 현재 위치 정보에 기초하여 길안내 정보를 생성할 수 있다. 다시 말해서, 사용자는 상대방 단말의 영상 통화 화면(600)에 상대방 단말의 지도 정보에 표시된 현재 위치 정보(640)를 정확하게 선택하는 것이 불가능하기 때문에 단말은 상대방 단말의 영상 통화에 표시된 영상 데이터에 입력된 지시 정보를 단말의 현재 위치 정보(640)에 기초하여 길안내 정보를 생성하게 된다. As such, the terminal may generate road guidance information based on the current location information of the user terminal in response to the indication information input from the user on the video call screen 600 of the counterpart terminal. In other words, since the user cannot accurately select the current location information 640 displayed in the map information of the counterpart terminal on the video call screen 600 of the counterpart terminal, the terminal is input to the video data displayed in the video call of the counterpart terminal. The directions information is generated based on the current location information 640 of the terminal.

도 8 내지 도 11은 일 실시예에 따른 단말에서 길안내 정보가 제공되는 것을 설명하기 위한 도면이다. 8 to 11 are diagrams for explaining that the road guidance information is provided in the terminal according to an embodiment.

단말(110b)은 상대방 단말로부터 입력된 지시 정보를 단말의 영상 데이터에 매핑하여 길안내 정보를 생성할 수 있다. 단말(110b)은 지시 정보를 포함하는 레이어를 지시 정보가 입력된 위치에 대응하여 영상 데이터에 매핑함으로써 길안내 정보(810)를 생성할 수 있다. 뿐만 아니라, 서버에서 상대방 단말로부터 입력된 지시 정보 및 단말의 위치 정보에 기초하여 가이드 정보가 생성될 수 있다. 단말(110b)은 가이드 정보를 서버로부터 수신함에 따라 가이드 정보를 영상 데이터에 매핑하여 길안내 정보(810)를 생성하게 된다. The terminal 110b may generate road guide information by mapping the indication information input from the counterpart terminal to the image data of the terminal. The terminal 110b may generate the road guide information 810 by mapping the layer including the indication information to the image data corresponding to the position where the indication information is input. In addition, the guide information may be generated based on the indication information input from the counterpart terminal in the server and the location information of the terminal. As the terminal 110b receives the guide information from the server, the terminal 110b generates the road guide information 810 by mapping the guide information to the image data.

단말(110b)은 길안내 정보(810)를 단말의 위치 정보에 따라 가이드할 수 있다. 이때, 단말(110b)은 길안내 정보(810)를 증강 현실 기반의 길안내 정보로 가이드할 수 있으며, 단말(110b)에 따라 가상 현실 기반의 길안내 정보로 가이드될 수 있다. The terminal 110b may guide the road guide information 810 according to the location information of the terminal. In this case, the terminal 110b may guide the road guide information 810 to the augmented reality-based road guide information, and may be guided to the virtual reality-based road guide information according to the terminal 110b.

단말(110b)의 영상 통화 화면(600)에 길안내 정보(810) 및 가이드 정보(820)가 제공될 수 있다. 단말(110b)은 단말(110b)이 길안내 정보에 기초하여 이동하고 있을 경우, 단말의 위치 정보에 기초하여 가이드 정보(820)를 제공할 수 있다. 예를 들면, 단말이 지시 정보(810)에 기초하여 이동함에 따라 단말이 현재 존재하고 있는 현재 위치 정보에 기초하여 '20M 전방에서 우회전 하세요'와 같은 가이드 정보(820)를 제공할 수 있다. 이때, 가이드 정보(820)는 단말(110b)의 영상 통화 화면(600)에 메시지로 표시될 수 있으며, 음성 메시지로도 출력될 수 있다. The road guide information 810 and the guide information 820 may be provided on the video call screen 600 of the terminal 110b. When the terminal 110b is moving based on the road guidance information, the terminal 110b may provide the guide information 820 based on the location information of the terminal. For example, as the terminal moves based on the indication information 810, the terminal may provide guide information 820 such as 'turn right in front of 20M' based on the current location information currently present. In this case, the guide information 820 may be displayed as a message on the video call screen 600 of the terminal 110b and may also be output as a voice message.

일 실시예에 따른 단말은 길안내 정보를 통하여 경로를 안내할 뿐만 아니라 가이드 정보(820)를 함께 제공함으로써 사용자에게 보다 쉽게 경로를 찾아갈 수 있도록 제공할 수 있다. According to an exemplary embodiment, the terminal may not only guide the route through the road guide information but also provide the guide information 820 together to provide the user with an easier route.

한편, 단말(110b) 및 상대방 단말이 영상 통화를 수행하는 중이므로 단말(110b)이 이동하고 있는 이동 경로를 포함하는 영상 데이터를 상대방 단말의 영상 통화 화면에 표시할 수 있다. 상대방 단말은 영상 통화 화면에 표시된 영상 데이터 및 이동 경로에 대하여 영상 통화를 통하여 명령을 입력할 수 있다. 예를 들면, 상대방 단말에서 단말(110b)이 이동하고 있는 이동 경로에 대하여 '오른쪽으로 우회전 하면 바로 찾을 수 있어'와 같은 메시지를 입력하면, 입력된 메시지가 단말(110b)에게 전달될 수 있다. Meanwhile, since the terminal 110b and the counterpart terminal are performing the video call, the video data including the moving path of the terminal 110b may be displayed on the video call screen of the counterpart terminal. The counterpart terminal may input a command through the video call to the video data and the movement path displayed on the video call screen. For example, if the other terminal inputs a message such as 'when the user turns right to the right' with respect to the moving path in which the terminal 110b is moving, the input message may be delivered to the terminal 110b.

도 9를 참고하면, 단말(110b)의 목적지 경로를 포함하는 컨텐츠가 업로드됨에 따라 단말에 재생되어 길안내 정보로 제공될 수 있다. 일례로, 단말(110b)은 앱(900)에 등록된 획득된 경로 정보들에 기반하여 길안내 정보를 생성할 수 있다. 예를 들면, 사용자가 새로운 여행지에 처음 도착한 경우, 목적지에 도달하기에 어려움이 존재한다. 이에 따라, 앱(900)을 통하여 목적지까지 도달할 수 있는 길안내 정보가 제공할 수 있다. 더욱 상세하게는, 새로운 여행지를 다녀온 다른 사용자들로부터 경로 정보가 입력됨에 따라 길안내 서버는 이를 취합하여 길안내 정보를 포함하는 컨텐츠를 생성할 수 있다. 단말(110b)은 단말(110b)의 위치 정보에 따라 컨텐츠(910)를 재생시킴으로써 길안내 정보를 가이드할 수 있다. 예를 들면, 단말(110b)에 단말의 위치 정보에 따른 증강 현실 기반의 길안내 정보를 포함하는 컨텐츠(910)가 재생될 수 있다. 이때, 사용자의 위치 정보에 대응하는 컨텐츠가 재생됨으로써 사용자가 목적지까지 보다 쉽게 찾아갈 수 있다. Referring to FIG. 9, as content including a destination route of the terminal 110b is uploaded, the content may be reproduced in the terminal and provided as road guide information. For example, the terminal 110b may generate road guidance information based on the acquired route information registered in the app 900. For example, when a user first arrives at a new destination, there is a difficulty in reaching the destination. Accordingly, the road guide information that can reach the destination through the app 900 can be provided. In more detail, as route information is input from other users who have visited a new travel destination, the route guidance server may generate the contents including the route guidance information by collecting the route information. The terminal 110b may guide the road guide information by playing the content 910 according to the location information of the terminal 110b. For example, the content 910 including the augmented reality-based road guide information according to the location information of the terminal may be played on the terminal 110b. At this time, the content corresponding to the location information of the user is reproduced so that the user can more easily navigate to the destination.

또는, 단말(110b)은 새로운 여행지를 다녀온 다른 사용자 또는 목적지에 존재하는 사용자에 의하여 경로 정보가 포함된 컨텐츠(910)를 제공받을 수 있고, 단말(110b)의 위치 정보에 따라 컨텐츠(910)를 재생시킴으로써 길안내 정보를 가이드할 수 있다. Alternatively, the terminal 110b may be provided with the content 910 including the route information by another user who has visited a new travel destination or a user who exists at the destination, and the content 910 according to the location information of the terminal 110b. By replaying, the guidance information can be guided.

도 10를 참고하면, 단말(110b)의 영상 통화 화면(600)에 단말(110b)의 현재 위치 정보(1020)가 표시될 수 있다. 단말(110b)은 길안내 정보(1010)에 설정된 이탈 범위(1000)를 기준으로 단말(110b)의 현재 위치 정보(1020)를 이탈하였는지 여부를 판단할 수 있다. 단말(110b)은 단말(110b)이 이탈 범위(100)를 벗어났을 경우, 길안내 서버로부터 경보 메시지를 수신할 수 있다. 단말(110b)의 영상 통화 화면(600)에 경보 메시지(1030)가 표시될 수 있고, 단말(110b)에 경보(예를 들면, 진동)를 발생시킬 수 있다. 예를 들면, 길안내 서버는 상대방 단말부터 입력된 지시 정보에 기초하여 단말의 이탈을 감지하기 위한 이탈 범위(1000)를 설정할 수 있다. 길안내 서버는 설정된 이탈 범위(1000)를 기준으로 단말(110b)의 이탈 여부를 판단하여 경보 메시지를 생성할 수 있다. 길안내 서버는 경보 메시지를 단말(110b)로 전달할 수 있다. 또 다른 예로서, 단말(110b) 및 상대방 단말에 단말(110b)의 현재 위치 정보(1020)를 제공함으로써 단말(110b)의 길안내 정보에 따른 이동 경로가 단말(110b) 및 상대방 단말의 영상 통화 화면에 표시될 수 있다. 길안내 서버는 단말(110b)이 이탈 범위(100)를 벗어났을 경우 경보 메시지를 상대방 단말로 전달할 수 있다. 상대방 단말의 영상 통화 화면에 표시된 단말(110b)의 현재 위치 정보(1020)에 기초하여 상대방 단말로부터 단말(110b)로 경보를 발생시킬 수 있다. Referring to FIG. 10, the current location information 1020 of the terminal 110b may be displayed on the video call screen 600 of the terminal 110b. The terminal 110b may determine whether the current location information 1020 of the terminal 110b is departed based on the departure range 1000 set in the road guidance information 1010. When the terminal 110b is out of the departure range 100, the terminal 110b may receive an alert message from the road guidance server. An alarm message 1030 may be displayed on the video call screen 600 of the terminal 110b, and an alarm (for example, vibration) may be generated on the terminal 110b. For example, the route guidance server may set a departure range 1000 for detecting departure of the terminal based on the indication information input from the counterpart terminal. The road guidance server may generate an alarm message by determining whether the terminal 110b has moved away based on the set departure range 1000. The route guidance server may transmit the alert message to the terminal 110b. As another example, by providing the current location information 1020 of the terminal 110b to the terminal 110b and the counterpart terminal, the moving path according to the route guidance information of the terminal 110b is a video call of the terminal 110b and the counterpart terminal. It can be displayed on the screen. When the terminal 110b is out of the departure range 100, the road guidance server may transmit an alert message to the counterpart terminal. An alarm may be generated from the counterpart terminal to the terminal 110b based on the current location information 1020 of the terminal 110b displayed on the video call screen of the counterpart terminal.

도 11을 참고하면, 길안내 서버는 단말(110b)의 영상 통화 화면에 길안내를 가이드함과 동시에 메시징 환경(1100)을 제공할 수 있다. 단말(110b) 및 상대방 단말(110a)에 영상 통화가 수행됨에 따라 단말(110b)의 영상 통화 화면(600)에 단말의 위치 정보에 따라 길안내 정보가 가이드될 수 있다. 이때, 단말(110b) 및 상대방 단말(110a)의 영상 통화 화면(600)에 메시지(1110)를 입력할 수 있는 유저 인터페이스가 제공될 수 있다. 예를 들면, 상대방 단말(110a)의 영상 통화 화면에 '언제 도착해?'라는 메시지(1110)가 입력됨에 따라 단말(110b)의 영상 통화 화면 및 상대방 단말(110a)의 영상 통화 화면에 상대방 단말(110a)로부터 입력된 메시지(1110)가 표시될 수 있다. 단말(110b)은 단말의 영상 통화 화면을 통하여 상대방 단말(110a)로부터 입력된 메시지(1110)에 대한 응답 메시지를 입력할 수 있다. 단말(110b)의 영상 통화 화면에 입력된 응답 메시지가 단말(110b) 및 상대방 단말(110a)의 영상 통화 화면에 표시될 수 있다. 이와 같이, 단말들의 영상 통화 화면을 통하여 길안내를 제공받음과 동시에 메시지(1110)를 송수신할 수 있다. Referring to FIG. 11, the directions server may provide a messaging environment 1100 while guiding directions on a video call screen of the terminal 110b. As the video call is performed between the terminal 110b and the counterpart terminal 110a, the road guide information may be guided according to the location information of the terminal on the video call screen 600 of the terminal 110b. In this case, a user interface for inputting a message 1110 on the video call screen 600 of the terminal 110b and the counterpart terminal 110a may be provided. For example, as the message 1110, 'When arrive?' Is input on the video call screen of the counterpart terminal 110a, the counterpart terminal is displayed on the video call screen of the terminal 110b and the video call screen of the counterpart terminal 110a. The message 1110 input from 110a may be displayed. The terminal 110b may input a response message to the message 1110 input from the counterpart terminal 110a through the video call screen of the terminal. The response message input to the video call screen of the terminal 110b may be displayed on the video call screen of the terminal 110b and the counterpart terminal 110a. In this way, while receiving the directions through the video call screen of the terminal can transmit and receive the message 1110.

도 12는 일 실시예에 따른 길안내 정보를 제공하는 방법을 도시한 흐름도이다. 12 is a flowchart illustrating a method of providing road guidance information according to an embodiment.

제1 단말(1210), 제2 단말(1230) 및 서버(100)의 동작을 통하여 길안내 정보를 가이드하는 방법을 설명하기로 한다. A method of guiding road guidance information through operations of the first terminal 1210, the second terminal 1230, and the server 100 will be described.

제1 단말(1210)은 제2 단말(1230)로 영상 통화를 요청할 수 있다. 제2 단말(1230)은 제1 단말(1210)로부터 요청된 영상 통화 요청에 대한 응답으로 영상 통화를 수락할 수 있다. 이를 통하여, 제1 단말(1210) 및 제2 단말(1230)간에 영상 통화 호가 연결되어 영상 통화가 수행될 수 있다. The first terminal 1210 may request a video call to the second terminal 1230. The second terminal 1230 may accept the video call in response to the video call request requested from the first terminal 1210. Through this, a video call may be connected between the first terminal 1210 and the second terminal 1230 to perform a video call.

제1 단말(1210)과 제2 단말(1230)이 영상 통화 중(1211)에 제1 단말(1210)의 영상 통화 화면은 제1 단말(1210)의 후방 카메라를 통하여 입력되는 영상 데이터를 획득할 수 있다. 여기서, 제1 단말(1210)에서 동작하고 있는 적어도 하나의 카메라 모드(예를 들면, 전방 카메라를 실행하는 전방 카메라 모드 또는 후방 카메라를 실행하는 후방 카메라 모드) 중 후방 카메라 모드를 예를 들어 설명한 것일 뿐, 후방 카메라 모드에 한정되는 것은 아니며, 제1 단말(1210)에서 영상 통화 중(1211)에 입력되는 영상 데이터이면 무방하다. 이때, 영상 데이터는 단말의 현재 위치 기반의 영상 데이터일 수 있다. 제1 단말(1210)은 제1 단말의 영상 통화 화면에 입력된 영상 데이터를 제2 단말(1230)로 전송할 수 있다(1212). 이때, 도 12에서는 제1 단말(1210)로부터 경로가 질의되는 것으로 설명하나, 제1 단말(1210)에 한정되는 것은 아니다. When the first terminal 1210 and the second terminal 1230 are in a video call 1211, the video call screen of the first terminal 1210 may acquire image data input through the rear camera of the first terminal 1210. Can be. Herein, the rear camera mode among the at least one camera mode (for example, the front camera mode for executing the front camera or the rear camera mode for executing the rear camera) of the first terminal 1210 is described as an example. However, the present invention is not limited to the rear camera mode, and may be video data input from the first terminal 1210 to 1211 during a video call. In this case, the image data may be image data based on the current location of the terminal. The first terminal 1210 may transmit image data input to the video call screen of the first terminal to the second terminal 1230 (1212). In this case, although the path is queried from the first terminal 1210 in FIG. 12, it is not limited to the first terminal 1210.

제2 단말(1230)은 제1 단말의 영상 통화 화면에 입력된 영상 데이터를 수신할 수 있다. 이때, 예를 들면, 서버(100)는 제1 단말(1210)의 영상 통화 화면에 입력되는 영상 데이터를 수신함에 따라 제1 단말의 위치 정보를 판단할 수 있다(1213). 다른 예로서, 서버(100)는 제1 단말(1210)의 GPS 정보를 참조하여 제1 단말(1210)의 위치 정보를 판단할 수 있다. 또 다른 예로서, 서버(100)는 제1 단말(1210)의 GPS 정보와 제1 단말(1210)의 영상 통화 화면에 입력되는 영상 데이터를 수신함에 따라 제1 단말의 위치 정보를 판단할 수도 있다. 서버(100)는 제2 단말(1230)로 제1 단말의 현재 위치 정보를 포함하는 지도 정보를 전달할 수 있다(1214). 이에 따라, 제2 단말(1230)의 영상 통화 화면에 제1 단말(1210)로부터 전송된 영상 데이터 및 지도 정보가 표시될 수 있다(1215). The second terminal 1230 may receive image data input to the video call screen of the first terminal. In this case, for example, the server 100 may determine location information of the first terminal as receiving the video data inputted on the video call screen of the first terminal 1210 (1213). As another example, the server 100 may determine the location information of the first terminal 1210 by referring to the GPS information of the first terminal 1210. As another example, the server 100 may determine the location information of the first terminal as receiving the GPS information of the first terminal 1210 and the video data inputted on the video call screen of the first terminal 1210. . The server 100 may transmit map information including the current location information of the first terminal to the second terminal 1230 (1214). Accordingly, image data and map information transmitted from the first terminal 1210 may be displayed on the video call screen of the second terminal 1230 (1215).

제2 단말(1230)은 영상 데이터에 기반하여 길안내를 위한 지시 정보를 입력할 수 있다(1216). 제2 단말(1230)은 영상 데이터에 입력된 지시 정보를 제1 단말(1210)로 전달할 수 있다. 제1 단말(1210)은 제2 단말(1230)로부터 입력된 지시 정보를 수신할 수 있다. 이때, 서버(100)는 제2 단말(1230)로부터 입력된 지시 정보에 기초하여 부가 정보를 획득할 수 있다(1218). 예를 들면, 서버(100)는 지시 정보에 기초하여 별도의 서버를 통하여 부가 정보를 획득할 수 있다. 또는, 서버(100)는 지시 정보에 기초하여 데이터베이스에 저장된 정보를 추출함으로써 부가 정보를 생성할 수 있다. 서버(100)는 획득된 부가 정보를 제1 단말(1210)로 전달할 수 있다(1219). The second terminal 1230 may input indication information for driving directions based on the image data (1216). The second terminal 1230 may transfer the indication information input to the image data to the first terminal 1210. The first terminal 1210 may receive the indication information input from the second terminal 1230. In this case, the server 100 may obtain additional information based on the indication information input from the second terminal 1230 (1218). For example, the server 100 may obtain additional information through a separate server based on the indication information. Alternatively, the server 100 may generate additional information by extracting information stored in the database based on the indication information. The server 100 may transfer the obtained additional information to the first terminal 1210 (1219).

제1 단말(1210)은 제2 단말(1230)로부터 수신된 지시 정보 및 서버(100)로부터 수신된 부가 정보를 제1 단말(1210)에 현재 표시되고 있는 영상 데이터에 매핑하여 길안내 정보를 생성할 수 있다(1220). 예를 들면, 제1 단말(1210)은 지시 정보를 포함하는 레이어 및 부가 정보를 포함하는 레이어를 지시 정보가 입력된 위치 및 제1 단말(1210)의 위치 정보에 기초하여 영상 데이터에 각각 중첩시켜 매핑할 수 있다. 이때, 증강 현실 기반의 길안내 정보가 생성될 수 있다. The first terminal 1210 generates road guidance information by mapping the indication information received from the second terminal 1230 and the additional information received from the server 100 to image data currently displayed on the first terminal 1210. It may be done (1220). For example, the first terminal 1210 overlaps the layer including the indication information and the layer including the additional information with the image data based on the position at which the indication information is input and the position information of the first terminal 1210. Can be mapped. In this case, the augmented reality-based road guidance information may be generated.

제1 단말(1210)은 길안내 정보를 위치 정보에 따라 가이드할 수 있다(1221). 예를 들면, 제1 단말(1210)의 사용자가 이동함에 따라 제1 단말(1210)의 위치 정보에 따른 길안내 정보를 가이드하게 된다. The first terminal 1210 may guide the road guide information according to the location information (1221). For example, as the user of the first terminal 1210 moves, the user may guide the road guide information according to the location information of the first terminal 1210.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the devices and components described in the embodiments are, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors, microcomputers, field programmable gate arrays (FPGAs). Can be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of explanation, one processing device may be described as being used, but one of ordinary skill in the art will appreciate that the processing device includes a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the above, and configure the processing device to operate as desired, or process it independently or collectively. You can command the device. Software and / or data may be any type of machine, component, physical device, virtual equipment, computer storage medium or device in order to be interpreted by or to provide instructions or data to the processing device. It can be embodied in. The software may be distributed over networked computer systems so that they may be stored or executed in a distributed manner. Software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be embodied in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the media may be those specially designed and constructed for the purposes of the embodiments, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine code, such as produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and the drawings as described above, various modifications and variations are possible to those skilled in the art from the above description. For example, the described techniques may be performed in a different order than the described method, and / or components of the described systems, structures, devices, circuits, etc. may be combined or combined in a different manner than the described method, or other components. Or even if replaced or substituted by equivalents, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are within the scope of the claims that follow.

Claims (22)

길안내 방법을 실행시키기 위해 컴퓨터 판독 가능한 저장매체에 저장된 컴퓨터 프로그램에 있어서,
상기 길안내 방법은,
영상 통화 중에 동작되고 있는 카메라 모드에 따라 단말의 적어도 하나의 카메라로부터 입력되는 영상 데이터를 상대방 단말로 전송하는 단계 - 상기 카메라 모드는 전방 카메라 모드 또는 후방 카메라 모드 중 적어도 하나를 포함함 -;
상기 영상 데이터가 영상 통화 화면에 표시되는 상대방 단말로부터, 상기 상대방 단말 상에 제공되는 유저 인터페이스를 통해 상기 표시되는 영상 데이터 상에서 입력된 지시 정보를 상기 영상 통화 화면 상에서 상기 지시 정보가 입력된 위치와 함께 수신하는 단계;
상기 영상 통화 화면 상에서 상기 지시 정보가 입력된 위치를 기초로 상기 지시 정보를 상기 카메라 모드에 따라 상기 카메라를 통해 현재 입력되는 영상 데이터 상에 대응시킴으로써 상기 지시 정보를 포함하는 레이어를 상기 현재 입력되는 영상 데이터에 매핑하여 길안내 정보를 생성하는 단계;
상기 단말의 현재 위치 정보에 따라 상기 길안내 정보와 관련된 가이드 정보를 생성하는 단계; 및
상기 길안내 정보와 상기 가이드 정보를 상기 단말의 영상 통화 화면 상에 표시하는 단계
를 포함하는, 컴퓨터 판독 가능한 저장매체에 저장된 컴퓨터 프로그램.
In a computer program stored in a computer readable storage medium for executing the directions method,
The way guidance is,
Transmitting image data input from at least one camera of a terminal to a counterpart terminal according to a camera mode that is operated during a video call, wherein the camera mode includes at least one of a front camera mode and a rear camera mode;
From the counterpart terminal on which the video data is displayed on the video call screen, the indication information input on the displayed video data through a user interface provided on the counterpart terminal together with a position where the indication information is input on the video call screen. Receiving;
The image that is currently input to the layer including the indication information by mapping the indication information to image data currently input through the camera according to the camera mode based on a position where the indication information is input on the video call screen. Generating road guidance information by mapping the data;
Generating guide information related to the road guidance information according to the current location information of the terminal; And
Displaying the road guide information and the guide information on a video call screen of the terminal.
And a computer program stored in a computer readable storage medium.
제1항에 있어서,
상기 전송하는 단계는,
상기 영상 통화 중에 음성 데이터를 통하여 상기 상대방 단말에게 경로를 질의함에 따라 상기 영상 통화 중에 전방 카메라를 실행하는 전방 카메라 모드가 후방 카메라를 실행하는 후방 카메라 모드로 전환되고, 상기 전환된 후방 카메라 모드를 통하여 입력되는 영상 데이터를 상기 상대방 단말로 전송하는 단계
를 포함하는, 컴퓨터 프로그램.
The method of claim 1,
The transmitting step,
As the path is inquired to the counterpart terminal through the voice data during the video call, the front camera mode for executing the front camera during the video call is switched to the rear camera mode for executing the rear camera, and the converted rear camera mode is Transmitting the input image data to the counterpart terminal;
Including, a computer program.
제1항에 있어서,
상기 전송하는 단계는,
상기 전방 카메라 모드가 동작됨에 따라 상기 영상 통화 화면에 표시된 사용자의 얼굴을 포함하는 도로 정보 또는 건물 정보가 입력되는 영상 데이터를 상대방 단말로 전송하는 단계
를 포함하는, 컴퓨터 프로그램.
The method of claim 1,
The transmitting step,
Transmitting the video data to which the road information or the building information including the face of the user displayed on the video call screen is input to the counterpart terminal as the front camera mode is operated.
Including, a computer program.
제1항에 있어서,
상기 전송하는 단계는,
상기 단말의 영상 통화 화면에 입력되는 도로 정보 또는 건물 정보를 포함하는 영상 데이터를 현재 위치 기반의 영상 데이터로서 전송하는 단계
를 포함하는, 컴퓨터 프로그램.
The method of claim 1,
The transmitting step,
Transmitting video data including road information or building information input to a video call screen of the terminal as video data based on a current location;
Including, a computer program.
제1항에 있어서,
상기 수신하는 단계는,
상기 상대방 단말 상에 제공되는 상, 하, 좌, 우에 대한 방향 정보를 포함하는 유저 인터페이스를 통해 입력된 지시 정보를 수신하는 단계
를 포함하는, 컴퓨터 프로그램.
The method of claim 1,
The receiving step,
Receiving indication information input through a user interface including direction information for up, down, left, and right provided on the counterpart terminal;
Including, a computer program.
제1항에 있어서,
상기 전송하는 단계는,
상기 영상 데이터가 입력되는 때의 상기 단말의 위치 정보를 상기 상대방 단말로 전송하는 단계
를 포함하고,
상기 수신하는 단계는,
상기 단말의 위치 정보를 포함하는 지도 정보가 상기 영상 데이터와 함께 영상 통화 화면에 표시되는 상대방 단말로부터 상기 표시되는 영상 데이터 상에서 입력된 지시 정보를 수신하는 단계
를 포함하는, 컴퓨터 프로그램.
The method of claim 1,
The transmitting step,
Transmitting location information of the terminal when the image data is input to the counterpart terminal;
Including,
The receiving step,
Receiving indication information input on the displayed video data from a counterpart terminal whose map information including the location information of the terminal is displayed on a video call screen together with the video data;
Including, a computer program.
제1항에 있어서,
상기 길안내 방법은,
상기 영상 통화 화면에 상기 상대방 단말로 송신될 메시지를 입력할 수 있는 유저 인터페이스를 더 제공하는 단계
를 더 포함하는, 컴퓨터 프로그램.
The method of claim 1,
The way guidance is,
Providing a user interface for inputting a message to be transmitted to the counterpart terminal on the video call screen;
The computer program further comprising.
제1항에 있어서,
상기 길안내 방법은,
상기 영상 통화 화면에 상기 길안내 정보에 따라 이동하고 있는 단말의 이동 경로를 제공하고, 상기 길안내 정보에 기초하여 상기 단말의 이탈이 발생함을 감지였을 경우, 상기 이탈과 관련된 경보를 발생시키는 단계
를 더 포함하는, 컴퓨터 프로그램.
The method of claim 1,
The way guidance is,
Providing a moving path of the terminal moving according to the road guidance information on the video call screen, and if it is detected that the departure of the terminal occurs based on the road guidance information, generating an alarm associated with the departure
The computer program further comprising.
컴퓨터로 구현되는 길안내 방법에 있어서,
영상 통화 중에 동작되고 있는 카메라 모드에 따라 단말의 적어도 하나의 카메라로부터 입력되는 영상 데이터를 상대방 단말로 전송하는 단계 - 상기 카메라 모드는 전방 카메라 모드 또는 후방 카메라 모드 중 적어도 하나를 포함함 -;
상기 영상 데이터가 영상 통화 화면에 표시되는 상대방 단말로부터, 상기 상대방 단말 상에 제공되는 유저 인터페이스를 통해 상기 표시되는 영상 데이터 상에서 입력된 지시 정보를 상기 영상 통화 화면 상에서 상기 지시 정보가 입력된 위치와 함께 수신하는 단계;
상기 영상 통화 화면 상에서 상기 지시 정보가 입력된 위치를 기초로 상기 지시 정보를 상기 카메라 모드에 따라 상기 카메라를 통해 현재 입력되는 영상 데이터 상에 대응시킴으로써 상기 지시 정보를 포함하는 레이어를 상기 현재 입력되는 영상 데이터에 매핑하여 길안내 정보를 생성하는 단계;
상기 단말의 현재 위치 정보에 따라 상기 길안내 정보와 관련된 가이드 정보를 생성하는 단계; 및
상기 길안내 정보와 상기 가이드 정보를 상기 단말의 영상 통화 화면 상에 표시하는 단계
를 포함하는, 길안내 방법.
In the computer-guided way,
Transmitting image data input from at least one camera of a terminal to a counterpart terminal according to a camera mode that is operated during a video call, wherein the camera mode includes at least one of a front camera mode and a rear camera mode;
From the counterpart terminal on which the video data is displayed on the video call screen, the indication information input on the displayed video data through a user interface provided on the counterpart terminal together with a position where the indication information is input on the video call screen. Receiving;
The image that is currently input to the layer including the indication information by mapping the indication information to image data currently input through the camera according to the camera mode based on a position where the indication information is input on the video call screen. Generating road guidance information by mapping the data;
Generating guide information related to the road guidance information according to the current location information of the terminal; And
Displaying the road guide information and the guide information on a video call screen of the terminal.
Including, directions.
제9항에 있어서,
상기 전송하는 단계는,
상기 영상 통화 중에 음성 데이터를 통하여 상기 상대방 단말에게 경로를 질의함에 따라 상기 영상 통화 중에 전방 카메라를 실행하는 전방 카메라 모드가 후방 카메라를 실행하는 후방 카메라 모드로 전환되고, 상기 전환된 후방 카메라 모드를 통하여 입력되는 영상 데이터를 상기 상대방 단말로 전송하는 단계
를 포함하는, 길안내 방법.
The method of claim 9,
The transmitting step,
As the path is inquired to the counterpart terminal through the voice data during the video call, the front camera mode for executing the front camera during the video call is switched to the rear camera mode for executing the rear camera, and the converted rear camera mode is used. Transmitting the input image data to the counterpart terminal;
Including, directions.
제9항에 있어서,
상기 전송하는 단계는,
상기 전방 카메라 모드가 동작됨에 따라 상기 영상 통화 화면에 표시된 사용자의 얼굴을 포함하는 도로 정보 또는 건물 정보가 입력되는 영상 데이터를 상대방 단말로 전송하는 단계
를 포함하는, 길안내 방법.
The method of claim 9,
The transmitting step,
Transmitting the video data to which the road information or the building information including the face of the user displayed on the video call screen is input to the counterpart terminal as the front camera mode is operated.
Including, directions.
제9항에 있어서,
상기 전송하는 단계는,
상기 단말의 영상 통화 화면에 입력되는 도로 정보 또는 건물 정보를 포함하는 영상 데이터를 현재 위치 기반의 영상 데이터로서 전송하는 단계
를 포함하는, 길안내 방법.
The method of claim 9,
The transmitting step,
Transmitting video data including road information or building information input to a video call screen of the terminal as video data based on a current location;
Including, directions.
제9항에 있어서,
상기 수신하는 단계는,
상기 상대방 단말 상에 제공되는 상, 하, 좌, 우에 대한 방향 정보를 포함하는 유저 인터페이스를 통해 입력된 지시 정보를 수신하는 단계
를 포함하는, 길안내 방법.
The method of claim 9,
The receiving step,
Receiving indication information input through a user interface including direction information for up, down, left, and right provided on the counterpart terminal;
Including, directions.
제9항에 있어서,
상기 전송하는 단계는,
상기 영상 데이터가 입력되는 때의 상기 단말의 위치 정보를 상기 상대방 단말로 전송하는 단계
를 포함하고,
상기 수신하는 단계는,
상기 단말의 위치 정보를 포함하는 지도 정보가 상기 영상 데이터와 함께 영상 통화 화면에 표시되는 상대방 단말로부터 상기 표시되는 영상 데이터 상에서 입력된 지시 정보를 수신하는 단계
를 포함하는, 길안내 방법.
The method of claim 9,
The transmitting step,
Transmitting location information of the terminal when the image data is input to the counterpart terminal;
Including,
The receiving step,
Receiving indication information input on the displayed video data from a counterpart terminal whose map information including location information of the terminal is displayed on a video call screen together with the video data;
Including, directions.
제9항에 있어서,
상기 길안내 방법은,
상기 영상 통화 화면에 상기 상대방 단말로 송신될 메시지를 입력할 수 있는 유저 인터페이스를 더 제공하는 단계
를 더 포함하는, 길안내 방법.
The method of claim 9,
The way guidance is,
Providing a user interface for inputting a message to be transmitted to the counterpart terminal on the video call screen;
Further comprising, directions.
제9항에 있어서,
상기 길안내 방법은,
상기 영상 통화 화면에 상기 길안내 정보에 따라 이동하고 있는 단말의 이동 경로를 제공하고, 상기 길안내 정보에 기초하여 상기 단말의 이탈이 발생함을 감지였을 경우, 상기 이탈과 관련된 경보를 발생시키는 단계
를 더 포함하는, 길안내 방법.
The method of claim 9,
The way guidance is,
Providing a moving path of the terminal moving according to the road guidance information on the video call screen, and if it is detected that the departure of the terminal occurs based on the road guidance information, generating an alarm associated with the departure
Further comprising, directions.
길안내 서버에 있어서,
영상 통화 중에 단말의 현재 위치 정보를 판단하는 위치정보 판단부;
상기 단말의 카메라 모드에 따라 상기 단말의 적어도 하나의 카메라로부터 입력되는 영상 데이터가 상대방 단말의 영상 통화 화면에 표시될 때, 상기 상대방 단말로부터 상기 상대방 단말 상에 제공되는 유저 인터페이스를 통해 상기 상대방 단말 상에 표시되는 영상 데이터 상에서 입력된 지시 정보를 수신하여 상기 단말의 현재 위치 정보 및 상기 지시 정보에 기반하여 가이드 정보를 생성함으로써, 수신된 지시 정보와 연관된 부가 정보를 획득하는 부가 정보 획득부; 및
상기 획득된 지시 정보와 연관된 부가 정보를 상기 단말로 제공하는 부가 정보 제공부
를 포함하는, 길안내 서버.
In the navigation server,
A location information determination unit to determine current location information of the terminal during a video call;
When the image data input from at least one camera of the terminal is displayed on the video call screen of the counterpart terminal according to the camera mode of the terminal, the counterpart terminal on the counterpart terminal is provided through the user interface provided on the counterpart terminal. An additional information obtaining unit which receives the indication information input on the image data displayed on the terminal and generates guide information based on the current position information of the terminal and the indication information, thereby obtaining additional information associated with the received indication information; And
Additional information providing unit for providing additional information associated with the obtained indication information to the terminal
Including, directions server.
제17항에 있어서,
상기 부가 정보 제공부는,
상기 지시 정보와 연관된 부가 정보를 포함하는 레이어를 생성하고, 상기 생성된 부가 정보를 포함하는 레이어가 상기 단말의 카메라를 통해 입력되는 영상 데이터에 매핑되어 증강 현실 기반의 길안내 정보가 생성되도록 상기 지시 정보와 연관된 부가 정보를 포함하는 레이어를 상기 단말로 전송하는, 길안내 서버.
The method of claim 17,
The additional information providing unit,
Generate a layer including additional information associated with the indication information, and the layer including the generated additional information is mapped to image data input through the camera of the terminal to generate augmented reality-based road guidance information. And a layer including additional information associated with the information to the terminal.
제17항에 있어서,
상기 위치정보 판단부는,
상기 단말의 영상 통화 화면에 입력되는 건물 정보 또는 도로 정보를 포함하는 영상 데이터에 기초하여 상기 단말이 실내인지 또는 실외인지 판단하고, 상기 건물 정보 및 도로 정보에 포함된 텍스트 정보 또는 이미지 정보로부터 상기 단말의 현재 위치 정보를 추정하는, 길안내 서버.
The method of claim 17,
The location information determination unit,
It is determined whether the terminal is indoors or outdoors based on the video data including the building information or the road information input on the video call screen of the terminal, and the text information or image information included in the building information and the road information. Directions server, to estimate the current location information.
제17항에 있어서,
상기 부가 정보 제공부는,
상기 단말의 이탈을 감지하기 위한 이탈 범위를 설정하고, 상기 설정된 이탈 범위를 기준으로 상기 단말의 이탈 여부를 판단하여 경로 메시지를 생성하는, 길안내 서버.
The method of claim 17,
The additional information providing unit,
A route guidance server for setting a departure range for detecting the departure of the terminal, and determining whether to leave the terminal based on the set departure range, to generate a route message.
제17항에 있어서,
상기 단말의 현재 위치 정보를 포함하는 지도 정보를 상기 상대방 단말의 영상 통화 화면으로 전달하는 지도 정보 전달부
를 더 포함하는, 길안내 서버.
The method of claim 17,
Map information transfer unit for transmitting the map information including the current location information of the terminal to the video call screen of the counterpart terminal
Further comprising, directions server.
제21항에 있어서,
상기 지도 정보 전달부는,
상기 단말의 영상 통화 화면에 표시되는 길안내 정보에 기초하여 상기 단말의 위치 정보에 따른 이동 경로를 상기 상대방 단말의 영상 통화 화면에 제공하는, 길안내 서버.
The method of claim 21,
The map information transfer unit,
The route guidance server, based on the route guidance information displayed on the video call screen of the terminal to provide a moving path according to the location information of the terminal to the video call screen of the counterpart terminal.
KR1020190127608A 2019-10-15 2019-10-15 Method and system for navigation using video call KR102225175B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190127608A KR102225175B1 (en) 2019-10-15 2019-10-15 Method and system for navigation using video call

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190127608A KR102225175B1 (en) 2019-10-15 2019-10-15 Method and system for navigation using video call

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020170102953A Division KR20190018243A (en) 2017-08-14 2017-08-14 Method and system for navigation using video call

Publications (2)

Publication Number Publication Date
KR20190120122A true KR20190120122A (en) 2019-10-23
KR102225175B1 KR102225175B1 (en) 2021-03-09

Family

ID=68460817

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190127608A KR102225175B1 (en) 2019-10-15 2019-10-15 Method and system for navigation using video call

Country Status (1)

Country Link
KR (1) KR102225175B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021112274A1 (en) * 2019-12-03 2021-06-10 엘지전자 주식회사 Method for displaying ar navigation screen, and ar navigation system
KR102465203B1 (en) * 2021-06-03 2022-11-09 주식회사 이팜헬스케어 Method and apparatus for delivering prescription medicine in a non-face-to-face drive-through manner between a pharmacist and a patient in a communication system
WO2023054897A1 (en) * 2021-09-29 2023-04-06 삼성전자 주식회사 Electronic device and method for performing video call

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101013A (en) * 2004-09-28 2006-04-13 Hitachi Ltd Guide information display
KR20110044012A (en) * 2009-10-22 2011-04-28 삼성전자주식회사 Apparatus and method for providing navigation service using video call terminals
KR20120008400A (en) * 2010-07-16 2012-01-30 텔코웨어 주식회사 Method and system for video call service using augmented reality, and recording medium
KR20160086560A (en) 2015-01-12 2016-07-20 에스케이텔레콤 주식회사 Recording medium recording program for method of providing augmented reality contents during video call service, and apparatus teherfor
KR20170072480A (en) * 2015-12-17 2017-06-27 삼성전자주식회사 Method for providing map information and electronic device supporting the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006101013A (en) * 2004-09-28 2006-04-13 Hitachi Ltd Guide information display
KR20110044012A (en) * 2009-10-22 2011-04-28 삼성전자주식회사 Apparatus and method for providing navigation service using video call terminals
KR20120008400A (en) * 2010-07-16 2012-01-30 텔코웨어 주식회사 Method and system for video call service using augmented reality, and recording medium
KR20160086560A (en) 2015-01-12 2016-07-20 에스케이텔레콤 주식회사 Recording medium recording program for method of providing augmented reality contents during video call service, and apparatus teherfor
KR20170072480A (en) * 2015-12-17 2017-06-27 삼성전자주식회사 Method for providing map information and electronic device supporting the same

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021112274A1 (en) * 2019-12-03 2021-06-10 엘지전자 주식회사 Method for displaying ar navigation screen, and ar navigation system
US11715273B2 (en) 2019-12-03 2023-08-01 Lg Electronics Inc. Method for displaying AR navigation screen, and AR navigation system
KR102465203B1 (en) * 2021-06-03 2022-11-09 주식회사 이팜헬스케어 Method and apparatus for delivering prescription medicine in a non-face-to-face drive-through manner between a pharmacist and a patient in a communication system
WO2023054897A1 (en) * 2021-09-29 2023-04-06 삼성전자 주식회사 Electronic device and method for performing video call

Also Published As

Publication number Publication date
KR102225175B1 (en) 2021-03-09

Similar Documents

Publication Publication Date Title
JP7164987B2 (en) Route guidance method and system using video call
KR102132675B1 (en) Method and system for providing navigation function through aerial view
KR102225175B1 (en) Method and system for navigation using video call
US10094681B2 (en) Controlling a map system to display off-screen points of interest
US20120303265A1 (en) Navigation system with assistance for making multiple turns in a short distance
JP2023134828A (en) Electronic equipment and computer program for providing clear pickup site
KR20200090435A (en) Method, system, and non-transitory computer readable record medium for sharing information in chat room using application added to platform in messenger
KR20200131478A (en) Method, system, and non-transitory computer readable record medium for controlling joining a chat room based on location
Ranasinghe et al. Pedestrian navigation and GPS deteriorations: User behavior and adaptation strategies
US20230228587A1 (en) Route guidance method and device using augmented reality view
KR102582745B1 (en) Method and system for providing a chat room in three-dimensional form and non-transitory computer-readable recording medium
KR102091172B1 (en) Method and apparatus for providing street view
CN114096803A (en) 3D video generation for displaying shortest path to destination
US20150277719A1 (en) System and method for providing simplified path and points of interest user interfaces
KR102558397B1 (en) System and method for providing cctv information
KR20200127683A (en) Method and system for sharing spot information
KR102136213B1 (en) Method and system for associating maps having different attribute for provding different services
CN117308966B (en) Indoor positioning and navigation method, system and computer equipment
KR102531544B1 (en) Method and system for providing content to users by using metaverse
KR102347500B1 (en) Method and apparatus for providing street view
KR102520142B1 (en) Method and system for constructing virtual space
KR102430774B1 (en) System and method for providing cctv information
KR20190125263A (en) Method, system, and non-transitory computer readable medium for providing pick up place
JPWO2014162612A1 (en) Information providing system, terminal, information providing method, and information providing program
KR20200033242A (en) Method and apparatus for providing street view

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant