KR102235474B1 - Navigation device and vehicle navigation system including the same - Google Patents

Navigation device and vehicle navigation system including the same Download PDF

Info

Publication number
KR102235474B1
KR102235474B1 KR1020200114797A KR20200114797A KR102235474B1 KR 102235474 B1 KR102235474 B1 KR 102235474B1 KR 1020200114797 A KR1020200114797 A KR 1020200114797A KR 20200114797 A KR20200114797 A KR 20200114797A KR 102235474 B1 KR102235474 B1 KR 102235474B1
Authority
KR
South Korea
Prior art keywords
information
driving
external terminal
vehicle
display
Prior art date
Application number
KR1020200114797A
Other languages
Korean (ko)
Inventor
유진주
신지혜
Original Assignee
포티투닷 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포티투닷 주식회사 filed Critical 포티투닷 주식회사
Priority to KR1020200114797A priority Critical patent/KR102235474B1/en
Application granted granted Critical
Publication of KR102235474B1 publication Critical patent/KR102235474B1/en
Priority to US18/044,539 priority patent/US20230358555A1/en
Priority to DE112021004815.5T priority patent/DE112021004815T5/en
Priority to PCT/KR2021/012185 priority patent/WO2022055240A1/en
Priority to JP2023540449A priority patent/JP2023540826A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3691Retrieval, searching and output of information related to real-time traffic, weather, or environmental conditions
    • G01C21/3694Output thereof on a road map
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3632Guidance using simplified or iconic instructions, e.g. using arrows
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Atmospheric Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Ecology (AREA)
  • Environmental & Geological Engineering (AREA)
  • Environmental Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Navigation (AREA)

Abstract

A navigation device according to an embodiment includes a communication unit configured to receive driving information of a vehicle from an external server, and transmit a driving image of the vehicle captured by at least one camera installed in the vehicle to an external terminal; a display unit for displaying driving route information and the driving image for guiding the vehicle to a destination on the basis of the driving image; and a control unit in which driving assistance information transmitted by the external terminal for the driving image transmitted to the external terminal is received through the communication unit, and the driving assistance information is displayed on the display unit with the driving image.

Description

내비게이션 장치 및 이를 포함하는 차량 내비게이션 시스템{Navigation device and vehicle navigation system including the same}Navigation device and vehicle navigation system including the same}

본 발명은 내비게이션 장치 및 내비게이션 장치의 가이드 방법에 관한 방법으로서, 보다 구체적으로는 외부 단말기와 현재 주행 중인 차량에 대한 정보를 공유하고, 외부 단말기가 전송하는 정보 및 영상을 이용하여 차량에 설치된 내비게이션 장치와 함께 주행 정보를 사용자에게 알리는 기술에 관한 발명이다.The present invention relates to a navigation device and a method for guiding the navigation device, and more specifically, a navigation device installed in a vehicle by sharing information about a vehicle currently running with an external terminal, and using information and images transmitted from the external terminal. It is an invention related to a technology that informs the user of driving information along with.

내비게이션 장치는 GPS(Global Positioning System)로부터 수신한 GPS 신호를 이용하여 차량 등과 같은 이동체의 현재 위치를 지도상에 표시하여 준다. 이러한 내비게이션 장치는 현재 선박, 항공기, 차량 등과 같은 각종의 이동체들에 탑재되어 이동체의 현재 위치와 이동 속도를 확인하거나 이동 경로를 결정하기 위해 널리 이용되고 있다.The navigation device displays the current location of a moving object such as a vehicle on a map by using a GPS signal received from a Global Positioning System (GPS). These navigation devices are currently mounted on various moving objects such as ships, aircraft, vehicles, and the like, and are widely used to check the current position and moving speed of the moving object or to determine a moving path.

일반적으로 차량에 사용되는 내비게이션 장치는, 사용자가 목적지를 입력하면, 지도 정보를 이용하여 목적지까지의 주행 경로를 탐색하고, 사용자가 선택한 주행 경로로 차량을 안내한다. 또한, 내비게이션 장치는 목적지까지의 주행 경로, 주행 경로 주변에 위치한 지형지물 및 도로 혼잡도 등과 같은 다양한 정보를 시각적 또는 청각적으로 제공함으로써 사용자가 목적지까지 도착할 수 있는 안내 가이드를 제공한다.In general, a navigation device used in a vehicle searches for a driving route to a destination using map information when a user inputs a destination, and guides the vehicle to a driving route selected by the user. In addition, the navigation device provides a guide guide through which the user can arrive to the destination by visually or aurally providing various information such as a driving route to a destination, a terrain feature located around a driving route, and a road congestion degree.

한편, 내비게이션 장치가 제공하는 안내 가이드를 이용하면, 종종 가야 할 길을 정확히 찾을 수 없거나, 헤매는 경우가 있다. 특히, 복잡한 골목길에서는 제공하는 안내 가이드만으로는 이번 골목, 아니면 다음 골목에서 회전을 해야 하는지 정확히 판단하기 어려울 수 있다. 이에 운전자는 잠시 차량을 정차하여 내비게이션 장치가 제공하는 지도와 실제 위치를 비교하거나, 목적지에 있는 지인과 통화 연결을 통해 목적지까지의 경로에 대해 설명을 듣곤 하는데, 이러한 경우 목적지까지 시간 내에 도착을 할 수 없거나, 교통 체증을 일으키는 등 여러 문제가 많이 발생한다.On the other hand, if a guide guide provided by a navigation device is used, it is often impossible to find an exact route to go or get lost. In particular, in complex alleys, it may be difficult to accurately determine whether you need to make a turn in this alley or the next alley only with the provided guide. Accordingly, the driver stops the vehicle for a while and compares the actual location with the map provided by the navigation device, or receives an explanation of the route to the destination through a call connection with an acquaintance at the destination. There are a lot of problems, such as not being able to or causing traffic jams.

일 실시예에 따른 내비게이션 장치 및 이를 포함하는 내비게이션 시스템은, 차량의 주행 정보 및 차량의 전방 영상을 외부 사용자에게 공유해줌으로써, 목적지에 대한 경로를 잘 알고 있는 외부 사용자로부터 주행 경로를 보다 정확하게 안내를 받음으로써, 내비게이션 장치의 신뢰성을 향상시키는데 그 목적이 존재한다.A navigation device according to an embodiment and a navigation system including the same share driving information of a vehicle and a front image of the vehicle to an external user, thereby receiving more accurate guidance of a driving route from an external user who knows the route to a destination. As a result, the purpose is to improve the reliability of the navigation device.

일 실시예에 따른 내비게이션 장치는 외부 서버로부터 차량의 주행 정보를 수신하고, 상기 차량에 설치되어 있는 적어도 하나의 카메라를 통해 촬영한 상기 차량의 주행 영상을 외부 단말기로 송신하는 통신부, 상기 주행 정보를 기초로 목적지까지 상기 차량을 안내하는 주행 경로 정보 및 상기 주행 영상을 표시하는 디스플레이부 및 상기 외부 단말기로 송신한 상기 주행 영상에 대해 상기 외부 단말기가 송신한 주행 보조 정보를 상기 통신부를 통해 수신하고, 상기 주행 보조 정보를 상기 주행 영상과 함께 상기 디스플레이부에 표시하는 제어부를 포함할 수 있다.According to an embodiment, the navigation device receives driving information of a vehicle from an external server and transmits a driving image of the vehicle captured through at least one camera installed in the vehicle to an external terminal, and transmits the driving information. Based on the driving route information for guiding the vehicle to a destination, a display unit for displaying the driving image, and driving assistance information transmitted by the external terminal for the driving image transmitted to the external terminal through the communication unit, And a controller that displays the driving assistance information together with the driving image on the display unit.

상기 보조 정보는, 상기 외부 단말에 표시되는 상기 주행 영상에 대해 상기 외부 단말기의 사용자가 입력한 표시 정보를 포함할 수 있다.The auxiliary information may include display information input by a user of the external terminal for the driving image displayed on the external terminal.

상기 제어부는, 상기 표시 정보를 상기 디스플레이부에 표시되는 상기 주행 영상 위에 오버랩(overlap)하는 방법으로 상기 디스플레이부에 표시할 수 있다.The control unit may display the display information on the display unit by overlapping the driving image displayed on the display unit.

상기 제어부는, 상기 표시 정보를 화살표 또는 문자로 변형하여 상기 디스플레이부에 표시할 수 있다.The control unit may transform the display information into arrows or characters and display them on the display unit.

상기 제어부는, 상기 주행 보조 정보가 음성 정보인 경우, 상기 음성 정보를 스피커를 통해 출력할 수 있다.When the driving assistance information is audio information, the control unit may output the audio information through a speaker.

상기 통신부는, 상기 주행 경로 정보를 상기 외부 단말기로 송신하고, 상기 제어부는 상기 외부 단말기에 표시되는 상기 주행 경로 정보에 대해 상기 외부 단말기의 사용자로부터 입력 받은 표시 정보를 상기 디스플레이부에 표시되는 상기 주행 경로 정보와 함께 표시할 수 있다.The communication unit transmits the driving route information to the external terminal, and the control unit displays the display information input from the user of the external terminal for the driving route information displayed on the external terminal. Can be displayed with route information.

상기 통신부는, 상기 차량의 운전자가 상기 디스플레이부에 표시되는 상기 주행 영상에 대해 입력한 입력 정보를 상기 외부 단말기로 송신할 수 있다.The communication unit may transmit input information input by a driver of the vehicle to the driving image displayed on the display unit to the external terminal.

상기 제어부는, 상기 외부 단말기와 상기 통신부가 연결이 된 경우, 상기 통신부가 상기 외부 단말기로 송신하는 상기 차량의 주행 영상을 상기 디스플레이부에 동시에 표시할 수 있다.When the external terminal and the communication unit are connected, the control unit may simultaneously display a driving image of the vehicle transmitted to the external terminal by the communication unit on the display unit.

일 실시예에 따른 내비게이션 시스템은 차량의 전방 및 측면 중 적어도 하나에 배치되어 상기 차량의 주행 영상을 취득하는 카메라, 외부 서버로부터 차량의 주행 정보를 수신하고, 상기 차량에 설치되어 있는 적어도 하나의 카메라를 통해 촬영한 상기 차량의 주행 영상을 외부 단말기로 송신하는 통신부, 상기 주행 정보를 기초로 목적지까지 상기 차량을 안내하는 주행 경로 정보 및 상기 주행 영상을 표시하는 디스플레이부 및 상기 외부 단말기로 송신한 상기 주행 영상에 대해 상기 외부 단말기가 송신한 주행 보조 정보를 상기 통신부를 통해 수신하고, 상기 주행 보조 정보를 상기 주행 영상과 함께 상기 디스플레이부에 표시하는 제어부를 포함할 수 있다.A navigation system according to an embodiment includes a camera disposed on at least one of a front and a side of a vehicle to acquire a driving image of the vehicle, receiving driving information of the vehicle from an external server, and at least one camera installed on the vehicle. A communication unit that transmits the driving image of the vehicle captured through to an external terminal, driving route information for guiding the vehicle to a destination based on the driving information, and a display unit that displays the driving image, and the transmission to the external terminal. And a controller configured to receive driving assistance information transmitted by the external terminal for a driving image through the communication unit, and to display the driving assistance information together with the driving image on the display unit.

상기 주행 보조 정보는, 상기 외부 단말에 표시되는 상기 주행 영상에 대해 상기 외부 단말기의 사용자가 입력한 표시 정보를 포함하고 상기 제어부는, 상기 표시 정보를 상기 디스플레이부에 표시되는 상기 주행 영상 위에 오버랩(overlap)하는 방법으로 상기 디스플레이부에 표시할 수 있다.The driving assistance information includes display information input by a user of the external terminal for the driving image displayed on the external terminal, and the control unit overlaps the display information on the driving image displayed on the display unit ( Overlap) can be displayed on the display unit in a way.

또한, 일 실시예에 따른 내비게이션 장치 및 이를 포함하는 내비게이션 시스템은 내비게이션 장치와 외부 사용자의 단말기가 동일한 주행 영상을 보면서 외부 사용자로부터 주행 경로에 대한 안내 가이드를 받을 수 있기 때문에 운전자가 파악하는 현재 위치의 목적지사이까지의 괴리를 감소시키고, 내비게이션 장치의 신뢰성을 향상시킬 수 있는 효과가 존재한다.In addition, in the navigation device and the navigation system including the same according to an embodiment, the navigation device and the terminal of the external user can receive a guide guide for the driving route from the external user while viewing the same driving image. There is an effect of reducing the gap between destinations and improving the reliability of a navigation device.

또한, 일 실시예에 따른 내비게이션 장치 및 이를 포함하는 내비게이션 시스템은, 운전자가 목적지까지의 주행을 함에 있어서, 목적지까지의 경로를 잘 알고 있는 타인의 음성 정보 또는 입력 정보를 같이 안내 받을 수 있어, 보다 안전하게 목적지까지 주행할 수 있는 장점이 존재한다.In addition, the navigation device and the navigation system including the same according to an embodiment can receive voice information or input information of another person who knows the route to the destination well when the driver drives to the destination. There is an advantage of being able to safely drive to the destination.

도 1은 내비게이션 장치와 외부 단말기와의 관계를 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 내비게이션 장치의 일부 구성 요소를 도시한 블럭도이다.
도 3a 및 도 3c는 일 실시예에 따른 카메라가 차량에 장착될 수 있는 위치와 카메라의 구성 요소를 설명하기 위한 도면이다.
도 4a 내지 도 4d는 일 실시예에 따라 내비게이션 장치와 외부 단말기가 통신 연결되는 동작을 설명하기 위한 도면이다.
도 5a 내지 도 5d는 다른 실시예에 따라 주행 영상 정보를 공유하는 동작을 설명하기 위한 도면이다.
도 6a 및 도 6b는 또 다른 실시예에 따라 라이브 스트리밍을 수행하는 동작을 설명하기 위한 도면이다.
도 7a 내지 도 7c는 다른 실시예에 따라 주행 보조 정보를 공유하는 동작을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 내비게이션 장치의 제어 동작을 설명하기 위한 순서도이다.
1 is a diagram illustrating a relationship between a navigation device and an external terminal.
2 is a block diagram showing some components of a navigation device according to an embodiment.
3A and 3C are views for explaining a location at which a camera can be mounted on a vehicle and components of a camera according to an exemplary embodiment.
4A to 4D are diagrams for describing an operation in which a navigation device and an external terminal are connected to each other for communication, according to an exemplary embodiment.
5A to 5D are diagrams for explaining an operation of sharing driving image information according to another exemplary embodiment.
6A and 6B are diagrams for explaining an operation of performing live streaming according to another embodiment.
7A to 7C are diagrams for explaining an operation of sharing driving assistance information according to another exemplary embodiment.
8 is a flowchart illustrating a control operation of a navigation device according to an exemplary embodiment.

이하, 본 발명에 따른 실시 예들은 첨부된 도면들을 참조하여 설명한다. 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 실시 예들을 설명할 것이나, 본 발명의 기술적 사상은 이에 한정되거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있다.Hereinafter, embodiments according to the present invention will be described with reference to the accompanying drawings. In adding reference numerals to elements of each drawing, it should be noted that the same elements are assigned the same numerals as possible even if they are indicated on different drawings. In addition, in describing an embodiment of the present invention, when it is determined that a detailed description of a related known configuration or function interferes with an understanding of an embodiment of the present invention, the detailed description thereof will be omitted. In addition, embodiments of the present invention will be described below, but the technical idea of the present invention is not limited or limited thereto, and may be modified and variously implemented by those skilled in the art.

또한, 본 명세서에서 사용한 용어는 실시 예를 설명하기 위해 사용된 것으로, 개시된 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.In addition, terms used in the present specification are used to describe embodiments, and are not intended to limit and/or limit the disclosed invention. Singular expressions include plural expressions unless the context clearly indicates otherwise.

본 명세서에서, "포함하다", "구비하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는다.In the present specification, terms such as "comprise", "include" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or a combination thereof described in the specification. It does not preclude the possibility of the presence or addition of other features, numbers, steps, actions, components, parts, or combinations thereof beyond that.

또한, 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "간접적으로 연결"되어 있는 경우도 포함하며, 본 명세서에서 사용한 "제 1", "제 2" 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되지는 않는다.In addition, throughout the specification, when a part is said to be "connected" with another part, it is not only "directly connected", but also "indirectly connected" with another element interposed therebetween. Includes, and terms including ordinal numbers such as “first” and “second” used herein may be used to describe various constituent elements, but the constituent elements are not limited by the terms.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art may easily implement the present invention. In the drawings, parts not related to the description are omitted in order to clearly describe the present invention.

도 1은 내비게이션 장치와 외부 단말기와의 관계를 설명하기 위한 도면이다.1 is a diagram illustrating a relationship between a navigation device and an external terminal.

도 1을 참조하면, 내비게이션 장치(1)는 차량(5, 도 3a 참조)의 내부, 스티어링 휠(2)가 가까운 위치에 마련되어 운전자에게 안내 가이드를 제공할 수 있다. 내비게이션 장치(1)는 도 1에서 도시된 바와 같이, 지도 정보를 화면에 표시할 수 있다. 특히, 내비게이션 장치(1)가 표시하는 지도 정보는, 주변지형과 도로 뿐만 아니라, 차량 또는 외부서버로부터 수신하는 차량의 주행 정보를 함께 표시할 수 있다. 예를 들어, 내비게이션 장치는 차량(5)의 주행 속도(46km/h)를 표시할 수 있다. 또한, 내비게이션 장치(1)는 목적지까지의 주행 경로를 안내할 수 있으며, 지도 정보와 결합하여 회전 지점까지의 거리(550m) 또는 TBT(Turn By Turn, 유턴 정보)등을 표시할 수 있다.Referring to FIG. 1, the navigation device 1 may provide a guide guide to a driver by providing a steering wheel 2 inside a vehicle 5 (refer to FIG. 3A) and a nearby position. As illustrated in FIG. 1, the navigation device 1 may display map information on a screen. In particular, the map information displayed by the navigation device 1 may display not only the surrounding terrain and roads, but also driving information of a vehicle or a vehicle received from an external server. For example, the navigation device may display the driving speed (46 km/h) of the vehicle 5. In addition, the navigation device 1 may guide a driving route to a destination, and may display the distance to the turn point (550m) or TBT (Turn By Turn, U-turn information) in combination with map information.

한편, 내비게이션 장치(1)는 외부 단말기(10)와 통신을 수행할 수 있다. 외부 단말기(10)는 네트워크를 통해 내비게이션 장치(1)에 접속할 수 있는 컴퓨터나 휴대용 단말기로 구현될 수 있다. 여기서, 컴퓨터는 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 태블릿 PC, 슬레이트 PC 등을 포함하고, 휴대용 단말기는 예를 들어, 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), WiBro(Wireless Broadband Internet) 단말, 스마트 폰(Smart Phone) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등과 같은 웨어러블 장치 등을 포함할 수 있다.Meanwhile, the navigation device 1 may communicate with the external terminal 10. The external terminal 10 may be implemented as a computer or a portable terminal capable of accessing the navigation device 1 through a network. Here, the computer includes, for example, a notebook equipped with a web browser, a desktop, a laptop, a tablet PC, a slate PC, and the like, and the portable terminal has, for example, portability and mobility. As a guaranteed wireless communication device, PCS (Personal Communication System), GSM (Global System for Mobile communications), PDC (Personal Digital Cellular), PHS (Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication) -2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), WiBro (Wireless Broadband Internet) terminal, Smart Phone, etc. And a wearable device such as a watch, a ring, a bracelet, an anklet, a necklace, glasses, contact lenses, or a head-mounted-device (HMD).

도 2는 일 실시예에 따른 내비게이션 장치의 일부 구성 요소를 도시한 블럭도이며, 도 3a 및 도 3c는 일 실시예에 따른 카메라가 차량에 장착될 수 있는 위치와 카메라의 구성 요소를 설명하기 위한 도면이다.FIG. 2 is a block diagram showing some components of a navigation device according to an exemplary embodiment, and FIGS. 3A and 3C are diagrams for explaining locations where a camera can be mounted on a vehicle and components of the camera according to an exemplary embodiment. It is a drawing.

도 2를 참조하면, 내비게이션 장치(1)는 사용자의 음성을 인식하는 센서부(20), 외부 단말기(10) 및 외부 서버(미도시)와 다양한 정보를 송신하고 수신할 수 있는 통신부(30), 입력된 목적지까지 차량을 안내하는 주행 경로에 대한 정보, 카메라(40)가 촬영한 차량의 주행 영상 및 외부 단말기(10)로부터 수신한 정보 및 그 밖에 다양한 사용자 인터페이스를 외부로 출력하는 디스플레이부(50), 주행 경로에 필요한 안내 가이드 및 외부 단말기(10)로부터 수신한 사용자의 음성 정보를 소리로 출력하는 스피커(60), 안내 가이드 및 지도 정보를 미리 저장하고, 차량(5) 및 외부 단말기(10)로부터 수신한 다양한 정보를 저장하는 저장부(70) 및 전술한 구성들을 총괄적으로 제어하는 제어부(80)를 포함할 수 있으며, 내비게이션 시스템(100)은 내비게이션 장치(1) 및 차량의 다양한 위치에 설치되어 차량(5)의 전방, 측면 및 후방에 대한 영상을 촬영하는 카메라(40)를 포함할 수 있다.Referring to FIG. 2, the navigation device 1 includes a sensor unit 20 that recognizes a user's voice, an external terminal 10, and an external server (not shown), and a communication unit 30 capable of transmitting and receiving various information. , Information on the driving route guiding the vehicle to the input destination, the driving image of the vehicle photographed by the camera 40, information received from the external terminal 10, and a display unit that outputs various user interfaces to the outside ( 50), a guide guide required for the driving route, a speaker 60 that outputs the user's voice information received from the external terminal 10 as sound, the guide guide and map information are stored in advance, and the vehicle 5 and the external terminal ( 10) may include a storage unit 70 for storing various information received from and a control unit 80 for collectively controlling the above-described configurations, and the navigation system 100 includes the navigation device 1 and various locations of the vehicle. It may include a camera 40 that is installed on the front, side and rear of the vehicle 5 to capture an image.

구체적으로 센서부(20)는 사용자의 음성을 인식하는 수집기를 포함할 수 있다. 센서부(20)는 진동을 통해서 사용자의 음성을 수신하고 이를 증폭시킨 뒤, 전기적 신호로 변환시키는 다양한 장치를 포함할 수 있다. 센서부(20)는 사용자의 음성을 전기적 신호로 변환시키고 제어부(80)로 전송한다. 제어부(80)는 사용자의 음성을 음성 인식 알고리즘을 통해 인식할 수 있다.Specifically, the sensor unit 20 may include a collector that recognizes a user's voice. The sensor unit 20 may include various devices that receive a user's voice through vibration, amplify the voice, and convert it into an electrical signal. The sensor unit 20 converts the user's voice into an electrical signal and transmits it to the control unit 80. The controller 80 may recognize the user's voice through a voice recognition algorithm.

통신부(30)는 외부 단말기(10) 또는 외부 서버와 다양한 정보를 수신하고 송신할 수 있다. 구체적으로 통신부(30)는 외부 서버로부터 차량의 주행과 관련된 각종 정보를 수신하거나, 차량(5)에 설치되어 있는 적어도 하나의 카메라(40)를 통해 촬영한 차량의 주행 영상을 외부 단말기(10), 디스플레이부(50) 및 제어부(80)로 송신할 수 있다.The communication unit 30 may receive and transmit various types of information with the external terminal 10 or an external server. Specifically, the communication unit 30 receives various information related to the driving of the vehicle from an external server, or transmits a driving image of the vehicle captured through at least one camera 40 installed in the vehicle 5 to the external terminal 10. , May be transmitted to the display unit 50 and the control unit 80.

외부 서버로부터 수신하는 주행 정보는 일반적으로 목적지까지의 주행 정보, 현재 교통 상황에 대한 정보, 지도 정보 및 현재 차량이 주행하고 있는 도로에 대한 각종 정보를 포함할 수 있으며, 이러한 정보는 운전자가 편리하게 인지할 수 있도록 가공이 되어 주행 정보로 디스플레이부(50)에 표시된다.Driving information received from an external server may generally include driving information to a destination, information on current traffic conditions, map information, and various information on the road on which the vehicle is currently running. It is processed to be recognized and displayed on the display unit 50 as driving information.

카메라(40)은, 차량의 내부/외부 또는 양측면에 설치되는 하우징 모듈로서, 예를 들어, 도 3에 도시한 바와 같이 차량의 전방 영상을 촬영할 수 있도록 차량의 앞 범퍼 중앙(45), 앞 범퍼의 양 끝에 설치되어 있는 헤드 램프(46a, 46b) , 사이드 미러(47a, 47b) 및 차량 내부에 설치되어 있는 리어 미러(48)중 적어도 하나에 장착되어, 차량(5)의 전방 및 측면의 영상을 취득할 수 있다.The camera 40 is a housing module installed on the inside/outside or both sides of the vehicle, for example, as shown in FIG. 3, so that the front bumper center 45 and the front bumper of the vehicle can be photographed. It is mounted on at least one of the headlamps 46a and 46b installed at both ends of the vehicle, the side mirrors 47a and 47b, and the rear mirror 48 installed inside the vehicle. Can be obtained.

카메라(40)에서 촬영되는 전방 영상은 저장체에 저장되는데, 저장체는 하드디스크 드라이브(Hard Disk Drive), SSD 드라이브(Solid State Drive), 플래시메모리(Flash Memory), CF카드(Compact Flash Card), SD카드(Secure Digital Card), SM카드(Smart Media Card), MMC 카드(Multi-Media Card) 또는 메모리 스틱(Memory Stick) 등 정보의 입출력이 가능한 모듈로서 장치의 내부에 구비되어 있을 수도 있고, 별도의 장치에 구비되어 있을 수도 있다.The front image captured by the camera 40 is stored in a storage medium, which includes a hard disk drive, a solid state drive, a flash memory, and a compact flash card. , SD card (Secure Digital Card), SM card (Smart Media Card), MMC card (Multi-Media Card) or memory stick (Memory Stick) as a module that can input and output information, and may be provided inside the device, It may be provided in a separate device.

카메라(40)는, 렌즈 어셈블리, 필터, 광전 변환 모듈, 및 아날로그/디지털 변환 모듈을 포함할 수 있다. 렌즈 어셈블리는 줌 렌즈, 포커스 렌즈 및 보상 렌즈를 포함한다. 포커스 모터(MF)의 제어에 따라 렌즈의 촛점 거리가 이동될 수 있다. 필터는, 광학적 저역통과필터(Optical Low Pass Filter)와. 적외선 차단 필터(Infra-Red cut Filter)를 포함할 수 있다. 광학적 저역통과필터(Optical Low Pass Filter)로서 고주파 성분의 광학적 노이즈를 제거하며, 적외선 차단 필터(Infra-Red cut Filter)는 입사되는 빛의 적외선 성분을 차단한다. 광전 변환 모듈은 CCD(Charge Coupled Device) 또는 CMOS(Complementary Metal-Oxide- Semiconductor) 등의 촬상 소자를 포함하여 이루어질 수 있다. 광전 변환 모듈은 광학계(OPS)로부터의 빛을 전기적 아날로그 신호로 변환시킨다. 아날로그/디지털 변환 모듈은 CDS-ADC(Correlation Double Sampler and Analog-to-Digital Converter) 소자를 포함하여 이루어질 수 있다.The camera 40 may include a lens assembly, a filter, a photoelectric conversion module, and an analog/digital conversion module. The lens assembly includes a zoom lens, a focus lens and a compensation lens. The focal length of the lens may be moved according to the control of the focus motor MF. The filter is an optical low pass filter. It may include an infrared cut filter (Infra-Red cut filter). As an optical low pass filter, it removes optical noise of high frequency components, and an infrared cut filter (infra-red cut filter) blocks infrared components of incident light. The photoelectric conversion module may include an imaging device such as a Charge Coupled Device (CCD) or Complementary Metal-Oxide-Semiconductor (CMOS). The photoelectric conversion module converts light from the optical system (OPS) into an electrical analog signal. The analog/digital conversion module may include a CDS-ADC (Correlation Double Sampler and Analog-to-Digital Converter) device.

카메라(40)가 도 3a에 도시된 바와 같이 차량의 앞 범퍼 중앙(45) 및, 리어 미러(48)에 장착된 경우 차량의 정 가운데를 기준으로 한 차량의 전방 영상을 취득할 수 있으며, 헤드 램프(46a, 46b) 또는 사이드 미러(47a, 47b)에 장착된 경우, 도 3b에 도시된 바와 차량의 좌전방 영상 또는 차량의 우전방 영상에 대한 정보를 취득할 수 있다.When the camera 40 is mounted on the front bumper center 45 and the rear mirror 48 of the vehicle as shown in FIG. 3A, the front image of the vehicle can be acquired based on the center of the vehicle, and the head When mounted on the lamps 46a and 46b or the side mirrors 47a and 47b, it is possible to acquire information on the left front image of the vehicle or the right front image of the vehicle as shown in FIG. 3B.

또한, 카메라(40)는, 도 3 c에 도시한 바와 같이 차량 전방을 향하는 전방 카메라(40a) 이외에도 서로 다른 방향을 향하는 복수개의 카메라가 설치되어 있도록 구현할 수 있다. 예를 들어, 전방을 향하는 전방 카메라(40a), 전방 기준으로 30°방향을 향하는 30°카메라(40b), 전방 기준으로 60°방향을 향하는 60°카메라(40c), 전방 기준으로 90°방향을 향하는 90°카메라(40d), 전방 기준으로 120°방향을 향하는 120°카메라(40e)가 구비될 수 있다.In addition, the camera 40 may be implemented such that a plurality of cameras facing different directions are installed in addition to the front camera 40a facing the front of the vehicle as shown in FIG. 3C. For example, a front camera 40a facing the front, a 30° camera 40b facing a 30° direction relative to the front, a 60° camera 40c facing a 60° direction relative to the front, and a 90° direction facing the front. A 90° camera 40d facing, and a 120° camera 40e facing a 120° direction may be provided.

따라서 전방 카메라(40a)는 전방 방향의 전방 영상을 촬영하며, 30°카메라(40b)는 전방 기준으로 30°방향의 영상인 30°영상을 촬영하며, 60°카메라(40c)는 전방 기준으로 60°방향의 영상인 60°영상을 촬영하며, 90°카메라(40d)는 전방 기준으로 90°방향의 영상인 90°영상을 촬영하며, 120°카메라(40e)는 전방 기준으로 120°방향의 영상인 120°영상을 촬영할 수 있으며, 이렇게 촬영된 영상은 디스플레이부(50)에 표시되거나, 외부 단말기(10)로 송신될 수 있다. 따라서, 사용자는 외부 단말기(10)와 차량 전방에 대한 영상 뿐만 아니라 차량의 측면 영상에 대해서도 공유할 수 있으며, 송신한 영상들을 기초로 외부 단말기(10)로부터 주행 보조 정보를 수신할 수 있다. 이에 대한 자세한 설명은 후술하도록 한다.Therefore, the front camera 40a shoots a front image in the forward direction, the 30° camera 40b shoots a 30° image in the 30° direction from the front reference, and the 60° camera 40c shoots a 60° image in the forward direction. The 90° camera (40d) shoots a 90° image, which is a 90° image from the front, and the 120° camera (40e) shoots a 120° image from the front. A 120° image can be captured, and the captured image can be displayed on the display unit 50 or transmitted to the external terminal 10. Accordingly, the user can share not only an image of the front of the vehicle with the external terminal 10 but also a side image of the vehicle, and receive driving assistance information from the external terminal 10 based on the transmitted images. A detailed description of this will be described later.

카메라(40)에 의한 취득한 다양한 영상은 디스플레이부(50)로 송신되어 차량의 주행 정보에 영상과 함께 표시될 수 있으며, 통신부(30)를 통해 외부 단말기(10)로 송신될 수 있다.Various images acquired by the camera 40 may be transmitted to the display unit 50 to be displayed together with the image in driving information of the vehicle, and may be transmitted to the external terminal 10 through the communication unit 30.

디스플레이부(50)에 표시되는 카메라(40)에 의해 취득한 주행 영상은 일반적으로 차량의 정중앙을 중심을 한 차량 전방에 대한 영상이 일반적일 수 있으나, 차량의 운전자 또는 외부 단말기(10)의 요청에 따라 차량의 좌측면 또는 우측면에 대한 영상 또는 후방에 대한 영상이 표시될 수 있다.The driving image acquired by the camera 40 displayed on the display unit 50 may generally be an image of the front of the vehicle centered on the center of the vehicle, but at the request of the driver of the vehicle or the external terminal 10 Accordingly, an image of the left or right side of the vehicle or an image of the rear may be displayed.

또한, 통신부(30)는 외부 단말기(10)가 송신하는 외부 사용자의 음성 정보 또는 외부 단말기(10)에 표시되는 카메라(40)가 촬영한 주행 영상에 대해 외부 단말기의 사용자로부터 입력 받은 주행 보조 정보 등을 수신하고, 수신한 정보는 제어부(80)로 전송할 수 있다.Further, the communication unit 30 provides driving assistance information input from the user of the external terminal for the voice information of the external user transmitted from the external terminal 10 or the driving image captured by the camera 40 displayed on the external terminal 10. And the like, and the received information may be transmitted to the controller 80.

따라서, 통신부(30)는 차량(5)의 각종 구성요소와 신호를 송수신하고 외부 서버 및 외부 단말기(10)와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있다. 예를 들어 근거리 통신 모듈, 유선 통신 모듈 및 무선 통신 모듈 중 적어도 하나를 포함할 수 있다. Accordingly, the communication unit 30 may include one or more components that transmit and receive signals with various components of the vehicle 5 and enable communication with an external server and an external terminal 10. For example, it may include at least one of a short-range communication module, a wired communication module, and a wireless communication module.

근거리 통신 모듈은 블루투스 모듈, 적외선 통신 모듈, RFID(Radio Frequency Identification) 통신 모듈, WLAN(Wireless Local Access Network) 통신 모듈, NFC 통신 모듈, 직비(Zigbee) 통신 모듈 등 근거리에서 무선 통신망을 이용하여 신호를 송수신하는 다양한 근거리 통신 모듈을 포함할 수 있다.The short-range communication module is a Bluetooth module, an infrared communication module, a radio frequency identification (RFID) communication module, a wireless local access network (WLAN) communication module, an NFC communication module, and a Zigbee communication module. It may include various short-range communication modules that transmit and receive.

유선 통신 모듈은 캔(Controller Area Network; CAN) 통신 모듈 , 지역 통신(Local Area Network; LAN) 모듈, 광역 통신(Wide Area Network; WAN) 모듈 또는 부가가치 통신(Value Added Network; VAN) 모듈 등 다양한 유선 통신 모듈뿐만 아니라, USB(Universal Serial Bus), HDMI(High Definition Multimedia Interface), DVI(Digital Visual Interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 다양한 케이블 통신 모듈을 포함할 수 있다.Wired communication modules include various wired communication modules such as Controller Area Network (CAN) communication module, Local Area Network (LAN) module, Wide Area Network (WAN) module, or Value Added Network (VAN) module. In addition to communication modules, various cable communication such as USB (Universal Serial Bus), HDMI (High Definition Multimedia Interface), DVI (Digital Visual Interface), RS-232 (recommended standard232), power line communication, or POTS (plain old telephone service) May contain modules.

무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution) 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.In addition to the WiFi module and the Wireless broadband module, the wireless communication module includes Global System for Mobile Communication (GSM), Code Division Multiple Access (CDMA), Wideband Code Division Multiple Access (WCDMA), and universal mobile telecommunications system (UMTS). ), TDMA (Time Division Multiple Access), LTE (Long Term Evolution), etc. may include a wireless communication module supporting various wireless communication methods.

디스플레이부(50)는 디스플레이로 구성되어 주행 경로, 차량의 주행 속도, 지도 정보 및 안내 가이드를 시각적으로 구성한 주행 경로 정보를 표시한다. 또한, 디스플레이부(50)에는 지도 정보 및 외부 서버로부터 수신한 주행 정보, 차량에 부착된 카메라(40)가 촬영한 차량 주행 영상, 외부 단말기(10)로부터 수신한 주행 보조 정보 등이 표시될 수 있다.The display unit 50 is configured as a display to display driving route information, a driving speed of a vehicle, map information, and driving route information visually configuring a guide guide. In addition, the display unit 50 may display map information and driving information received from an external server, a vehicle driving image captured by the camera 40 attached to the vehicle, and driving assistance information received from the external terminal 10. have.

디스플레이는 액정 디스플레이(Liquid Crystal Display: LCD) 패널, 발광 다이오드(Light Emitting Diode: LED) 패널 또는 유기 발광 다이오드(Organic Light Emitting Diode: OLED) 패널 등 다양한 디스플레이 패널을 포함할 수 있다. 한편, 디스플레이가 터치 패드(touch pad) 등과 같은 GUI(Graphical User interface), 즉 소프트웨어인 장치를 포함하는 경우, 사용자의 입력을 수신하는 입력부의 역할을 수행할 수도 있다.The display may include various display panels such as a Liquid Crystal Display (LCD) panel, a Light Emitting Diode (LED) panel, or an Organic Light Emitting Diode (OLED) panel. Meanwhile, when the display includes a graphical user interface (GUI) such as a touch pad, that is, a device that is software, it may serve as an input unit for receiving a user's input.

일 실시예에서 터치 패드로 마련된 디스플레이부(50)의 차량의 운전자가 표시하는 터치 입력을 수신하고, 이에 대응하는 화살표 또는 문자를 표시할 수 있다. 디스플레이부(50)는 사용자의 입력 명령을 전기적 신호로 변환하고, 통신부(30)로 전달한다. 또한, 디스플레이부(50)는 외부 단말기(10)의 사용자가 입력하는 터치 입력에 기초하여 화살표 및 문자를 포함한 영상 정보를 통신부(30)로부터 수신하고 수신한 정보가 표시될 수 있다.In an embodiment, a touch input displayed by a driver of a vehicle of the display unit 50 provided as a touch pad may be received, and an arrow or character corresponding thereto may be displayed. The display unit 50 converts a user's input command into an electrical signal and transmits the converted command to the communication unit 30. Also, the display unit 50 may receive image information including arrows and characters from the communication unit 30 based on a touch input input by the user of the external terminal 10 from the communication unit 30 and display the received information.

스피커(60)는 안내 가이드를 소리로 출력하는 구성을 포함할 수 있다.The speaker 60 may include a configuration for outputting a guide guide as sound.

일 실시예에 따른 스피커(60)는 안내 가이드를 출력하는 것 이외에도 다양한 음성 정보를 표시할 수 있다. 예를 들어 센서부(20)가 운전자가 음성을 통해 입력 명령을 수신한 경우, 제어부(80)는 음성 인식 알고리즘을 통해 사용자의 음성 명령을 인식하고, 이에 대응하는 대답을 스피커(60)를 통해 출력할 수 있다. 즉, 스피커(60)는 미리 저장된 대답 음성을 출력할 수 있다.In addition to outputting a guide guide, the speaker 60 according to an embodiment may display various voice information. For example, when the sensor unit 20 receives an input command through the driver's voice, the control unit 80 recognizes the user’s voice command through a voice recognition algorithm, and provides a corresponding answer through the speaker 60. Can be printed. That is, the speaker 60 may output a previously stored answer voice.

다른 실시예로 스피커(60)는 통신부(30)가 수신하는 외부 단말기(10)의 사용자가 입력한 음성 정보를 출력할 수 있다. 즉, 내비게이션 장치(1)는 외부 단말기(10)의 사용자가 외부 단말기(10)를 통해 송신하는 주행 경로에 대한 음성 정보를 출력함으로써, 마치 스트리밍 서비스(streaming service)와 같은 안내 가이드를 제공할 수 있다.In another embodiment, the speaker 60 may output voice information input by a user of the external terminal 10 received by the communication unit 30. That is, the navigation device 1 can provide a guide guide such as a streaming service by outputting voice information on a driving route transmitted by the user of the external terminal 10 through the external terminal 10. have.

저장부(70)는 통신부(30)가 수신한 다양한 정보 및 내비게이션 장치(1)의 동작에 필요한 프로그램을 저장한다. 구체적으로 저장부(70)가 저장하는 정보는 차량(5)이 제공하는 정보 외부 단말기(10)가 송신하는 표시 정보 및 음성 정보를 포함하는 주행 보조 정보를 포함할수 있다. 저장부(70)는 제어부(80)가 사용자의 입력 명령에 기초하여 동작할 때 필요한 정보를 제공한다. 또한, 저장부(70)는 지도 정보를 미리 저장하고, 제어부(80)가 목적지에 도달하기 위한 주행 경로를 탐색하는데 지도 정보를 제공할 수 있다. 지도 정보에는 지형지물에 대한 정보를 포함될 수 있다.The storage unit 70 stores various pieces of information received by the communication unit 30 and programs necessary for the operation of the navigation device 1. Specifically, the information stored by the storage unit 70 may include information provided by the vehicle 5 and driving assistance information including display information and voice information transmitted by the external terminal 10. The storage unit 70 provides necessary information when the control unit 80 operates based on a user's input command. In addition, the storage unit 70 may store map information in advance and provide the map information to the controller 80 to search for a driving route to reach a destination. The map information may include information on a feature.

저장부(70)는 안내 가이드에 필요한 정보를 저장할 수 있다. 예를 들어, 저장부(70)는 "오른쪽으로 회전하세요"라는 안내 가이드를 데이터 형태로 저장한다.제어부(80)는 GPS 신호에 기초하여 차량의 위치가 주행 경로 상의 일정 거리 이내에 접근하면, 안내 가이드를 출력시킴으로써, 운전자에게 안내 가이드를 제공할 수 있다.The storage unit 70 may store information necessary for a guide guide. For example, the storage unit 70 stores a guide guide saying “Turn to the right” in data format. The control unit 80 provides guidance when the location of the vehicle approaches within a certain distance on the driving route based on the GPS signal. By outputting the guide, it is possible to provide a guide guide to the driver.

따라서, 저장부(70)는 캐쉬, ROM(Read Only Memory), PROM(Programmable ROM), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 및 플래쉬 메모리(Flash memory)와 같은 비휘발성 메모리 소자 또는 RAM(Random Access Memory)과 같은 휘발성 메모리 소자 또는 하드디스크 드라이브(HDD, Hard Disk Drive), CD-ROM과 같은 저장 매체 중 적어도 하나로 구현될 수 있으나 이에 한정되지는 않는다. 저장부(70)는 후술하는 제어부(80)와 관련하여 전술한 프로세서와 별개의 칩으로 구현된 메모리일 수 있고, 프로세서와 단일 칩으로 구현될 수도 있다.Accordingly, the storage unit 70 is a nonvolatile memory device such as a cache, read only memory (ROM), programmable ROM (PROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), and flash memory. Alternatively, it may be implemented as at least one of a volatile memory device such as a random access memory (RAM), a hard disk drive (HDD), or a storage medium such as a CD-ROM, but is not limited thereto. The storage unit 70 may be a memory implemented as a separate chip from the processor described above in relation to the controller 80 to be described later, or may be implemented as a processor and a single chip.

제어부(80)는 내비게이션 장치(1)의 전반을 제어한다.The control unit 80 controls the overall navigation device 1.

구체적으로 제어부(80)는 지도 정보 및 차량(5)의 GPS 신호에 기초하여 주행 경로를 따라 운전자를 안내하기 위해서 디스플레이부(50) 및 스피커(60)를 제어하는 내비게이션의 기본적인 동작을 수행한다.Specifically, the controller 80 performs a basic operation of a navigation system for controlling the display unit 50 and the speaker 60 in order to guide the driver along the driving route based on the map information and the GPS signal of the vehicle 5.

제어부(80)는 외부 단말기(10)와 공유된 주행 영상에 대해 외부 단말기(10)가 송신하는 주행 보조 정보를 통신부(30)를 통해 수신하고, 수신한 주행 보조 정보를 카메라(40) 촬영한 주행 영상 또는 주행 경로 정보와 함께 디스플레이부(50)에 표시하거나, 상기 주행 보조 정보가 스피커(60)를 통해 출력될 수 있도록 스피커(60)를 제어할 수 있다.The controller 80 receives the driving assistance information transmitted by the external terminal 10 for the driving image shared with the external terminal 10 through the communication unit 30, and captures the received driving assistance information by the camera 40. The speaker 60 may be controlled to be displayed on the display unit 50 together with the driving image or driving route information, or to output the driving assistance information through the speaker 60.

또한, 제어부(80)는 외부 단말기(10)의 요청에 의해 차량(5)과 외부 단말기(10)가 통신 연결이 된 경우, 통신부(30)가 외부 단말기로 송신하는 차량의 주행 영상이 디스플레이부(50)에도 동시에 표시되도록 제어할 수 있다.In addition, when the vehicle 5 and the external terminal 10 are connected to each other in communication at the request of the external terminal 10, the controller 80 displays a driving image of the vehicle transmitted from the communication unit 30 to the external terminal. It can be controlled so that it is displayed at the same time in (50).

디스플레이부(50)에 외부 단말기(10)로 송신된 차량의 주행 영상이 표시된 경우, 운전자는 외부 단말기(10)의 사용자와 동일한 영상을 보면서 길 안내를 받는 스트리밍 서비스(streaming service)와 같은 안내 가이드를 제공받을 수 있다.When the driving image of the vehicle transmitted to the external terminal 10 is displayed on the display unit 50, a guide guide such as a streaming service in which the driver receives directions while viewing the same image as the user of the external terminal 10 Can be provided.

주행 보조 정보는 통신부(30)를 통해 외부 단말기(10)로 공유된 상기 차량의 주행 영상 및 주행 경로 정보에 대응하여 상기 외부 단말기(10)의 사용자가 입력한 정보를 의미한다. 영상에 대해 상기 외부 단말기의 사용자로부터 입력 받은 주행 보조 정보는 표시 정보 또는 음성 정보를 의미할 수 있다. 표시 정보 및 음성 정보는 특정 방향으로 이동하려는 이동 정보를 의미할 수 있다.The driving assistance information refers to information input by a user of the external terminal 10 in response to the driving image and driving route information of the vehicle shared to the external terminal 10 through the communication unit 30. The driving assistance information received from the user of the external terminal for the image may mean display information or audio information. The display information and the voice information may mean movement information intended to move in a specific direction.

한편, 제어부(80)는 내비게이션 장치(1)의 구성요소의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리(미도시), 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 프로세서(미도시)로 구현될 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.On the other hand, the control unit 80 uses a memory (not shown) that stores data for an algorithm for controlling the operation of the components of the navigation device 1 or a program that reproduces the algorithm, and data stored in the memory. It may be implemented with a processor (not shown) that performs an operation. In this case, the memory and the processor may be implemented as separate chips, respectively. Alternatively, the memory and processor may be implemented as a single chip.

내비게이션 장치(1)는 도 2에서 전술한 구성 이외에도 다른 구성을 더 포함할 수 있으며, 명칭에 구속되지 않고 전술한 동작에 필요한 구성으로 마련될 수 있다.The navigation device 1 may further include other configurations in addition to the configurations described above in FIG. 2, and may be provided with a configuration necessary for the above-described operation without being restricted by the name.

제어부(80)가 외부 단말기(10)와 통신을 통해 다양한 안내 가이드를 제공하는 구체적인 실시예는 이하의 도면을 통해 후술한다.A specific embodiment in which the controller 80 provides various guide guides through communication with the external terminal 10 will be described later with reference to the following drawings.

도 4a 내지 도 4d는 일 실시예에 따라 내비게이션 장치와 외부 단말기가 통신 연결되는 동작을 설명하기 위한 도면이다. 중복되는 설명을 피하기 위해서 이하 함께 설명한다.4A to 4D are diagrams for describing an operation in which a navigation device and an external terminal are connected to each other for communication, according to an exemplary embodiment. It will be described together below to avoid redundant description.

도 4a를 참조하면, 내비게이션 장치(1)가 마련된 차량(5)은 주행 중 외부 단말기(10)과 위치 정보를 공유할 수 있다.Referring to FIG. 4A, a vehicle 5 equipped with a navigation device 1 may share location information with an external terminal 10 while driving.

구체적으로 내비게이션 장치(1)는 주행 중 외부 단말기(10)로부터 위치 정보 요청이 오면 현재 차량의 위치 정보를 외부 단말기(10)로 송신할 수 있다. 내비게이션 장치(1)는 차량(5) 내에 마련된 안테나를 이용하여 무선 통신을 수행할 수도 있고, 통신부(30)를 이용하여 외부 단말기(10)와 통신을 수 행할 수도 있으며, 위치 정보는 현재 차량의 GPS 신호 정보를 포함할 수 있다.Specifically, when a request for location information is received from the external terminal 10 while driving, the navigation device 1 may transmit location information of the current vehicle to the external terminal 10. The navigation device 1 may perform wireless communication using an antenna provided in the vehicle 5, or may perform communication with the external terminal 10 using the communication unit 30, and the location information of the current vehicle It may include GPS signal information.

도 4b를 참조하면, 내비게이션 장치(1)는 디스플레이부(50)에 차량(5)의 주행 경로를 표시하는 제1 표시 영역(41)과 지도 정보를 표시하는 제2 표시 영역(42)을 나누어 표시할 수 있으며, 위치 정보를 공유하는 과정을 알려주는 안내 음성을 문자로 표시하는 제3 표시 영역(43)을 표시할 수 있다. 제1표시 영역(41)과 제2표시 영역(42)에 표시되는 정보를 모두 합친 정보를 주행 정보라 칭할 수 있다.Referring to FIG. 4B, the navigation device 1 divides the display unit 50 into a first display area 41 displaying a driving route of the vehicle 5 and a second display area 42 displaying map information. The third display area 43 may be displayed, and a guide voice indicating a process of sharing location information may be displayed as text. Information in which all of the information displayed in the first and second display areas 41 and 42 may be combined may be referred to as driving information.

내비게이션 장치(1)는 도 4b와 같이, 외부 단말기(10)로부터 위치 공유 요청을 수신할 수도 있다. 이 경우, 내비게이션 장치(1)는 "B님의 위치 공유를 요청했습니다. 연결하시겠습니까?"라는 안내 가이드를 소리로 출력 또는 표시할 수 있다.The navigation device 1 may receive a location sharing request from the external terminal 10 as shown in FIG. 4B. In this case, the navigation device 1 may output or display a guide guide saying "B's location sharing request. Would you like to connect?"

도 4c에서 도시된 바와 같이, 외부 단말기(10)의 위치 정보 공유 요청이 오면, 이를 승인하는 사용자 입력을 음성으로 입력할 수 있다. 내비게이션 장치(1)는 사용자의 승인에 대한 음성 입력을 센서부(20)를 통해 수신할 수 있다. 예를 들어, 운전자는 "연결해"를 입력하고, 내비게이션 장치(1)는 음성 인식 알고리즘을 통해 위치 정보의 공유를 승인하는 것으로 판단할 수 있다. 또한, 내비게이션 장치(1)는 '연결해'라는 문자를 디스플레이부(50)를 통해 표시함으로써, 내비게이션 장치(1)가 사용자의 음성 입력을 인식한 결과를 제3 표시 영역(43)에 표시할 수도 있다.As illustrated in FIG. 4C, when a request for sharing location information of the external terminal 10 comes, a user input for approving the request may be input by voice. The navigation device 1 may receive a voice input for user's approval through the sensor unit 20. For example, the driver may input "Connect" and the navigation device 1 may determine that sharing of location information is approved through a voice recognition algorithm. In addition, the navigation device 1 may display the character'connected' through the display unit 50, so that the result of the navigation device 1 recognizing the user's voice input may be displayed on the third display area 43. have.

도 4d를 참조하면, 내비게이션 장치(1)는 사용자의 승인에 기초하여 외부 단말기(10)와 위치 정보를 서로 공유할 수 있다. 위치 정보를 송신하면, 내비게이션 장치(1)는 "연결되었습니다"라는 문자를 제3 표시 영역(43)에 표시하고, 제2 표시 영역(42)에 단말기(10)의 사용자, 즉 B의 사진이나 아이콘(44)을 지도 정보 상에 함께 표시할 수 있다. 이를 통해서 운전자는 내비게이션 장치(1)가 외부 단말기(10)와 위치 정보를 공유하고 있음을 파악할 수 있다.Referring to FIG. 4D, the navigation device 1 may share location information with the external terminal 10 based on the user's approval. When the location information is transmitted, the navigation device 1 displays the text "Connected" on the third display area 43, and the user of the terminal 10, that is, the picture of B, or the second display area 42 The icon 44 can be displayed together on the map information. Through this, the driver can grasp that the navigation device 1 is sharing location information with the external terminal 10.

한편, 도 4b 내지 도 4d에서 제1 내지 제3 표시 영역(41 내지 43)의 화면은 일 예에 불과하고, 다양한 변형례를 포함할 수 있다.Meanwhile, the screens of the first to third display areas 41 to 43 in FIGS. 4B to 4D are only examples, and may include various modifications.

도 5a 내지 도 5d는 다른 실시예에 따라 주행 영상 정보를 공유하는 동작을 설명하기 위한 도면이다. 중복되는 설명을 피하기 위해서 이하 함께 설명한다.5A to 5D are diagrams for explaining an operation of sharing driving image information according to another exemplary embodiment. It will be described together below to avoid redundant description.

도 5a를 먼저 참조하면, 내비게이션 장치(1)는 외부 단말기(10)와 다양한 영상 정보를 공유할 수 있다. 구체적으로 차량에 설치되어 있는 적어도 하나의 카메라(400를 통해 촬영한 차량의 다양한 방향에 대한 주행 영상을 공유할 수 있고, 디스플레이부(50)에 표시되는 차량의 주행 경로 정보에 대한 영상 또한 공유할 수 있다.Referring first to FIG. 5A, the navigation device 1 may share various image information with the external terminal 10. Specifically, driving images for various directions of the vehicle captured through at least one camera 400 installed on the vehicle can be shared, and images on the driving route information of the vehicle displayed on the display unit 50 can also be shared. I can.

구체적으로, 내비게이션 장치(1)는 외부 단말기(10)로 카메라 연결을 요청하는 신호를 송신할 수 있고, 외부 단말기(10)가 이에 동의하면 앞서 설명한 주행 영상 및 주행 경로 정보에 대한 영상을 외부 단말기(10)로 송신할 수 있다.Specifically, the navigation device 1 may transmit a signal requesting connection to the camera to the external terminal 10, and if the external terminal 10 agrees to this, the driving image and the image of the driving route information described above are transmitted to the external terminal. You can send it to (10).

도 5b를 참조하면, 내비게이션 장치(1)는 운전자 또는 차량(5) 내부의 탑승자로부터 외부 단말기(10)와 영상 정보의 공유를 요청하는 입력 명령을 수신할 수 있다. 일 예로 내비게이션 장치(1)는 운전자의 음성 명령을 센서부(20)로부터 수신할 수 있다. 만약 운전자가 "카메라 연결해줘"라는 음성 명령을 입력하면, 내비게이션 장치(1)는 이를 영상 정보의 공유 요청으로 판단할 수 있다.Referring to FIG. 5B, the navigation device 1 may receive an input command requesting sharing of image information with the external terminal 10 from a driver or a passenger inside the vehicle 5. For example, the navigation device 1 may receive a driver's voice command from the sensor unit 20. If the driver inputs a voice command “connect to the camera”, the navigation device 1 may determine this as a request to share image information.

내비게이션 장치(1)는 운전자가 입력한 음성을 인식할 결과, 즉 "카메라 연결해줘"를 문자로 제3 표시 영역(43)에 표시할 수 있다. 그 후 내비게이션 장치(1)는 다양한 영상 정보를 외부 단말기(10)에 송신할 수 있다.The navigation device 1 may display a result of recognizing the voice input by the driver, that is, "connect the camera" as text on the third display area 43. After that, the navigation device 1 may transmit various image information to the external terminal 10.

도 5c는 외부 단말기(10)가 내비게이션 장치(1)의 요청 신호에 따라 영상 통화를 연결하는 사용자 인터페이스를 도시한 것이다. 일 예로 외부 단말기(10)는 내비게이션 장치(1)의 요청 신호를 영상 통화 연결로 인식할 수 있으며, 영상 통화 연결과 같은 사용자 인터페이스(10a)를 통해 사용자에게 연결 승인 여부를 질문할 수 있다.5C illustrates a user interface through which an external terminal 10 connects a video call according to a request signal from the navigation device 1. For example, the external terminal 10 may recognize the request signal of the navigation device 1 as a video call connection, and may ask a user whether to approve the connection through a user interface 10a such as a video call connection.

만약 외부 사용자가 연결에 동의하면, 외부 단말기(10)에는 내비게이션 장치(1)가 송신한 차량의 주행 영상 또는 주행 정보에 대한 영상이 외부 단말기(10)의 디스플레이에 표시될 수 있다.If the external user agrees to the connection, the external terminal 10 may display a driving image of a vehicle or an image of driving information transmitted by the navigation device 1 on the display of the external terminal 10.

내비게이션 장치(1)가 외부 단말기(10)로 카메라(40)가 촬영한 주행 영상을 송신하면, 도 5d에 도시된 바와 같이 내비게이션 장치(1)의 제1표시 영역(41)에는 차량의 주행 경로가 표시되며, 제2표시 영역(42)에는 지도 정보가 표시되고, 제4표시 영역(45)에는 외부 단말기(10)로 송신한 주행 영상이 동시에 표시될 수 있다. 또한, 내비게이션 장치(1)는 제3 표시 영역(43)에 영상 정보의 수신을 운전자에게 알려줄 수 있는 문자 또는 소리, 즉 "연결하였습니다."를 제3 표시 영역(43)에 출력할 수 있다. 외부 단말기(10)로 송신한 주행 영상이 동시에 표시되는 경우, 운전자와 외부 단말기(10)의 사용자는 동일한 영상을 보고 있기 때문에, 운전자는 외부 단말기(10)의 사용자로부터 목적지까지의 이동 경로에 대한 정보를 보다 쉽게 제공 받을 수 있다.When the navigation device 1 transmits the driving image photographed by the camera 40 to the external terminal 10, the first display area 41 of the navigation device 1 shows the driving path of the vehicle as shown in FIG. 5D. Is displayed, map information is displayed in the second display area 42, and a driving image transmitted to the external terminal 10 may be simultaneously displayed in the fourth display area 45. In addition, the navigation device 1 may output a character or sound, that is, "connected", which can inform the driver of the reception of image information on the third display area 43 on the third display area 43. When the driving image transmitted to the external terminal 10 is displayed at the same time, the driver and the user of the external terminal 10 are viewing the same image. Information can be provided more easily.

한편, 도 5b 내지 도 5d에서 언급한 제1 내지 제4표시 영역(41 내지 44)의 화면과 외부 단말기(10)의 사용자 인터페이스는 일 예에 불과하고, 다양한 변형례를 포함할 수 있다.Meanwhile, the screens of the first to fourth display areas 41 to 44 mentioned in FIGS. 5B to 5D and the user interface of the external terminal 10 are only examples, and may include various modifications.

도 6a 및 도 6b는 또 다른 실시예에 따라 라이브 스트리밍을 수행하는 동작을 설명하기 위한 도면이다. 중복되는 설명을 피하기 위해서 이하 함께 설명한다.6A and 6B are diagrams for explaining an operation of performing live streaming according to another embodiment. It will be described together below to avoid redundant description.

도 6a를 참조하면, 도 5a와 달리, 내비게이션 장치(1)는 외부 단말기(10)와 실시간으로 정보를 주고 받는 라이브 스트리밍을 수행할 수 있다. 구체적으로 내비게이션 장치(1)가 외부 단말기(10)로 스트리밍 연결을 요청하고, 외부 단말기(10)가 이를 승인할 수 있으며, 반대로 외부 단말기(10) 이를 요청하고 내비게이션 장치(1) 가 이를 승인할 수 도 있다. 이 경우, 내비게이션 장치(1)와 단말기(10)는 영상 정보와 음성 정보를 양 방향으로 주고 받을 수 있다.Referring to FIG. 6A, unlike FIG. 5A, the navigation device 1 can perform live streaming that exchanges information with the external terminal 10 in real time. Specifically, the navigation device 1 requests a streaming connection to the external terminal 10, and the external terminal 10 can approve it. Conversely, the external terminal 10 requests it and the navigation device 1 approves it. You can also. In this case, the navigation device 1 and the terminal 10 may exchange image information and audio information in both directions.

도 6b는 스트리밍을 통해 내비게이션 장치(1)와 단말기(10)가 영상 정보 및 음성 정보를 주고 받는 실시예를 도시한 것이다. 구체적으로 내비게이션 장치(1)는 단말기(10)와 연결이 구축되면, "라이브 스트리밍 서비스 중입니다"라는 문자 및 음성을 제3 표시 영역(43)에 출력할 수 있다.6B shows an embodiment in which the navigation device 1 and the terminal 10 exchange video information and audio information through streaming. Specifically, when a connection with the terminal 10 is established, the navigation device 1 may output a text and a voice saying "Live streaming service is in progress" on the third display area 43.

내비게이션 장치(1)는 외부 단말기(10)로 송신되고 있는 카메라(40)가 촬영한 차량의 주행 영상이 제4표시 영역(45)에 동시에 표시될 수 있다. 차량(5)이 움직이면서 변경되는 영상 정보 또한 실시간으로 변경하면서 함께 표시할 수 있다. 이러한 경우 현재 차량의 운전자가 보고 있는 영상과 외부 단말기(10)가 사용자가 보고 있는 영상이 동일하므로, 지리를 잘 알고 있는 외부 사용자로부터 주행 방향에 대한 정보를 용이하게 취득할 수 있는 장점이 존재한다.The navigation device 1 may simultaneously display a driving image of a vehicle captured by the camera 40 transmitted to the external terminal 10 on the fourth display area 45. Image information that changes as the vehicle 5 moves can also be displayed while changing in real time. In this case, since the image currently viewed by the driver of the vehicle and the image viewed by the external terminal 10 by the user are the same, there is an advantage in that information on the driving direction can be easily obtained from an external user who is well aware of the geography. .

또한, 내비게이션 장치(1)와 단말기(10)는 서로 음성 정보를 송수신하면서, 수신한 음성 정보를 출력할 수 있다. 예를 들어, 운전자(A)가 "어디로 가야해"라는 음성 정보를 외부 단말기(10)로 전송할 수 있다. 외부 단말기(10)의 사용자(B)가 "왼쪽 건물 보이지" 거기서 좌회전해"라는 음성을 전송하고, 내비게이션 장치(1)는 수신한 음성 정보를 스피커(60)를 통해 출력할 수 있다. 내비게이션 장치(1)는 운전자(A)의 "알겠어"라는 음성을 수신하고, 외부 단말기(10)로 전송한다.In addition, the navigation device 1 and the terminal 10 may transmit and receive voice information to each other and output received voice information. For example, the driver A may transmit voice information “Where should I go” to the external terminal 10. The user B of the external terminal 10 transmits a voice saying "I can see the building on the left" and turn left there", and the navigation device 1 can output the received voice information through the speaker 60. Navigation device (1) receives the voice "Okay" from the driver A, and transmits it to the external terminal 10.

이를 통해서 운전자와 사용자는 실시간으로 동일한 화면을 보면서, 내비게이션 장치(1)가 마치 사용자가 운전자의 옆에서 길을 알려주는 것처럼 대화로 안내 가이드를 제공받을 수 있기 때문에, 차량의 운전자는 보다 정확히 목적지까지 주행을 할 수 있는 효과가 존재한다.Through this, the driver and the user can see the same screen in real time, and the navigation device 1 can receive a guide guide through dialogue as if the user is telling the way from the driver's side, so the driver of the vehicle can more accurately reach the destination. There is an effect that allows you to drive.

도 7a 및 도 7b는 다른 실시예에 따라 TBT정보를 공유하는 동작을 설명하기 위한 도면이다. 중복되는 설명을 피하기 위해서 이하 함께 설명한다.7A and 7B are diagrams for explaining an operation of sharing TBT information according to another embodiment. It will be described together below to avoid redundant description.

도 6a 및 도 6b와 같이,도 7에서 내비게이션 장치(1)와 외부 단말기(10)는 라이브 스트리밍을 진행하고 있다. 이 때, 외부 단말기(10)의 사용자는 차량의 운전자에게 주행 방향에 대한 정보인 주행 보조 정보를 송신할 수 있는데, 일 예로, 외부 단말기(10)의 사용자는 외부 단말기(10)에 좌회전을 의미하는 정보를 사용자의 터치를 이용하여 입력할 수 있다. 이러한 경우 외부 단말기(10)는 사용자가 터치로 입력한 정보를 표시 정보로 인식하고, 상기 표시 정보를 내비게이션 장치(1)로 송신하다. 표시 정보를 수신한 내비게이션 장치(1)는 도 7a에 도시된 바와 같이 표시 정보를 좌회전을 의미하는 기호인 좌회전 화살표로 변형한 제1표시 정보(11)를 생성하고, 생성한 제1표시 정보를 디스플레이부(50)에 표시할 수 있다.6A and 6B, in FIG. 7, the navigation device 1 and the external terminal 10 are performing live streaming. At this time, the user of the external terminal 10 may transmit driving assistance information, which is information on the driving direction, to the driver of the vehicle. For example, the user of the external terminal 10 means a left turn to the external terminal 10. You can input the information by using the user's touch. In this case, the external terminal 10 recognizes the information input by the user by touch as display information, and transmits the display information to the navigation device 1. The navigation device 1 receiving the display information generates first display information 11 in which the display information is transformed into a left turn arrow, which is a symbol representing left turn, as shown in FIG. 7A, and generates the first display information. It can be displayed on the display unit 50.

도 7a에서는 제1표시 정보를 화살표로 변형한 것을 예를 들었으나, 본 발명의 실시예가 이에 한정되는 것은 아니고 다른 기호나 문자 등으로 변형될 수 있으며, 사용자가 터치로 입력한 표시 정보가 그대로 디스플레이부(50)에 표시될 수 도 있다.7A illustrates that the first display information is transformed into an arrow, but the embodiment of the present invention is not limited thereto, and may be transformed into other symbols or characters, and the display information input by the user is displayed as it is. It may also be displayed on the part 50.

도 7b를 참조하면, 내비게이션 장치(1)는 외부 사용자가 외부 단말기(10)에 입력한 주행 보조 정보를 수신하고, 수신한 정보를 디스플레이부에 주행 영상과 함께 표시할 수 있다. 구체적으로 도 7b에 도시된 바와 같이 화살표 정보를 포함하고 있는 주행 보조 정보를 차량의 주행 영상과 함께 제4 표시 영역(45)에 표시할 수 있다. 도 7b에서는 주행 보조 정보를 화살표로 표시하였으나, 주행 보조 정보가 화살표로 한정되는 것은 아니고 주행 상황에 맞춰 문자나 도형으로도 표시될 수 있다.Referring to FIG. 7B, the navigation device 1 may receive driving assistance information input by an external user to the external terminal 10 and display the received information together with a driving image on a display unit. Specifically, as illustrated in FIG. 7B, driving assistance information including arrow information may be displayed on the fourth display area 45 together with a driving image of the vehicle. In FIG. 7B, the driving assistance information is indicated by arrows, but the driving assistance information is not limited to arrows, and may be displayed in letters or figures according to the driving situation.

도 7b에 도시된 바와 같이 제4표시 영역에 차량의 주행 영상에 주행 보조 정보를 오버랩(overlap)하는 방법으로 표시를 하는 경우, 사용자는 보다 정확히 주행 경로를 인식할 수 있기 때문에, 운전자가 외부 사용자로부터 수신 받는 음성 정보와 더불어 디스플레이부(50) 화면에 표시되는 정보를 추가적으로 전달받아 가야할 길에 대한 확신을 얻을 수 있는 장점이 있다.As shown in FIG. 7B, when displaying the driving assistance information in the fourth display area by overlapping the driving image of the vehicle, the user can more accurately recognize the driving route, so that the driver is an external user. In addition to the voice information received from the display unit 50, information displayed on the screen may be additionally transmitted to obtain confidence in the path to be taken.

도 7에서는 외부 단말기(10)로부터 수신 받는 주행 보조 정보를 차량의 주행 영상을 기초로 수신한 정보로 한정하여 설명하였지만, 본 발명의 실시예가 이로 한정되는 것은 아니고, 통신부(30)가 외부 단말기(10)로 현재 차량의 주행 경로 정보를 송신하였다면, 외부 사용자가 주행 경로 정보를 기초로 송신한 주행 보조 정보를 수신하고, 수신한 주행 보조 정보를 디스플레이부(50)에 표시되는 주행 경로 정보 위에 오버랩 하는 방법으로 표시할 수 도 있다.In FIG. 7, the driving assistance information received from the external terminal 10 is limited to information received based on the driving image of the vehicle, but the embodiment of the present invention is not limited thereto, and the communication unit 30 is If the driving route information of the current vehicle is transmitted to 10), the driving assistance information transmitted by the external user based on the driving path information is received, and the received driving assistance information is overlapped on the driving path information displayed on the display unit 50. It can also be displayed in a way that does.

예를 들어, 도7b에서 제2표시 영역(42)에서 표시되고 있는 정보가 외부 단말기(10)로 송신된 경우, 외부 단말기(10)의 사용자는 수신 받은 정보를 기초로 주행 보조 정보를 입력할 수 있고, 내비게이션 장치(1)는 이러한 정보를 수신한 후, 디스플레이부(50)에 표시할 수 있다.For example, if the information displayed in the second display area 42 in FIG. 7B is transmitted to the external terminal 10, the user of the external terminal 10 may input driving assistance information based on the received information. After receiving such information, the navigation device 1 may display the information on the display unit 50.

또한, 도7a 및 도 7b의 실시예에서 내비게이션 장치(1)는 운전자가 입력하는 화살표와 같은 터치 입력을 수신하고, 내비게이션 장치(1)가 표시한 영상 정보에 표시할 수 있으며, 동시에 운전자가 입력하는 화살표 정보를 포함한 영상 정보를 외부 단말기(10)로 송신할 수 있다. 외부 단말기(10)의 사용자는 수신되는 영상 정보를 보고, 운전자가 인식한 방향 정보를 확인할 수 있으며, 차량의 운전자가 잘못 인식한 경우 다시 주행 보조 정보를 내비게이션 장치(1)로 송신할 수 있다.In addition, in the embodiments of FIGS. 7A and 7B, the navigation device 1 can receive a touch input such as an arrow input by the driver, and display it on the image information displayed by the navigation device 1, and at the same time, the driver inputs The image information including the arrow information may be transmitted to the external terminal 10. The user of the external terminal 10 may view the received image information and check the direction information recognized by the driver. If the driver of the vehicle incorrectly recognizes it, the driving assistance information may be transmitted to the navigation device 1 again.

도 7c는 다른 실시예에 따라 TBT정보를 증강 현실 방법으로 디스플레이부에 표시한 모습이다.7C is a view showing TBT information displayed on a display unit in an augmented reality method according to another embodiment.

도 7c를 참조하면, 내비게이션 장치(1)는 외부 단말기(10)의 사용자가 입력한 표시 정보를 화살표 또는 문자로 변형하여 제1표시 정보(11)를 생성하고, 외부 단말기(10)의 사용자가 입력한 음성 정보를 텍스트 정보로 변환하여 제2표시 정보(12)를 생성하고, 제1표시 정보(11)와 제2표시 정보(12)를 디스플레이부(50)에 표시되는 주행 영상 위에 증강(augment)하여 표시할 수 있다. 일 예로, 외부 단말기(10)의 사용자가 우회전하라는 의미가 담긴 표시 정보를 외부 단말기(10)에 입력하고 동시에 '오른쪽 골목길로 우회전 해'라는 음성 정보를 외부 단말기(10)에 입력한 경우, 내비게이션 장치(1)는 표시 정보를 오른쪽 화살표 모양을 가지는 제1표시 정보(11)로 생성하고, 음성 정보를 인식한 후, 변환하여 '오른쪽으로 우회전 해'(12)라는 텍스트 정보인 제2 표시 정보(12)를 생성하고, 생성한 제1표시 정보(11)와 제2표시 정보(12)를 주행 영상 위에 증강하여 표시할 수 있다.Referring to FIG. 7C, the navigation device 1 generates first display information 11 by transforming display information input by the user of the external terminal 10 into arrows or characters, and the user of the external terminal 10 The second display information 12 is generated by converting the input voice information into text information, and the first display information 11 and the second display information 12 are augmented on the driving image displayed on the display unit 50 ( augment). For example, when the user of the external terminal 10 inputs display information containing the meaning of turning right into the external terminal 10 and at the same time inputs the voice information'Turn right into the right alley' into the external terminal 10, navigation The device 1 generates the display information as first display information 11 having a right arrow shape, recognizes the voice information, converts it, and converts the second display information, which is text information of'turn right to the right' (12). (12) may be generated, and the generated first display information 11 and second display information 12 may be augmented and displayed on the driving image.

증강현실(Augmented Reality, AR)이란 현실의 이미지나 배경에 3차원 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 기술을 의미한다. 증강현실은 또한 혼합현실(Mixed Reality, MR)이라고 부르기도 한다.Augmented Reality (AR) refers to a technology that displays a single image by superimposing a 3D virtual image on a real image or background. Augmented reality is also referred to as mixed reality (MR).

도 7c를 참고하여 설명하면, 디스플레이부(50)에는 현재 차량의 주행 영상이 그대로 표시되며, 내비게이션 장치(1)는 차량의 주행 영상 위에 외부 단말기(10)의 사용자가 입력한 주행 보조 정보를 가상의 이미지인 제1표시 정보(11)와 제2표시 정보(12)로 생성하고, 제1표시 정보(11)와 제2표시 정보(12)를 주행 영상 위에 증강되는 방법으로 디스플레이부(50)에 표시할 수 있다. 본 발명의 실시 예에 따라 제1표시 정보(11)와 제 2표시 정보(12)를 현실 영상인 주행 영상 위에 가상의 이미지로 증강하여 표시한 경우, 사용자는 보다 직관적으로 주행해야 하는 방향에 대해 인지할 수 있는 효과가 존재한다.Referring to FIG. 7C, the current driving image of the vehicle is displayed on the display unit 50 as it is, and the navigation device 1 virtually displays driving assistance information input by the user of the external terminal 10 on the driving image of the vehicle. The display unit 50 is generated as images of the first display information 11 and the second display information 12 and augmented the first display information 11 and the second display information 12 on the driving image. Can be marked on. According to an embodiment of the present invention, when the first display information 11 and the second display information 12 are augmented and displayed as a virtual image on a driving image that is a real image, the user can more intuitively determine the direction in which the driving is to be driven. There is a perceptible effect.

도8은 일 실시예에 따라. 내비게이션 장치(1)의 동작 순서를 도시한 순서도이다.Figure 8 is according to one embodiment. It is a flow chart showing the operation procedure of the navigation device 1.

도 8을 참조하면, 내비게이션 장치(1)는 위치 정보의 공유 요청을 전송한다(S10).Referring to FIG. 8, the navigation device 1 transmits a request for sharing location information (S10).

도 8을 참조하면, 내비게이션 장치(1)는 외부 단말기(10)로 정보 공유 요청을 송신할 수 있다. (S10).Referring to FIG. 8, the navigation device 1 may transmit an information sharing request to the external terminal 10. (S10).

요청 신호를 수신한 외부 단말기(10)가 공유를 승인하면, 내비게이션 장치(1)는 차량의 주행 영상 및 차량의 주행 정보를 포함하고 있는 영상 정보 등을 외부 단말기(10)로 전송할 수 있다. (S20)When the external terminal 10 receiving the request signal approves the sharing, the navigation device 1 may transmit a driving image of the vehicle and image information including the driving information of the vehicle to the external terminal 10. (S20)

그 후, 내비게이션 장치(1)는 외부 단말기(10)로부터 주행 보조 정보를 수신 받을 수 있다. (S30) 주행 보조 정보에 대한 자세한 설명은 전술하였는바 생략하도록 한다.After that, the navigation device 1 may receive driving assistance information from the external terminal 10. (S30) A detailed description of the driving assistance information will be omitted, as described above.

그 후, 내비게이션 장치(1)는 디스플레이부(50)에 표시되는 차량 주행 영상 위에 주행 보조 정보를 같이 표시하거나, 스피커(60)를 통해 출력할 수 있다. (S40)Thereafter, the navigation device 1 may display the driving assistance information on the vehicle driving image displayed on the display unit 50 together, or may output the driving assistance information through the speaker 60. (S40)

내비게이션 장치(1)는 주행 보조 정보를 지도 정보와 중첩시켜 표시할 수 있으나, 반드시 이에 한정되는 것은 아니고, 다양한 방식으로 주행 보조 정보는 운전자에게 제공될 수 있다.The navigation device 1 may display the driving assistance information superimposed on the map information, but is not limited thereto, and the driving assistance information may be provided to the driver in various ways.

지금까지 도면을 통해 내비게이션 장치(1) 및 이를 포함하는 내비게이션 시스템(100)에 대해 자세히 알아보았다.Until now, the navigation device 1 and the navigation system 100 including the same have been described in detail through the drawings.

일 실시예에 따른 내비게이션 장치 및 이를 포함하는 내비게이션 시스템은 내비게이션 장치와 외부 사용자의 단말기가 동일한 주행 영상을 보면서 외부 사용자로부터 주행 경로에 대한 안내 가이드를 받을 수 있기 때문에 운전자가 파악하는 현재 위치의 목적지사이까지의 괴리를 감소시키고, 내비게이션 장치의 신뢰성을 향상시킬 수 있는 효과가 존재한다.In the navigation device according to an embodiment and a navigation system including the same, the navigation device and the terminal of the external user can receive a guide guide for a driving route from an external user while viewing the same driving image. There is an effect of reducing the distance to and improving the reliability of the navigation device.

또한, 일 실시예에 따른 내비게이션 장치 및 이를 포함하는 내비게이션 시스템은, 운전자가 목적지까지의 주행을 함에 있어서, 목적지까지의 경로를 잘 알고 있는 타인의 음성 정보 또는 입력 정보를 같이 안내 받을 수 있어, 보다 안전하게 목적지까지 주행할 수 있는 장점이 존재한다.In addition, the navigation device and the navigation system including the same according to an embodiment can receive voice information or input information of another person who knows the route to the destination well when the driver drives to the destination. There is an advantage of being able to safely drive to the destination.

한편, 본 명세서에 기재된 "~부"로 기재된 구성요소들, 유닛들, 모듈들, 컴포넌트들 등은 함께 또는 개별적이지만 상호 운용 가능한 로직 디바이스들로서 개별적으로 구현될 수 있다. 모듈들, 유닛들 등에 대한 서로 다른 특징들의 묘사는 서로 다른 기능적 실시예들을 강조하기 위해 의도된 것이며, 이들이 개별 하드웨어 또는 소프트웨어 컴포넌트들에 의해 실현되어야만 함을 필수적으로 의미하지 않는다. 오히려, 하나 이상의 모듈들 또는 유닛들과 관련된 기능은 개별 하드웨어 또는 소프트웨어 컴포넌트들에 의해 수행되거나 또는 공통의 또는 개별의 하드웨어 또는 소프트웨어 컴포넌트들 내에 통합될 수 있다.Meanwhile, components, units, modules, components, and the like described as "~ unit" described in the present specification may be implemented together or individually as interoperable logic devices. The description of different features for modules, units, etc. is intended to highlight different functional embodiments, and does not necessarily imply that they must be realized by separate hardware or software components. Rather, functionality associated with one or more modules or units may be performed by separate hardware or software components or may be integrated within common or separate hardware or software components.

특정한 순서로 작동들이 도면에 도시되어 있지만, 이러한 작동들이 원하는 결과를 달성하기 위해 도시된 특정한 순서, 또는 순차적인 순서로 수행되거나, 또는 모든 도시된 작동이 수행되어야 할 필요가 있는 것으로 이해되지 말아야 한다. 임의의 환경에서는, 멀티태스킹 및 병렬 프로세싱이 유리할 수 있다. 더욱이, 상술한 실시예에서 다양한 구성요소들의 구분은 모든 실시예에서 이러한 구분을 필요로 하는 것으로 이해되어서는 안되며, 기술된 구성요소들이 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키징될 수 있다는 것이 이해되어야 한다.Although the operations are shown in the figures in a specific order, it should not be understood that these operations are performed in the specific order shown, or in a sequential order, or that all illustrated operations need to be performed to achieve the desired result. . In any environment, multitasking and parallel processing can be advantageous. Moreover, the division of various components in the above-described embodiments should not be understood as requiring such division in all embodiments, and the described components are generally integrated together into a single software product or packaged into multiple software products. It should be understood that you can.

컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 어플리케이션, 스크립트 또는 코드로도 알려져 있음)은 컴파일되거나 해석된 언어나 선험적 또는 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 또는 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다.Computer programs (also known as programs, software, software applications, scripts or code) can be written in any form of a compiled or interpreted language or a programming language, including a priori or procedural language, and can be written as a standalone program or module, It can be deployed in any form, including components, subroutines, or other units suitable for use in a computer environment.

부가적으로, 본 특허문헌에서 기술하는 논리 흐름과 구조적인 블럭도는 개시된 구조적인 수단의 지원을 받는 대응하는 기능과 단계의 지원을 받는 대응하는 행위 및/또는 특정한 방법을 기술하는 것으로, 대응하는 소프트웨어 구조와 알고리즘과 그 등가물을 구축하는 데에도 사용 가능하다.Additionally, the logical flows and structural block diagrams described in this patent document describe the corresponding actions and/or specific methods supported by the corresponding functions and steps supported by the disclosed structural means. It can also be used to build software structures and algorithms and their equivalents.

본 명세서에서 기술하는 프로세스와 논리 흐름은 입력 데이터 상에서 작동하고 출력을 생성함으로써 기능을 수행하기 위하여 하나 이상이 컴퓨터 프로그램을 실행하는 하나 이상이 프로그래머블 프로세서에 의하여 수행 가능하다.The processes and logic flows described herein can be executed by one or more programmable processors, one or more executing computer programs in order to perform functions by operating on input data and generating outputs.

본 기술한 설명은 본 발명의 최상의 모드를 제시하고 있으며, 본 발명을 설명하기 위하여, 그리고 당업자가 본 발명을 제작 및 이용할 수 있도록 하기 위한 예를 제공하고 있다. 이렇게 작성된 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하는 것이 아니다.The present description presents the best mode of the invention, and provides examples to illustrate the invention and to enable those skilled in the art to make and use the invention. The written specification is not intended to limit the present invention to the specific terms presented.

이상에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자 또는 해당 기술 분야에 통상의 지식을 갖는 자라면, 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 기술적 범위는 명세서의 상세한 설명에 기재된 내용으로 한정되는 것이 아니라 특허청구범위에 의해 정해져야 할 것이다.Although the above has been described with reference to the preferred embodiments of the present invention, those skilled in the art or those of ordinary skill in the relevant technical field will not depart from the spirit and scope of the present invention described in the claims to be described later. It will be appreciated that various modifications and changes can be made to the present invention within the scope of the invention. Accordingly, the technical scope of the present invention should not be limited to the content described in the detailed description of the specification, but should be determined by the claims.

1: 내비게이션 장치 10: 외부 단말기
20: 센서부 30: 통신부
40: 카메라 50: 디스플레이부
60: 스피커 70: 저장부
80: 제어부 100: 내비게이션 시스템
1: navigation device 10: external terminal
20: sensor unit 30: communication unit
40: camera 50: display
60: speaker 70: storage
80: control unit 100: navigation system

Claims (10)

외부 서버로부터 차량의 주행 정보를 수신하고, 상기 차량에 설치되어 있는 적어도 하나의 카메라를 통해 촬영한 상기 차량의 주행 영상을 외부 단말기로 송신하는 통신부;
상기 주행 정보를 기초로 목적지까지 상기 차량을 안내하는 주행 경로 정보 및 상기 주행 영상을 표시하는 디스플레이부; 및
상기 외부 단말기로 송신한 상기 주행 영상에 대해 상기 외부 단말기가 송신한 주행 보조 정보를 상기 통신부를 통해 수신하고, 상기 주행 보조 정보를 상기 주행 영상과 함께 상기 디스플레이부에 표시하는 제어부;를 포함하는 것을 특징으로 하는, 내비게이션 장치.
A communication unit that receives driving information of the vehicle from an external server and transmits a driving image of the vehicle captured through at least one camera installed in the vehicle to an external terminal;
A display unit for displaying driving route information and the driving image for guiding the vehicle to a destination based on the driving information; And
And a controller configured to receive driving assistance information transmitted from the external terminal through the communication unit with respect to the driving image transmitted to the external terminal, and to display the driving assistance information together with the driving image on the display unit; Characterized in, navigation device.
제 1항에 있어서,
상기 보조 정보는,
상기 외부 단말에 표시되는 상기 주행 영상에 대해 상기 외부 단말기의 사용자가 입력한 표시 정보를 포함하는 것을 특징으로 하는, 내비게이션 장치.
The method of claim 1,
The auxiliary information,
And display information input by a user of the external terminal with respect to the driving image displayed on the external terminal.
제 2항에 있어서,
상기 제어부는,
상기 표시 정보를 상기 디스플레이부에 표시되는 상기 주행 영상 위에 오버랩(overlap)하는 방법으로 상기 디스플레이부에 표시하는 것을 특징으로 하는, 내비게이션 장치.
The method of claim 2,
The control unit,
And displaying the display information on the display unit by overlapping the driving image displayed on the display unit.
제 3항에 있어서,
상기 제어부는,
상기 디스플레이부에 상기 외부 단말기의 사용자가 입력한 상기 표시 정보를 변형 하지 않고 표시하거나 화살표 또는 문자로 변형하여 표시하는 것을 특징으로 하는, 내비게이션 장치.
The method of claim 3,
The control unit,
The navigation device, characterized in that the display information inputted by the user of the external terminal is displayed on the display unit without modification, or modified with arrows or characters to be displayed.
제 1항에 있어서,
상기 제어부는,
상기 주행 보조 정보가 음성 정보인 경우, 상기 음성 정보를 스피커를 통해 출력하는 것을 특징으로 하는, 내비게이션 장치.
The method of claim 1,
The control unit,
When the driving assistance information is voice information, the voice information is output through a speaker.
제 1항에 있어서,
상기 통신부는, 상기 주행 경로 정보를 상기 외부 단말기로 송신하고,
상기 제어부는,
상기 외부 단말기에 표시되는 상기 주행 경로 정보에 대해 상기 외부 단말기의 사용자로부터 입력 받은 표시 정보를 상기 디스플레이부에 표시되는 상기 주행 경로 정보와 함께 표시하는 것을 특징으로 하는, 내비게이션 장치.
The method of claim 1,
The communication unit transmits the driving route information to the external terminal,
The control unit,
And displaying display information input from a user of the external terminal with respect to the driving route information displayed on the external terminal together with the driving route information displayed on the display unit.
제 1항에 있어서,
상기 통신부는,
상기 차량의 운전자가 상기 디스플레이부에 표시되는 상기 주행 영상에 대해 입력한 입력 정보를 상기 외부 단말기로 송신하는 것을 특징으로 하는, 내비게이션 장치.
The method of claim 1,
The communication unit,
And transmitting input information inputted by the driver of the vehicle to the driving image displayed on the display unit to the external terminal.
제 1항에 있어서,
상기 제어부는,
상기 외부 단말기와 상기 통신부가 연결이 된 경우, 상기 통신부가 상기 외부 단말기로 송신하는 상기 차량의 주행 영상을 상기 디스플레이부에 동시에 표시하는 것을 특징으로 하는, 내비게이션 장치.
The method of claim 1,
The control unit,
When the external terminal and the communication unit are connected, the communication unit displays a driving image of the vehicle transmitted to the external terminal at the same time on the display unit.
차량의 전방 및 측면 중 적어도 하나에 배치되어 상기 차량의 주행 영상을 취득하는 카메라;
외부 서버로부터 차량의 주행 정보를 수신하고, 상기 차량에 설치되어 있는 적어도 하나의 카메라를 통해 촬영한 상기 차량의 주행 영상을 외부 단말기로 송신하는 통신부;
상기 주행 정보를 기초로 목적지까지 상기 차량을 안내하는 주행 경로 정보 및 상기 주행 영상을 표시하는 디스플레이부; 및
상기 외부 단말기로 송신한 상기 주행 영상에 대해 상기 외부 단말기가 송신한 주행 보조 정보를 상기 통신부를 통해 수신하고, 상기 주행 보조 정보를 상기 주행 영상과 함께 상기 디스플레이부에 표시하는 제어부;를 포함하는 것을 특징으로 하는, 내비게이션 시스템.
A camera disposed on at least one of a front and a side of the vehicle to acquire a driving image of the vehicle;
A communication unit that receives driving information of the vehicle from an external server and transmits a driving image of the vehicle captured through at least one camera installed in the vehicle to an external terminal;
A display unit for displaying driving route information and the driving image for guiding the vehicle to a destination based on the driving information; And
And a controller configured to receive driving assistance information transmitted from the external terminal through the communication unit with respect to the driving image transmitted to the external terminal, and to display the driving assistance information together with the driving image on the display unit; Characterized by the navigation system.
제9항에 있어서,
상기 주행 보조 정보는, 상기 외부 단말에 표시되는 상기 주행 영상에 대해 상기 외부 단말기의 사용자가 입력한 표시 정보 및 음성 정보를 포함하고,
상기 제어부는, 상기 표시 정보를 화살표 또는 문자로 변형한 제1표시 정보와 상기 음성 정보를 텍스트 정보로 변환한 제2표시 정보를, 상기 디스플레이부에 표시되는 상기 주행 영상 위에 증강(augment)하여 표시하는 것을 특징으로 하는, 내비게이션 시스템.
The method of claim 9,
The driving assistance information includes display information and audio information input by a user of the external terminal for the driving image displayed on the external terminal,
The control unit may augment and display the first display information obtained by converting the display information into arrows or characters and the second display information obtained by converting the voice information into text information on the driving image displayed on the display unit. Characterized in that, the navigation system.
KR1020200114797A 2020-09-08 2020-09-08 Navigation device and vehicle navigation system including the same KR102235474B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020200114797A KR102235474B1 (en) 2020-09-08 2020-09-08 Navigation device and vehicle navigation system including the same
US18/044,539 US20230358555A1 (en) 2020-09-08 2021-09-08 Navigation device, navigation service providing method, and navigation service providing server
DE112021004815.5T DE112021004815T5 (en) 2020-09-08 2021-09-08 NAVIGATION DEVICE, METHOD FOR PROVIDING A NAVIGATION SERVICE AND SERVER FOR PROVIDING A NAVIGATION SERVICE
PCT/KR2021/012185 WO2022055240A1 (en) 2020-09-08 2021-09-08 Navigation device, navigation service providing method, and navigation service providing server
JP2023540449A JP2023540826A (en) 2020-09-08 2021-09-08 Navigation device, navigation service providing method, and navigation service providing server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200114797A KR102235474B1 (en) 2020-09-08 2020-09-08 Navigation device and vehicle navigation system including the same

Publications (1)

Publication Number Publication Date
KR102235474B1 true KR102235474B1 (en) 2021-04-02

Family

ID=75466435

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200114797A KR102235474B1 (en) 2020-09-08 2020-09-08 Navigation device and vehicle navigation system including the same

Country Status (1)

Country Link
KR (1) KR102235474B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023287175A1 (en) * 2021-07-13 2023-01-19 엘지전자 주식회사 Route guidance device and route guidance system based on augmented reality and mixed reality

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100102927A (en) * 2009-03-12 2010-09-27 주식회사 내비퀘스트 Method sharing navigation data between different kind devices using communication and navi-interlocking system therefor
KR20120060283A (en) * 2010-12-01 2012-06-12 현대모비스 주식회사 Navigation apparatus for composing camera images of vehicle surroundings and navigation information, method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100102927A (en) * 2009-03-12 2010-09-27 주식회사 내비퀘스트 Method sharing navigation data between different kind devices using communication and navi-interlocking system therefor
KR20120060283A (en) * 2010-12-01 2012-06-12 현대모비스 주식회사 Navigation apparatus for composing camera images of vehicle surroundings and navigation information, method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023287175A1 (en) * 2021-07-13 2023-01-19 엘지전자 주식회사 Route guidance device and route guidance system based on augmented reality and mixed reality

Similar Documents

Publication Publication Date Title
CN108427123B (en) LIDAR device and method for operating a LIDAR device
US10942566B2 (en) Navigation service assistance system based on driver line of sight and vehicle navigation system using the same
US11900672B2 (en) Integrated internal and external camera system in vehicles
US9421866B2 (en) Vehicle system and method for providing information regarding an external item a driver is focusing on
CN105403224A (en) Apparatus, system and method for clustering points of interest in a navigation system
US20200239014A1 (en) User gesture directed object detection and recognition in a vehicle
US8731834B2 (en) Apparatus and method for providing user's route information in mobile communication system
JP7020434B2 (en) Image processing equipment, image processing method, and program
KR102235474B1 (en) Navigation device and vehicle navigation system including the same
KR101401063B1 (en) Terminal and method providing vehicle moving path, and vehicle using the same
US9640199B2 (en) Location tracking from natural speech
US20230358555A1 (en) Navigation device, navigation service providing method, and navigation service providing server
US10139836B2 (en) Autonomous aerial point of attraction highlighting for tour guides
KR102372811B1 (en) Navigation device, navigation service provision method and navigation service provision server
KR101677637B1 (en) Method for providing route guide using image projection and mobile terminal using this method
US20220295017A1 (en) Rendezvous assistance apparatus, rendezvous assistance system, and rendezvous assistance method
CN103727951A (en) Novel non-screen navigation system
CN117518518A (en) Stereoscopic display device, stereoscopic display system, and vehicle
KR20210030523A (en) Vehicle and method for controlling the vehicle
US20220078337A1 (en) Operation control device, imaging device, and operation control method
US20210046947A1 (en) Vehicle and control method thereof
CN203732076U (en) Novel screen-less navigation system
WO2023218740A1 (en) Display control system and wearable device
US20180018289A1 (en) Method for Recognizing Software Applications and User Inputs
KR20150124527A (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant