KR102041300B1 - Electronic device and course guide method of electronic device - Google Patents

Electronic device and course guide method of electronic device Download PDF

Info

Publication number
KR102041300B1
KR102041300B1 KR1020180084573A KR20180084573A KR102041300B1 KR 102041300 B1 KR102041300 B1 KR 102041300B1 KR 1020180084573 A KR1020180084573 A KR 1020180084573A KR 20180084573 A KR20180084573 A KR 20180084573A KR 102041300 B1 KR102041300 B1 KR 102041300B1
Authority
KR
South Korea
Prior art keywords
lane
route
moving object
vehicle
information
Prior art date
Application number
KR1020180084573A
Other languages
Korean (ko)
Other versions
KR20180088339A (en
Inventor
김진영
우승완
이해일
조창빈
Original Assignee
팅크웨어(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 팅크웨어(주) filed Critical 팅크웨어(주)
Priority to KR1020180084573A priority Critical patent/KR102041300B1/en
Publication of KR20180088339A publication Critical patent/KR20180088339A/en
Application granted granted Critical
Publication of KR102041300B1 publication Critical patent/KR102041300B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3446Details of route searching algorithms, e.g. Dijkstra, A*, arc-flags, using precalculated routes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3605Destination input or retrieval
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3632Guidance using simplified or iconic instructions, e.g. using arrows
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3679Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities
    • G01C21/3682Retrieval, searching and output of POI information, e.g. hotels, restaurants, shops, filling stations, parking facilities output of POI information on a road map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle

Abstract

전자 기기 및 전자 기기의 경로 안내 방법이 개시된다.
본 경로 안내 방법은 이동체의 위치 데이터를 기초로 목적지까지의 경로를 탐색하여 경로 정보를 생성하는 단계, 이동체의 주행 영상을 획득하는 단계, 획득된 주행 영상으로부터 이동체가 주행 중인 도로에 표시된 객체의 정보를 획득하는 단계 및 객체 정보와 이동체의 경로 정보를 기초로 경로 재 탐색의 필요 여부를 판단하고, 경로 재 탐색이 필요하다고 판단되면, 이동체의 위치 데이터를 기초로 목적지까지의 이동 경로를 산출하는 경로 탐색을 다시 수행하는 단계를 포함하고, 객체는 이동체가 주행하는 도로에 표시된 비 텍스트 형태의 도형 또는 텍스트일 수 있다.
An electronic device and a method for guiding a path of the electronic device are disclosed.
The route guidance method includes: searching for a route to a destination based on location data of a moving object to generate route information, obtaining a driving image of the moving object, and information on an object displayed on a road on which the moving object is driven from the obtained traveling image. Determining whether the path re-search is necessary based on the step of obtaining the object and the path information of the moving object, and determining that the path re-search is necessary, and calculating the moving path to the destination based on the position data of the moving object. The search may be performed again, and the object may be a non-text figure or text displayed on a road on which the moving object travels.

Description

전자 기기 및 전자 기기의 경로 안내 방법{ELECTRONIC DEVICE AND COURSE GUIDE METHOD OF ELECTRONIC DEVICE}ELECTRONIC DEVICE AND COURSE GUIDE METHOD OF ELECTRONIC DEVICE}

전자 기기 및 전자 기기의 경로 안내 방법에 관한 것이다. An electronic device and a route guidance method for the electronic device.

인터넷 망이 개방되고 위치데이터와 관련된 법률이 정비됨에 따라, 위치 기반 서비스(Location Based Service; LBS) 관련 산업이 활성화되고 있다. 이러한 위치 기반 서비스를 이용하는 대표적인 디바이스로는 차량 등의 현재위치를 측위 하거나 목적지까지의 이동 경로를 안내해주는 경로 안내 서비스를 제공하는 차량용 내비게이션을 들 수 있다. With the opening of the Internet network and the revision of laws relating to location data, the industry based on location based services (LBS) is being activated. Representative devices using such a location-based service may be a vehicle navigation device that provides a route guidance service for locating a current location of a vehicle or guiding a moving route to a destination.

또한, 차량의 정차 또는 운행 중 발생한 사고의 책임소재에 따른 과실비율을 판단하기 위하여 객관적인 자료가 필요한 경우가 증가하고 있다. 이에 따라, 객관적인 자료를 제공할 수 있는 차량용 블랙박스가 사용되고 있다. In addition, there is an increasing number of cases where objective data are needed to determine the error rate according to the responsibility for accidents that occur during the stopping or driving of a vehicle. Accordingly, a vehicle black box capable of providing objective data is used.

최근, 차량용 블랙박스를 통해 획득되는 차량용 주행 영상을 차량용 내비게이션에서 경로 안내 서비스를 제공하기 위해 사용하는 다양한 연구들이 활발히 진행되고 있다. Recently, various studies are being actively conducted to use a vehicle driving image acquired through a vehicle black box to provide a route guidance service in a vehicle navigation.

본 발명은 경로 재 탐색까지의 시간 지연을 최소화하는 전자 기기 및 전자 기기의 경로 안내 방법을 제공한다. The present invention provides an electronic device and a route guidance method of the electronic device to minimize the time delay until the route re-search.

상기한 과제를 실현하기 위한 본 발명의 일 양상으로서 본 발명에 따른 전자 기기는, 차량의 위치 데이터를 획득하는 위치 데이터 모듈; 및 상기 차량의 주행 영상에 포함된 적어도 하나의 객체를 토대로 상기 차량의 주행 방향을 획득하고, 상기 위치 데이터를 토대로 생성된 차량의 경로 정보와, 상기 차량의 주행 방향을 토대로, 상기 차량의 경로 이탈 여부를 판단하는 제어부를 포함한다.As an aspect of the present invention for realizing the above object, the electronic device according to the present invention, the position data module for obtaining the position data of the vehicle; And acquiring a driving direction of the vehicle based on at least one object included in the driving image of the vehicle and deviating from the vehicle path based on the path information of the vehicle generated based on the position data and the driving direction of the vehicle. It includes a control unit for determining whether or not.

상기한 과제를 실현하기 위한 본 발명의 양상으로서 본 발명에 따른 시스템은, 차량의 주행 영상을 획득하는 제1 전자 기기; 및 상기 차량에 대한 경로 탐색을 수행하고, 상기 주행 영상으로부터 추출되는 적어도 하나의 객체를 토대로 상기 차량의 주행 방향을 획득하며, 상기 경로 탐색을 통해 획득된 경로 정보 및 상기 차량의 주행 방향을 토대로 상기 차량의 경로 이탈 여부를 판단하는 제2 전자 기기를 포함한다. As an aspect of the present invention for realizing the above object, a system according to the present invention, the first electronic device for obtaining a driving image of the vehicle; And performing a route search for the vehicle, obtaining a driving direction of the vehicle based on at least one object extracted from the driving image, and based on the route information obtained through the route searching and the driving direction of the vehicle. And a second electronic device that determines whether the vehicle leaves the path.

상기 과제를 실현하기 위한 본 발명의 일 양상으로서 본 발명에 따른 전자 기기의 경로 안내 방법은, 차량의 위치 데이터를 이용하여 목적지까지의 경로 정보를 생성하는 단계; 차량의 주행 영상을 획득하는 단계; 상기 주행 영상으로부터 도로 위에 표시되는 적어도 하나의 객체를 추출하는 단계; 상기 추출된 적어도 하나의 객체를 토대로, 상기 차량의 주행 방향을 획득하는 단계; 및 상기 경로 정보와 상기 차량의 주행 방향을 비교하여 상기 차량의 경로 이탈 여부를 판단하는 단계를 포함한다.As an aspect of the present invention for realizing the above object, a route guidance method of an electronic device according to the present invention comprises: generating route information to a destination using position data of a vehicle; Obtaining a driving image of the vehicle; Extracting at least one object displayed on the road from the driving image; Obtaining a driving direction of the vehicle based on the extracted at least one object; And determining whether the vehicle deviates from the path by comparing the path information with the driving direction of the vehicle.

상기 과제를 실현하기 위한 본 발명의 일 양상으로서 본 발명에 따른 컴퓨터 판독 가능한 기록 매체는 상기한 방법 중 어느 하나를 수행하는 프로그램을 기록한다.As an aspect of the present invention for realizing the above object, a computer-readable recording medium according to the present invention records a program for performing any one of the above methods.

본 발명에 따르면, 차량이 경로 이탈 시, 경로 재 탐색까지의 시간 지연을 최소화하는 효과가 있다. According to the present invention, when the vehicle deviates from the path, there is an effect of minimizing the time delay until the route re-search.

도 1은 본 발명의 일 실시 예에 따른 경로 안내 방법을 구현하기 위한 시스템의 일 예를 도시한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 경로 안내 방법을 구현하기 위한 시스템의 다른 예를 도시한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 차량용 내비게이션의 일 예를 도시한 구조도이다.
도 4는 본 발명의 일 실시 예에 따른 차량용 내비게이션의 일 예를 도시한 구조도이다.
도 5는 본 발명의 일 실시 예에 따른 내비게이션 시스템을 포함하는 통신망의 일 예를 도시한 구성도이다.
도 6은 본 발명의 일 실시 예에 따른 내비게이션 시스템(10)의 경로 안내 방법을 도시한 흐름도이다.
도 7은 본 발명의 일 실시 예에 따른 내비게이션 시스템(10)에서 영상으로부터 차량이 주행 중인 차선과 관련된 차선 표시선을 선택하는 일 예를 도시한 것이다.
도 8은 도로에 표시되는 객체의 일 예를 도시한 것이다.
도 9는 본 발명의 일 실시 예에 따른 내비게이션 시스템(10)에서 후보 객체 데이터베이스를 이용하여 객체 정보를 획득하는 일 예를 도시한 흐름도이다.
도 10은 본 발명의 일 실시 예에 따른 내비게이션 시스템(10)에서 후보 객체 데이터베이스를 이용하여 객체 정보를 획득하는 다른 예를 도시한 흐름도이다.
도 11은 차량이 주행 중인 차선의 주행 방향을 토대로 경로 재 탐색 여부를 결정하는 일 예를 도시한 흐름도이다.
도 12는 차량이 주행 중인 차선의 주행 방향을 토대로 경로 재 탐색 여부를 결정하는 다른 예를 도시한 흐름도이다.
1 is a diagram illustrating an example of a system for implementing a route guidance method according to an embodiment of the present invention.
2 is a diagram illustrating another example of a system for implementing a route guidance method according to an embodiment of the present invention.
3 is a structural diagram showing an example of a vehicle navigation system according to an embodiment of the present invention.
4 is a structural diagram showing an example of a vehicle navigation system according to an embodiment of the present invention.
5 is a block diagram illustrating an example of a communication network including a navigation system according to an embodiment of the present invention.
6 is a flowchart illustrating a route guidance method of the navigation system 10 according to an exemplary embodiment.
FIG. 7 illustrates an example of selecting a lane display line associated with a lane on which a vehicle is driven from an image in the navigation system 10 according to an exemplary embodiment.
8 illustrates an example of an object displayed on a road.
9 is a flowchart illustrating an example of obtaining object information using a candidate object database in the navigation system 10 according to an embodiment of the present invention.
10 is a flowchart illustrating another example of obtaining object information using a candidate object database in the navigation system 10 according to an exemplary embodiment.
FIG. 11 is a flowchart illustrating an example of determining whether to re-route a route based on a driving direction of a lane in which a vehicle is driving.
12 is a flowchart illustrating another example of determining whether to re-route a route based on a driving direction of a lane in which a vehicle is driving.

본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시 예들을 가질 수 있는 바, 이하에서는 특정 실시 예들을 도면에 예시하고 이를 상세히 설명하고자 한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 일, 일 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다The above objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. However, the present invention may be modified in various ways and may have various embodiments. Hereinafter, specific embodiments will be illustrated in the drawings and described in detail. Like numbers refer to like elements throughout. In addition, when it is determined that the detailed description of the known function or configuration related to the present invention may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. In addition, numbers (eg, days, days, etc.) used in the description of the present specification are merely identification symbols for distinguishing one component from another component.

어떤 구성요소가 다른 구성요소에 "접속되어" 있다거나 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 접속되어 있거나 또는 연결되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 접속되어" 있다거나 "직접 연결되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "unit" for the components used in the following description are given or mixed in consideration of ease of specification, and do not have distinct meanings or roles from each other.

이하, 첨부된 도면들을 참조하여 본 발명에 대하여 상세히 설명하기로 한다.Hereinafter, with reference to the accompanying drawings will be described in detail with respect to the present invention.

도 1은 본 발명의 일 실시 예에 따른 경로 안내 방법을 구현하기 위한 시스템의 일 예를 도시한 도면이다.1 is a diagram illustrating an example of a system for implementing a route guidance method according to an embodiment of the present invention.

도 1을 참조하면, 시스템(10)은 차량의 운행, 유지 등과 관련된 각종 데이터를 차량의 운전자 및 동승자에게 알려주는 제1 전자 기기(100)와 차량의 운행과 관련된 데이터를 기록하는 제2 전자 기기(200)를 포함할 수 있다. Referring to FIG. 1, the system 10 may include a first electronic device 100 that informs drivers and passengers of various types of data related to driving and maintenance of a vehicle, and a second electronic device that records data related to driving of the vehicle. 200 may be included.

아래에서는, 차량 안내 방법을 구현하기 위한 시스템(10)이 '내비게이션 시스템'이고, 제1 전자 기기(100) 및 제2 전자 기기(200)가 각각 '차량용 내비게이션' 및 '차량용 블랙박스'인 경우를 예로 들어 설명한다. 그러나, 본 발명은 이에 한정되지 않으며, 본 발명에서는 경로 안내 방법을 구현하기 위해 다른 종류의 전자 기기를 사용할 수도 있다. 예를 들어, 제1 전자 기기(100) 또는 제2 전자 기기(200)는 이동통신 단말기, 디지털방송용 단말기, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player) 등으로 구현될 수도 있다. 또한, 본 발명의 실시 예들에서는, 차량용 내비게이션(100)과 차량용 블랙박스(200)가 서로 별도로 마련되는 경우를 예로 들어 설명하나, 본 발명은 이에 한정되지 않는다. 본 발명에 따르면, 차량용 내비게이션(100)과 차량용 블랙박스(200)가 일체화되는 경우도 가능하다. In the following, when the system 10 for implementing the vehicle guide method is a 'navigation system' and the first electronic device 100 and the second electronic device 200 are 'vehicle navigation' and 'vehicle black box', respectively. An example will be described. However, the present invention is not limited thereto, and in the present invention, other types of electronic devices may be used to implement the route guidance method. For example, the first electronic device 100 or the second electronic device 200 may be implemented as a mobile communication terminal, a digital broadcasting terminal, a personal digital assistant (PDA), a portable multimedia player (PMP), or the like. In addition, in the embodiments of the present invention, a case in which the vehicle navigation apparatus 100 and the vehicle black box 200 are provided separately from each other will be described as an example, but the present invention is not limited thereto. According to the present invention, it is also possible that the vehicle navigation apparatus 100 and the vehicle black box 200 are integrated.

차량용 내비게이션(100)은 내비게이션 하우징(191)의 전면에 마련된 디스플레이부(145)와, 내비게이션 조작키(193)와, 내비게이션 마이크(195)를 포함할 수 있다.The vehicle navigation apparatus 100 may include a display unit 145 provided on the front surface of the navigation housing 191, a navigation operation key 193, and a navigation microphone 195.

내비게이션 하우징(191)은 차량용 내비게이션(100)의 외관을 형성한다. 차량용 내비게이션(100)은, 계절적인 요인 등에 의한 고온 또는 저온에 노출되거나, 직/간접적인 외부 충격을 받는 등 다양한 조건의 환경에 노출될 수 있다. 내비게이션 하우징(191)은 외부 환경의 변화로부터 차량용 내비게이션(100) 내부의 각종 전자부품을 보호하는 한편, 차량용 내비게이션(100)의 외관을 미려하게 할 목적을 가질 수 있다. 이와 같은 목적을 달성하기 위하여, 내비게이션 하우징(191)은 ABS, PC 또는 강도가 강화된 엔지니어링 플라스틱 등의 소재를 사출 성형하는 방법으로 가공될 수 있다.The navigation housing 191 forms the exterior of the vehicle navigation apparatus 100. The vehicle navigation apparatus 100 may be exposed to an environment of various conditions such as being exposed to high or low temperatures due to seasonal factors or being subjected to direct / indirect external shocks. The navigation housing 191 may have a purpose to protect various electronic components inside the vehicle navigation apparatus 100 from changes in the external environment and to enhance the appearance of the vehicle navigation apparatus 100. In order to achieve the above object, the navigation housing 191 may be processed by injection molding a material such as ABS, PC or strength-enhanced engineering plastic.

디스플레이부(145)는 각종 데이터를 시각적으로 표시하는 부분이다. 디스플레이부(145)에 표시되는 각종 데이터는, 경로 데이터 등이 결합된 지도(map) 데이터이거나, DMB 방송을 포함한 각종 방송 화면이거나, 메모리에 저장되어 있던 영상일 수 있다. 디스플레이부(145)는 물리적 또는 논리적으로 수개로 분할될 수 있다. 물리적으로 분할된 디스플레이부(145)는 2개 이상의 디스플레이부(145)가 인접하여 마련된 경우를 의미한다. 논리적으로 분할된 디스플레이부(145)는, 물리적으로 1개의 디스플레이부(145)에 복수개의 독립된 화면을 표시하는 경우를 의미한다. 예를 들어, DMB 방송을 수신하여 표시하고 있는 도중에 디스플레이부(145)의 일부 영역에 경로데이터를 표시하거나, 디스플레이부(145)의 일부 영역과 다른 영역에 각각 DMB 방송과 지도 화면을 표시하는 경우일 수 있다. 각종 기능이 차량용 내비게이션(100)에 컨버젼스(convergence)되는 경향에 따라 디스플레이부(145)를 논리적으로 분할하여 다양한 데이터를 표시하는 경우가 점차 증가하고 있다. 나아가, 각종 데이터를 표시하기 위하여, 디스플레이부(145)는 점차 대화면화 되고 있다.The display unit 145 is a part that visually displays various data. The various data displayed on the display unit 145 may be map data in which route data and the like are combined, various broadcast screens including DMB broadcasting, or images stored in a memory. The display unit 145 may be divided into several physically or logically. The physically divided display unit 145 refers to a case in which two or more display units 145 are adjacent to each other. The logically divided display unit 145 refers to a case in which a plurality of independent screens are physically displayed on one display unit 145. For example, when the DMB broadcast is received and displayed, the route data is displayed in some areas of the display unit 145, or the DMB broadcast and map screens are displayed in some areas different from those of the display unit 145, respectively. Can be. In accordance with the tendency for various functions to converge on the vehicle navigation apparatus 100, the display 145 is logically divided to display various data. Furthermore, in order to display various data, the display unit 145 is gradually becoming larger.

디스플레이부(145)의 전면(全面) 또는 일부는 사용자의 터치입력을 수신할 수 있는 터치스크린일 수 있다. 예를 들어, 디스플레이부(145)에 표시된 기능선택 버튼을 터치함으로써 그 기능을 활성화할 수 있다. 즉, 디스플레이부(145)가 영상의 출력부(도 3의 140)인 동시에 입력부(도 3의 120)일 수 있음을 의미한다.The entire surface or part of the display unit 145 may be a touch screen that may receive a user's touch input. For example, the function may be activated by touching the function selection button displayed on the display unit 145. That is, it means that the display unit 145 may be an output unit (140 of FIG. 3) and an input unit (120 of FIG. 3) of an image.

내비게이션 조작키(193)는 차량용 내비게이션(100)의 각종 기능을 실행하거나 사용자가 직접 필요한 데이터를 입력하도록 하기 위하며 마련될 수 있다. 빈번하게 사용하는 특정 기능을 내비게이션 조작키(193)에 맵핑(mapping)하여 사용편의성을 향상할 수 있다.The navigation operation key 193 may be provided for executing various functions of the vehicle navigation apparatus 100 or for allowing a user to directly input necessary data. The convenience of use can be improved by mapping a frequently used specific function to the navigation operation key 193.

내비게이션 마이크(195)는 음성과 음향을 포함하는 소리(sound)를 수신하기 위하여 마련될 수 있다. 예를 들어, 내비게이션 마이크(195)로 수신한 음성 신호에 기초하여 차량용 내비게이션(100)의 특정 기능의 실행이 가능할 수 있다. 또한, 내비게이션 마이크(195)로 수신한 음향 신호에 기초하여 사고의 발생 등 차량의 현 상태를 감지할 수 있다.The navigation microphone 195 may be provided to receive a sound including voice and sound. For example, the specific function of the vehicle navigation apparatus 100 may be executed based on the voice signal received by the navigation microphone 195. In addition, the current state of the vehicle, such as the occurrence of an accident, may be detected based on the acoustic signal received by the navigation microphone 195.

차량용 블랙박스(200)는 차량용 내비게이션(100)과 신호를 교환하여 차량의 사고 처리 과정 등에 필요한 데이터를 저장할 수 있다. 예를 들어, 차량의 운행 중에 사고가 발생한 경우에, 차량용 블랙박스(200)에서 획득하여 저장한 영상을 분석하여 사고의 경위 및 과실의 정도를 판단하는데 사용할 수 있다. 또한, 차량용 내비게이션(100)과 연결되어 있는 차량용 블랙박스(200)는, 차량용 내비게이션(100)에 저장되어 있는 각종 데이터를 활용할 수 있다. 예를 들어, 차량용 블랙박스(200)에서 획득한 영상을 차량용 내비게이션(100)에 저장된 지도 데이터에 매핑시켜 차량용 블랙박스(200)의 효용성을 증대시킬 수 있음을 의미한다.The vehicle black box 200 may exchange data with the vehicle navigation apparatus 100 to store data necessary for an accident handling process of the vehicle. For example, when an accident occurs while driving a vehicle, the image obtained and stored in the vehicle black box 200 may be analyzed and used to determine the extent of the accident and the degree of error. In addition, the vehicle black box 200 connected to the vehicle navigation apparatus 100 may utilize various data stored in the vehicle navigation apparatus 100. For example, the image obtained by the vehicle black box 200 may be mapped to map data stored in the vehicle navigation apparatus 100 to increase the utility of the vehicle black box 200.

차량용 블랙박스(200)는 주행 중 및 정차 중에 차량의 데이터를 획득할 수 있다. 즉, 차량의 주행 중의 영상을 촬영할 수 있음은 물론, 차량이 정차하여 있는 경우에도 영상을 촬영할 수 있다. 차량용 블랙박스(200)를 통하여 획득된 영상의 화질은, 일정하거나 변화될 수 있다. 예를 들어, 사고의 발생을 전후하여서는 영상의 화질을 높게 하고, 통상적인 경우에는 영상의 화질을 낮게 함으로써 요구되는 저장공간을 최소화하면서도 핵심적인 영상을 저장할 수 있다.The vehicle black box 200 may acquire data of the vehicle while driving and stopping. That is, not only can the image be taken while the vehicle is running, but also the image can be taken even when the vehicle is stopped. The image quality of the image acquired through the vehicle black box 200 may be constant or change. For example, before and after the occurrence of an accident, the image quality of the image is increased, and in general, the image quality can be saved by minimizing the required storage space by storing the image quality.

차량용 블랙박스(200)는 블랙박스 카메라(222)와, 블랙박스 마이크(224)와, 부착부(281)를 포함할 수 있다.The vehicle black box 200 may include a black box camera 222, a black box microphone 224, and an attachment part 281.

블랙박스 카메라(222)는 차량의 외부 또는 실내를 촬영할 수 있다. 또한, 블랙박스 카메라(222)는 단수개 또는 복수개 마련될 수 있다. 블랙박스 카메라(222)가 복수개인 경우에는, 1개는 차량용 블랙박스(200)와 일체화 되고 나머지는 차량의 각 부분에 부착된 상태에서 촬영한 영상을 차량용 블랙박스(200)로 송신할 수 있다. 블랙박스 카메라(222)가 단수개인 경우에, 블랙박스 카메라(222)는 차량의 전방을 촬영하도록 설치될 수 있다. 블랙박스 카메라(222)에서 촬영된 영상은, 차량용 블랙박스(200) 또는 차량용 내비게이션(100)에 저장될 수 있다.The black box camera 222 may photograph the outside or the interior of the vehicle. In addition, the black box camera 222 may be provided in singular or plural. When there are a plurality of black box cameras 222, one may be integrated with the vehicle black box 200 and the other may transmit an image photographed while being attached to each part of the vehicle to the vehicle black box 200. . In the case where the black box camera 222 is singular, the black box camera 222 may be installed to photograph the front of the vehicle. The image photographed by the black box camera 222 may be stored in the vehicle black box 200 or the vehicle navigation apparatus 100.

블랙박스 마이크(224)는 차량 내외부에서 발생하는 사운드(sound)를 획득할 수 있다. 블랙박스 마이크(224)는, 전술한 내비게이션 마이크(195)와 유사한 기능을 수행할 수 있다.The black box microphone 224 may acquire sound generated inside and outside the vehicle. The black box microphone 224 may perform a function similar to the navigation microphone 195 described above.

부착부(281)는 차량용 블랙박스(200)를 차량에 고정되도록 할 수 있다. 부착부(281)는, 차량용 블랙박스(200)를 차량의 전면유리에 부착할 수 있는 흡착판이거나, 차량의 룸 밀러 등에 결합할 수 있는 고정장치일 수 있다.The attachment part 281 may fix the vehicle black box 200 to the vehicle. The attachment part 281 may be a suction plate which may attach the vehicle black box 200 to the windshield of the vehicle, or may be a fixing device that may be coupled to a room mirror of the vehicle.

도 2는 본 발명의 일 실시 예에 따른 경로 안내 방법을 구현하기 위한 시스템의 다른 예를 도시한 도면이다. 2 is a diagram illustrating another example of a system for implementing a route guidance method according to an embodiment of the present invention.

도 2를 참조하면, 내비게이션 시스템(10)을 구성하는 차량용 내비게이션(100)과 차량용 블랙박스(200)은 무선으로 서로 연결될 수 있다. 즉, 차량용 내비게이션(100)과 차량용 블랙박스(200)가 별도의 디바이스이며, 그 사이에 물리적인 연결장치가 없을 수 있음을 의미한다. 차량용 내비게이션(100)과 차량용 블랙박스(200)는, 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, Infrared Data Association), UWB(Ultra WideBand), 지그비(ZigBee) 등의 통신 방식을 이용하여 통신할 수 있다.Referring to FIG. 2, the vehicle navigation apparatus 100 and the vehicle black box 200 constituting the navigation system 10 may be wirelessly connected to each other. That is, the vehicle navigation apparatus 100 and the vehicle black box 200 are separate devices, and there may be no physical connection device therebetween. The vehicle navigation apparatus 100 and the vehicle black box 200 may be a communication scheme such as Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra WideBand (UWB), ZigBee, and the like. Can be communicated using.

도 3은 본 발명의 일 실시 예에 따른 차량용 내비게이션의 구조도이다.3 is a structural diagram of a vehicle navigation system according to an embodiment of the present invention.

도 3을 참조하면, 차량용 내비게이션(100)은 제1 통신부(110), 제1 입력부(120), 제 1센싱부(130), 출력부(140), 제1 저장부(150), 제1 전원부(160) 및 제1 제어부(170)를 포함할 수 있다. 도 3에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 전자 기기를 구현될 수도 있다.Referring to FIG. 3, the vehicle navigation apparatus 100 may include a first communication unit 110, a first input unit 120, a first sensing unit 130, an output unit 140, a first storage unit 150, and a first storage unit 150. The power supply unit 160 and the first control unit 170 may be included. Since the components shown in FIG. 3 are not essential, an electronic device having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

제1 통신부(110)는 차량용 내비게이션(100)과 통신 시스템 사이 또는 차량용 내비게이션(100)과 차량용 내비게이션(100)이 위치한 네트워크 사이 또는 차량용 내비게이션(100)과 다른 전자 기기와의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 제1 통신부(100)는, 제1 위치 데이터 모듈(111), 제1 무선 인터넷 모듈(113), 방송 송수신 모듈(115), 제1 근거리 통신 모듈(117), 제1 유선 통신 모듈(119) 등을 포함할 수 있다.The first communication unit 110 enables communication between the vehicle navigation system 100 and the communication system or between a network in which the vehicle navigation system 100 and the vehicle navigation system 100 are located or between the vehicle navigation system 100 and another electronic device. It may include more than one module. For example, the first communication unit 100 may include a first location data module 111, a first wireless internet module 113, a broadcast transmission / reception module 115, a first local area communication module 117, and a first wired communication. Module 119 and the like.

제1 위치 데이터 모듈(111)은 차량용 내비게이션(100)의 위치 데이터를 확인하거나 얻기 위한 모듈이다. 제1 위치 데이터 모듈(111)이 위치 데이터를 획득하는 방법으로는 GNSS(Global Navigation Satellite System)를 통하여 위치 데이터를 획득하는 방법이 사용될 수 있다. GNSS는 인공위성(도 5의 20)으로부터 수신한 전파신호를 이용하여 수신 단말기의 위치를 산출할 수 있는 항법 시스템을 의미한다. GNSS의 구체적인 예로는, 그 운영 주체에 따라서 GPS(Global Positioning System), Galileo, GLONASS(Global Orbiting Navigational Satellite System), COMPASS, IRNSS(Indian Regional Navigational Satellite System), QZSS(Quasi-Zenith Satellite System) 등 일 수 있다. 본 발명의 일 실시 예에 따른 차량용 내비게이션(100)의 위치 데이터 모듈(111)은, 차량용 내비게이션(100)이 사용되는 지역에서 서비스하는 GNSS 신호를 수신하여 위치 데이터를 획득할 수 있다. 제1 위치 데이터 모듈(111)은 차량용 내비게이션(100)의 현재 위치를 실시간으로 계속 산출하고, 이를 이용하여 속도 정보를 산출하기도 한다.The first position data module 111 is a module for checking or obtaining position data of the vehicle navigation apparatus 100. As a method of obtaining location data by the first location data module 111, a method of obtaining location data through a global navigation satellite system (GNSS) may be used. GNSS refers to a navigation system that can calculate the position of the receiving terminal using the radio signal received from the satellite (20 of FIG. 5). Specific examples of GNSS include Global Positioning System (GPS), Galileo, Global Orbiting Navigational Satellite System (GLONASS), COMPASS, Indian Regional Navigational Satellite System (IRNS), and Quasi-Zenith Satellite System (QZSS), depending on the operating entity. Can be. The location data module 111 of the vehicle navigation apparatus 100 according to an embodiment of the present disclosure may receive location data by receiving a GNSS signal serving in an area in which the vehicle navigation apparatus 100 is used. The first position data module 111 continuously calculates a current position of the vehicle navigation apparatus 100 in real time, and calculates speed information using the same.

제1 무선 인터넷 모듈(113)은 무선 인터넷에 접속하여 데이터를 획득하거나 송신하는 장치이다. 무선 인터넷 모듈(113)을 통하여 접속할 수 있는 무선 인터넷은, WLAN(Wireless LAN), Wibro(Wireless broadband), Wimax(World interoperability for microwave access), HSDPA(High Speed Downlink Packet Access) 등 일 수 있다.The first wireless internet module 113 is an apparatus that accesses the wireless Internet and acquires or transmits data. The wireless Internet accessible through the wireless internet module 113 may be a wireless LAN (WLAN), a wireless broadband (WBRO), a world interoperability for microwave access (Wimax), a high speed downlink packet access (HSDPA), or the like.

방송 송수신 모듈(115)은 각종 방송 시스템을 통하여 방송 신호를 수신하는 장치이다. 방송 송수신 모듈(115)을 통하여 수신할 수 있는 방송 시스템은, DMBT(Digital Multimedia Broadcasting Terrestrial), DMBS(Digital Multimedia Broadcasting Satellite), MediaFLO(Media Forward Link Only), DVBH(Digital Video Broadcast Handheld), ISDBT(Integrated Services Digital Broadcast Terrestrial) 등일 수 있다. 방송 송수신 모듈(115)을 통하여 수신되는 방송 신호에는 교통데이터, 생활데이터 등이 포함될 수 있다.The broadcast transmission / reception module 115 is an apparatus for receiving broadcast signals through various broadcast systems. The broadcast system that can be received through the broadcast transmission / reception module 115 includes a digital multimedia broadcasting terrestrial (DMBT), a digital multimedia broadcasting satellite (DMBS), a media forward link only (MediaFLO), a digital video broadcast handheld (DVBH), and an ISDBT ( Integrated Services Digital Broadcast Terrestrial). The broadcast signal received through the broadcast transmission / reception module 115 may include traffic data, living data, and the like.

제1 근거리 통신 모듈(117)은 근거리 통신을 위한 모듈을 말한다. 근거리 통신 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다.The first short range communication module 117 refers to a module for short range communication. As a short range communication technology, Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and the like may be used.

제1 유선 통신 모듈(119)은 차량용 내비게이션(100)에 연결되는 다른 전자 기기와의 인터페이스를 제공하는 역할을 수행한다. 예를 들어, 제1 유선 통신 모듈(119)은, USB Port를 통하여 통신할 수 있는 USB 모듈일 수 있다. The first wired communication module 119 serves to provide an interface with another electronic device connected to the vehicle navigation apparatus 100. For example, the first wired communication module 119 may be a USB module capable of communicating through a USB port.

제1 입력부(120)는 차량용 내비게이션(100)의 동작 제어를 위한 입력 데이터를 발생시키는 모듈로서, 외부로부터의 물리적 입력을 특정한 전기 신호로 변환하여 입력 데이터를 발생시킬 수 있다. 제1 입력부(120)는 제1 사용자 입력 모듈(121), 제1 마이크(123) 등을 포함할 수 있다.The first input unit 120 is a module for generating input data for controlling the operation of the vehicle navigation apparatus 100. The first input unit 120 may generate input data by converting a physical input from the outside into a specific electrical signal. The first input unit 120 may include a first user input module 121, a first microphone 123, and the like.

제1 사용자 입력 모듈(121)은 사용자로부터 차량용 내비게이션(100)의 동작 제어를 위한 제어 입력을 수신한다. 제1 사용자 입력 모듈은 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치 등으로 구성될 수 있다. 예를 들어, 제1 사용자 입력 모듈(121)은 차량용 내비게이션(100)의 하우징(도 1의 191) 외부에 마련된 내비게이션 조작키(도 1의 193)로 구현될 수 있다.The first user input module 121 receives a control input for controlling the operation of the vehicle navigation apparatus 100 from the user. The first user input module may include a key pad dome switch, a touch pad (constant voltage / capacitance), a jog wheel, a jog switch, and the like. For example, the first user input module 121 may be implemented as a navigation operation key (193 of FIG. 1) provided outside the housing (191 of FIG. 1) of the vehicle navigation apparatus 100.

제1 마이크(123)은 사용자의 음성 및 차량의 내외부에서 발생한 음향을 수신하는 장치이다. 제1 마이크(123)은 차량용 내비게이션(100)의 하우징(도 1의 191) 외부에 마련된 내비게이션 마이크(195)로 구현될 수 있다.The first microphone 123 is a device that receives a user's voice and sound generated in and out of the vehicle. The first microphone 123 may be implemented as a navigation microphone 195 provided outside the housing (191 of FIG. 1) of the vehicle navigation apparatus 100.

제1 센싱부(130)는 차량용 내비게이션(100)의 현재 상태를 감지하여 차량용 내비게이션(100)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 제1 센싱부(130)는 제1 모션 센싱 모듈(131), 광 센싱 모듈(133) 등을 포함할 수 있다.The first sensing unit 130 detects the current state of the vehicle navigation apparatus 100 and generates a sensing signal for controlling the operation of the vehicle navigation apparatus 100. The first sensing unit 130 may include a first motion sensing module 131, an optical sensing module 133, and the like.

제1 모션 센싱 모듈(131)은 차량용 내비게이션(100)의 3차원 공간 상에서의 움직임을 감지할 수 있다. 제1 모션 센싱 모듈(131)은, 3축 지자기 센서 및 3축 가속도 센서를 포함할 수 있다. 제1 모션 센싱 모듈(131)을 통하여 획득한 움직임 데이터를 위치 데이터 모듈(111)을 통하여 획득한 위치 데이터와 결합하여, 차량용 내비게이션(100)을 부착한 차량의 보다 정확한 궤적을 산출할 수 있다.The first motion sensing module 131 may detect a motion in a three-dimensional space of the vehicle navigation apparatus 100. The first motion sensing module 131 may include a three-axis geomagnetic sensor and a three-axis acceleration sensor. The motion data obtained through the first motion sensing module 131 may be combined with the position data obtained through the position data module 111 to calculate a more accurate trajectory of the vehicle to which the vehicle navigation apparatus 100 is attached.

광 센싱 모듈(133)은 차량용 내비게이션(100)의 주변 조도(luminance)를 측정하는 장치이다. 광 센싱 모듈(133)을 통하여 획득한 조도 데이터를 이용하여, 디스플레이부(145)의 밝기를 주변 밝기에 대응되도록 변화시킬 수 있다.The light sensing module 133 is a device for measuring the ambient illuminance of the vehicle navigation apparatus 100. The brightness of the display unit 145 may be changed to correspond to the ambient brightness by using the illumination data acquired through the light sensing module 133.

출력부(140)는 차량용 내비게이션(100)이 데이터를 출력하는 장치이다. 출력부(140)는 디스플레이 모듈(141), 오디오 출력 모듈(143) 등을 포함할 수 있다.The output unit 140 is a device in which the vehicle navigation apparatus 100 outputs data. The output unit 140 may include a display module 141, an audio output module 143, and the like.

디스플레이 모듈(141)은 차량용 내비게이션(100)이 시각적으로 인식될 수 있는 데이터를 출력하는 장치이다. 디스플레이 모듈(141)은, 차량용 내비게이션(100)의 하우징(도 1의 191) 전면(前面)에 마련된 디스플레이부(도 1의 145)로 구현될 수 있다. 한편, 디스플레이 모듈(141)이 터치스크린인 경우라면, 데이터의 출력부(140)인 동시에 제1 입력부(120)의 역할을 동시에 할 수 있음은 전술한 바와 같다.The display module 141 is a device that outputs data that can be visually recognized by the vehicle navigation apparatus 100. The display module 141 may be implemented as a display unit 145 of FIG. 1 provided on the front surface of the housing (191 of FIG. 1) of the vehicle navigation apparatus 100. Meanwhile, as described above, when the display module 141 is a touch screen, the display module 141 may serve as the output unit 140 and the first input unit 120 at the same time.

오디오 출력 모듈(143)은 청각적으로 인식될 수 있는 오디오 데이터를 출력한다. 오디오 출력 모듈(143)은, 차량용 내비게이션(100)에서 수행되는 기능(예를 들어, 경로 안내 기능)과 관련된 오디오 신호를 출력한다. 이러한 오디오 출력 모듈(143)에는 리시버(Receiver), 스피커(speaker), 버저(Buzzer) 등이 포함될 수 있다.The audio output module 143 outputs audio data that can be recognized acoustically. The audio output module 143 outputs an audio signal related to a function (eg, a route guidance function) performed in the vehicle navigation apparatus 100. The audio output module 143 may include a receiver, a speaker, a buzzer, and the like.

제1 저장부(150)는 차량용 내비게이션(100)의 동작을 위한 프로그램을 저장할 수 있고, 차량용 내비게이션(100)과 관련하여 입/출력되는 데이터(경로 데이터, 영상 데이터)들을 임시 저장할 수도 있다. 또한, 제1 저장부(150)는 경로 안내 서비스에 사용되는 지도(map) 데이터를 저장할 수도 있다. 제1 저장부(150)는 차량용 내비게이션(100)의 내부에 내장되거나, 탈 부착이 가능하며, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(ReadOnly Memory, ROM), EEPROM(Electrically Erasable Programmable ReadOnly Memory), PROM(Programmable ReadOnly Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 차량용 내비게이션(100)은 인터넷(internet)상에서 상기 제1 저장부(150)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The first storage unit 150 may store a program for the operation of the vehicle navigation apparatus 100, and may temporarily store data (path data and image data) input / output in relation to the vehicle navigation apparatus 100. In addition, the first storage unit 150 may store map data used for the route guidance service. The first storage unit 150 may be embedded in or detachable from the vehicle navigation apparatus 100, and may be a flash memory type, a hard disk type, or a multimedia card micro type. micro type), card type memory (e.g. SD or XD memory), random access memory (RAM), static random access memory (SRAM), read only memory (ROM), electrically erasable programmable read only Memory, a PROM (Programmable Read Only Memory), a magnetic memory, a magnetic disk, an optical disk may include at least one type of storage medium. The vehicle navigation apparatus 100 may operate in association with a web storage that performs a storage function of the first storage unit 150 on the Internet.

제1 전원부(160)는 외부의 전원, 내부의 전원을 인가받아 차량용 내비게이션(100)의 각 구성요소들 또는 차량용 내비게이션(100)에 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급한다. The first power supply unit 160 receives external power and internal power to supply power required for the operation of each component of the vehicle navigation apparatus 100 or another device connected to the vehicle navigation apparatus 100.

제1 제어부(170)는 통상적으로 차량용 내비게이션(100)의 전반적인 동작을 제어한다. 나아가, 제1 제어부(170)는 차량용 내비게이션(100)에 연결된 다른 디바이스를 제어하는 제어신호를 출력할 수도 있다.The first controller 170 typically controls the overall operation of the vehicle navigation apparatus 100. In addition, the first controller 170 may output a control signal for controlling another device connected to the vehicle navigation apparatus 100.

도 4는 본 발명의 실시 예들과 관련된 차량용 블랙박스의 구조도이다.4 is a structural diagram of a vehicle black box according to embodiments of the present invention.

도 4를 참조하면, 차량용 블랙박스(200)는 제2 통신부(210), 제2 입력부(220), 제2 센싱부(230), 제2 저장부(250), 제2 전원부(260), 제2 제어부(270) 등을 포함할 수 있다. 도 4에 도시된 구성요소들이 필수적인 것은 아니어서, 그보다 많은 구성요소들을 갖거나 그보다 적은 구성요소들을 갖는 전자 기기를 구현될 수도 있다.Referring to FIG. 4, the vehicle black box 200 may include a second communication unit 210, a second input unit 220, a second sensing unit 230, a second storage unit 250, a second power supply unit 260, The second control unit 270 may be included. The components shown in FIG. 4 are not essential, and an electronic device having more or fewer components may be implemented.

이하, 상기 구성요소들에 대해 차례로 살펴본다.Hereinafter, the components will be described in order.

제2 통신부(210)는 차량용 블랙박스(200)와 통신 시스템 사이 또는 차량용 블랙박스(200)와 차량용 블랙박스(200)가 위치한 네트워크 사이 또는 차량용 블랙박스(200)와 다른 전자 기기(예를 들어, 차량용 내비게이션(100))와의 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 예를 들어, 제2 통신부(210)는 제2 위치 데이터 모듈(211), 제2 무선 인터넷 모듈(213), 제2 근거리 통신 모듈(217), 제2 유선 통신 모듈(219) 등을 포함할 수 있다. 제2 위치 데이터 모듈(211), 제2 무선 인터넷 모듈(213), 제2 근거리 통신 모듈(217) 및 제2 유선 통신 모듈(219)은 각각 제1 위치 데이터 모듈(111), 제1 무선 인터넷 모듈(113), 제1 근거리 통신 모듈(117) 및 제1 유선 통신 모듈(119)과 유사한 동작을 수행하므로, 아래에서는 상세한 설명을 생략한다. The second communication unit 210 may communicate between the vehicle black box 200 and the communication system or between the vehicle black box 200 and the network in which the vehicle black box 200 is located or the vehicle black box 200 and other electronic devices (for example, It may include one or more modules that enable communication with the vehicle navigation (100). For example, the second communication unit 210 may include a second location data module 211, a second wireless internet module 213, a second short range communication module 217, a second wired communication module 219, and the like. Can be. The second location data module 211, the second wireless internet module 213, the second short range communication module 217, and the second wired communication module 219 are respectively a first location data module 111 and a first wireless internet. Since the module 113, the first local area communication module 117, and the first wired communication module 119 perform similar operations, detailed descriptions thereof will be omitted below.

제2 입력부(220)는 차량용 블랙박스(200)의 외부로부터의 입력을 특정한 전기 신호로 변환하여 입력 데이터를 발생시킬 수 있다. 제2 입력부(220)는 제2 사용자 입력 모듈(221), 제2 마이크(223), 카메라(225) 등을 포함할 수 있다.The second input unit 220 may generate input data by converting an input from the outside of the vehicle black box 200 into a specific electric signal. The second input unit 220 may include a second user input module 221, a second microphone 223, a camera 225, and the like.

제2 사용자 입력 모듈(221)은 사용자로부터 차량용 블랙박스(200)의 동작 제어를 위한 제어 입력을 수신할 수 있다. 제2 사용자 입력 모듈(221)은 키 패드(key pad) 돔 스위치 (dome switch), 터치 패드(정압/정전), 조그 휠, 조그 스위치, 푸시 버튼 등으로 구성될 수 있다. 제2 사용자 입력 모듈(221)은 필수적인 구성 요소는 아니어서, 차량용 블랙박스(200)가 차량용 내비게이션(100)에 의해 제어되는 경우, 차량용 블랙박스(200)의 구성 요소에서 제외될 수도 있다.The second user input module 221 may receive a control input for controlling the operation of the vehicle black box 200 from the user. The second user input module 221 may be configured of a key pad dome switch, a touch pad (static pressure / capacitance), a jog wheel, a jog switch, a push button, and the like. Since the second user input module 221 is not an essential component and the vehicle black box 200 is controlled by the vehicle navigation apparatus 100, the second user input module 221 may be excluded from the component of the vehicle black box 200.

제2 마이크(223)는 외부로부터 수신되는 오디오 신호를 특정 전기 신호로 변환하여 오디오 데이터를 발생시킨다. 예를 들어, 제2 마이크는 차량의 주행과 관련된 오디오 데이터를 획득할 수 있다. 제2 마이크(223)는 도 1에 도시된 차량용 블랙박스(200)의 마이크(224)에 대응될 수 있다. The second microphone 223 converts an audio signal received from the outside into a specific electric signal to generate audio data. For example, the second microphone may acquire audio data related to driving of the vehicle. The second microphone 223 may correspond to the microphone 224 of the vehicle black box 200 shown in FIG. 1.

카메라(225)은 외부로부터 수신되는 영상 신호를 특정 전기 신호로 변환하여 영상 데이터를 발생시킨다. 예를 들어, 카메라(225)는 차량의 주행과 관련된 차량의 내, 외부의 영상 데이터를 획득할 수 있다. 카메라(225)는 도 1에 도시된 차량용 블랙박스(200)의 카메라(222)에 대응될 수 있다. The camera 225 generates image data by converting an image signal received from the outside into a specific electric signal. For example, the camera 225 may acquire image data of the inside and outside of the vehicle related to the driving of the vehicle. The camera 225 may correspond to the camera 222 of the vehicle black box 200 shown in FIG. 1.

제2 센싱부(230)는 차량용 블랙박스(200)의 현재 상태를 감지하여 차량용 블랙박스(200)의 동작을 제어하기 위한 센싱 신호를 발생시킨다. 제2 센싱부(230)는 제2 모션 센싱 모듈(231) 등을 포함할 수 있으며, 제2 모션 센싱 모듈(231)은 전술한 제1 모션 센싱 모듈(도 3의 131)과 유사한 동작을 수행한다.The second sensing unit 230 detects a current state of the vehicle black box 200 and generates a sensing signal for controlling the operation of the vehicle black box 200. The second sensing unit 230 may include a second motion sensing module 231, and the second motion sensing module 231 performs an operation similar to the aforementioned first motion sensing module 131 of FIG. 3. do.

제2 저장부(250)는 차량용 블랙박스(200)의 동작을 위한 프로그램을 저장할 수 있고, 차량용 블랙박스(200)와 관련하여 입/출력되는 데이터(영상 데이터, 오디오 데이터 등)들을 저장할 수도 있다. 예를 들어, 제2 저장부(250)는 제2 마이크(223)를 통해 획득되는 오디오 데이터 또는 카메라(225)를 통해 획득되는 영상 데이터를 저장할 수 있다. 제2 저장부(250)는 차량용 블랙박스(200)의 내부에 내장되거나, 탈 부착이 가능하며, 플래시 메모리 타입, 하드디스크 타입, 멀티미디어 카드 마이크로 타입, 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램, 롬, PROM, 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 차량용 블랙박스(200)는 인터넷(internet)상에서 상기 제2 저장부(250)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The second storage unit 250 may store a program for operating the vehicle black box 200, and may store data (image data, audio data, etc.) input / output in relation to the vehicle black box 200. . For example, the second storage unit 250 may store audio data obtained through the second microphone 223 or image data obtained through the camera 225. The second storage unit 250 may be embedded in or detachable from the vehicle black box 200, and may include a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (for example, SD or XD). Memory, etc.), a RAM, a ROM, a PROM, a magnetic memory, a magnetic disk, and an optical disk. The vehicle black box 200 may operate in association with a web storage that performs a storage function of the second storage unit 250 on the Internet.

제2 전원부(260)는 외부의 전원, 내부의 전원을 인가받아 차량용 블랙박스(200)의 각 구성요소들 또는 차량용 블랙박스(200)에 연결된 다른 디바이스의 동작을 위하여 필요한 전원을 공급한다. The second power supply unit 260 receives external power and internal power to supply power necessary for the operation of each component of the vehicle black box 200 or another device connected to the vehicle black box 200.

제2 제어부(270)는 통상적으로 차량용 블랙박스(200)의 전반적인 동작을 제어한다. 제2 제어부(270)는 차량용 내비게이션(도 3의 100)의 제1 제어부(도 3의 170)의 제어신호에 영향 받을 수 있다. 즉, 제2 제어부(270)는 제1 제어부(도 3의 170)에 종속적일 수 있음을 의미한다.The second control unit 270 typically controls the overall operation of the vehicle black box 200. The second control unit 270 may be affected by the control signal of the first control unit 170 of FIG. 3 of the vehicle navigation apparatus 100 of FIG. 3. That is, the second control unit 270 may be dependent on the first control unit 170 of FIG. 3.

도 5는 본 발명의 실시 예들과 관련된 내비게이션 시스템을 포함하는 통신망의 구성도이다.5 is a configuration diagram of a communication network including a navigation system according to embodiments of the present invention.

도 5를 참조하면, 내비게이션 시스템(10)은 다양한 통신망 및 다른 전자 기기(61 내지 64)와 접속할 수 있다.Referring to FIG. 5, the navigation system 10 may be connected to various communication networks and other electronic devices 61 to 64.

내비게이션 시스템(10)은, 인공위성(20)으로부터 수신한 전파신호를 사용하여 현재의 위치를 산출할 수 있다. 각각의 인공위성(20)은 주파수 대역이 상이한 L밴드 주파수를 송신할 수 있다. 내비게이션 시스템(10)은, 각각의 인공위성(20)에서 송신된 L밴드 주파수가 내비게이션 시스템(10)에 도달하는데 까지 소요된 시간에 기초하여 현재 위치를 산출할 수 있다.The navigation system 10 can calculate the current position using the radio wave signal received from the satellite 20. Each satellite 20 may transmit L band frequencies having different frequency bands. The navigation system 10 may calculate the current position based on the time it takes for the L-band frequency transmitted from each satellite 20 to reach the navigation system 10.

내비게이션 시스템(10)은 제어국(40, ACR), 기지국(50, RAS) 등을 통하여 네트워크(30)에 무선으로 접속할 수 있다. 네트워크(30)에 내비게이션 시스템(10)이 접속하면, 네트워크(30)에 접속한 전자 디바이스(61, 62)와도 간접적으로 접속하여 데이터를 교환할 수 있다.The navigation system 10 can wirelessly connect to the network 30 via the control station 40 (ACR), the base station 50, RAS, or the like. When the navigation system 10 is connected to the network 30, data can be exchanged by indirectly connecting to the electronic devices 61 and 62 connected to the network 30.

내비게이션 시스템(10)은, 통신 기능을 가진 다른 디바이스(63)를 통하여 간접적으로 네트워크(30)에 접속할 수도 있다. 예를 들어, 네트워크(30)에 접속할 수 있는 장치가 내비게이션 시스템(10)에 마련되지 않은 경우에, 근거리 통신을 이용하여 통신 기능을 가진 다른 디바이스(63)와 통신할 수 있음을 의미한다.The navigation system 10 may connect to the network 30 indirectly through another device 63 having a communication function. For example, when no device capable of connecting to the network 30 is provided in the navigation system 10, it means that the device can communicate with another device 63 having a communication function using short-range communication.

본 문서에서 개시되는 실시 예는 도 1 내지 도 5를 참조하여 설명한 내비게이션 시스템(10)에서 구현될 수 있다. 아래에서는 도로에서 차선을 구분하기 위해 주행 방향을 따라 일정한 간격으로 그어 놓은 선을 '차선 표시선'이라 명명하여 사용한다. Embodiments disclosed in this document may be implemented in the navigation system 10 described with reference to FIGS. 1 to 5. Below, a line drawn at regular intervals along the driving direction is used as a lane marking line to distinguish lanes on a road.

이하, 필요한 도면들을 참조하여 본 발명의 일 실시 예에 따른 경로 안내 방법 및 이를 구현하기 위한 내비게이션 시스템의 동작을 상세하게 설명한다. Hereinafter, a method of guiding a route according to an embodiment of the present invention and an operation of a navigation system for implementing the same will be described in detail with reference to the accompanying drawings.

도 6은 본 발명의 일 실시 예에 따른 내비게이션 시스템(10)의 경로 안내 방법을 도시한 흐름도이다. 또한, 도 7 내지 도 13은 본 발명의 일 실시 예에 따른 내비게이션 시스템(10)의 경로 안내 방법을 설명하기 위한 도면들이다. 6 is a flowchart illustrating a route guidance method of the navigation system 10 according to an exemplary embodiment. 7 to 13 are diagrams for describing a route guidance method of the navigation system 10 according to an exemplary embodiment.

도 6을 참조하면, 차량용 내비게이션(100)의 제1 제어부(170)는 제1 입력부(120)를 통해 목적지를 수신한다. 또한, 제1 위치 정보 모듈(111)을 통해 차량의 위치 데이터를 획득한다. 그리고, 차량의 위치 데이터 및 제1 저장부(150)에 저장된 지도 데이터를 토대로, 목적지까지의 이동 경로를 탐색하는 경로 탐색을 수행하여 경로 정보를 산출한다(S101). Referring to FIG. 6, the first control unit 170 of the vehicle navigation apparatus 100 receives a destination through the first input unit 120. Also, location data of the vehicle is acquired through the first location information module 111. The route information is calculated by performing a route search for searching a moving route to a destination based on the position data of the vehicle and the map data stored in the first storage unit 150 (S101).

제1 제어부(170)는 제1 통신부(110)를 통해 차량용 블랙박스(200)에 연결한다. 또한, 차량용 블랙박스(200)로부터 차량의 주행과 관련된 영상을 획득한다(S102). 차량용 블랙박스(200)는 적어도 하나의 카메라(225)를 이용하여 내비게이션 시스템(10)이 장착된 차량의 주행과 관련된 영상을 실시간으로 획득하고, 이를 차량용 내비게이션(100)으로 전송한다. 한편, 본 발명의 일 실시 예에서는 차량용 내비게이션(100)과 차량용 블랙박스(200)가 별도로 구비되고, 유무선 통신을 통해 서로 통신하는 경우를 예로 들어 설명하였으나, 본 발명은 이에 한정되지 않는다. 본 발명에 따르면, 차량용 내비게이션(100)과 차량용 블랙박스(200)는 일체형으로 구현될 수도 있다. 또한, 본 발명의 일 실시 예에서는 차량의 주행 영상을 차량용 블랙박스(200)로부터 수신하는 경우를 예로 들어 설명하였으나, 본 발명은 이에 한정되지 않는다. 본 발명에서는, 외부의 적어도 하나의 카메라(미도시)로부터 직접 차량의 주행과 관련된 영상을 수신할 수도 있다. The first controller 170 is connected to the vehicle black box 200 through the first communication unit 110. In addition, an image related to driving of the vehicle is obtained from the vehicle black box 200 (S102). The vehicle black box 200 acquires an image related to driving of the vehicle on which the navigation system 10 is mounted in real time using at least one camera 225, and transmits the image to the vehicle navigation apparatus 100. Meanwhile, in one embodiment of the present invention, the vehicle navigation apparatus 100 and the vehicle black box 200 are separately provided and described in the case of communicating with each other through wired / wireless communication as an example, but the present invention is not limited thereto. According to the present invention, the vehicle navigation apparatus 100 and the vehicle black box 200 may be integrally implemented. In addition, in one embodiment of the present invention has been described taking the case of receiving the driving image of the vehicle from the vehicle black box 200 as an example, the present invention is not limited thereto. In the present invention, an image related to driving of the vehicle may be directly received from at least one external camera (not shown).

차량용 내비게이션(100)의 제1 제어부(170)는 차량용 블랙박스(200)로부터 수신되는 영상을 분석하여 차선 정보를 획득한다(S103). 차선 정보는 도로 위에 표시되는 차선 표시선, 도형, 텍스트 등을 토대로 획득될 수 있다. The first controller 170 of the vehicle navigation apparatus 100 obtains lane information by analyzing an image received from the vehicle black box 200 (S103). Lane information may be obtained based on lane marking lines, figures, text, and the like displayed on a road.

차선 정보는 차선을 구분하기 위한 차선 표시선과 관련된 정보를 포함할 수 있다. 차선 표시선 관련 정보는 차선 표시선의 표시 형태(예를 들어, 직선, 곡선, 실선, 점선 등), 색상 등을 포함할 수 있다. The lane information may include information related to lane display lines for identifying lanes. The lane display line related information may include a display type (eg, a straight line, a curve, a solid line, a dotted line, etc.), a color, and the like of the lane display line.

제1 제어부(170)는 다양한 필터링 알고리즘을 이용하여 차량의 주행 영상으로부터 도로 위에 표시되는 차선 표시선을 인식할 수 있다. 예를 들어, 제1 제어부(170)는 에지(edge) 필터를 이용하여 영상으로부터 차선을 구분하기 위한 차선 표시선을 추출할 수 있다. 에지 필터를 이용하는 경우, 제1 제어부(170)는 영상에 포함된 각 픽셀의 명도 값을 이용하여 영상에서 경계를 이루는 부분을 검색한다. 그리고, 검색된 경계 부분을 토대로 차선 표시선을 인식한다. 한편, 에지 필터를 이용하여 차선 표시선을 인식하는 방법은, 차선 표시선을 인식하는 방법의 일 예로서, 본 문서에 개시되는 내비게이션 시스템(10)은 에지 필터를 이용한 방법 이외에도 다양한 필터링 알고리즘을 이용하여 영상에 포함된 차선 표시선을 추출할 수 있다. 차선 표시선이 추출되면, 제1 제어부(170)는 추출된 차선 표시선의 외곽선을 토대로 직선, 곡선, 실선, 점선 등의 차선 표시선의 표시 형태를 획득할 수 있다. 또한, 제1 제어부(170)는 추출된 차선 표시선에 대한 색상 인식을 통해 차선 표시선의 색상 정보를 획득할 수 있다. The first controller 170 may recognize the lane display line displayed on the road from the driving image of the vehicle using various filtering algorithms. For example, the first controller 170 may extract a lane display line for dividing a lane from an image by using an edge filter. In the case of using the edge filter, the first controller 170 searches for a part forming a boundary in the image by using brightness values of each pixel included in the image. Then, the lane display line is recognized based on the retrieved boundary portion. Meanwhile, a method of recognizing a lane display line using an edge filter is an example of a method of recognizing a lane display line, and the navigation system 10 disclosed in this document uses various filtering algorithms in addition to the method using an edge filter. It is possible to extract the lane display line included in the. When the lane display line is extracted, the first controller 170 may acquire a display form of the lane display lines such as a straight line, a curve, a solid line, and a dotted line based on the extracted outline of the lane display line. In addition, the first controller 170 may acquire color information of the lane display line through color recognition of the extracted lane display line.

영상으로부터 복수 개의 차선 표시선이 추출되는 경우, 제1 제어부(170)는 복수의 차선 표시선 중에서 차량이 주행 중인 차선에 대응하는 적어도 하나의 차선 표시선을 인지할 수 있다. 여기서, 영상에 포함된 차선 표시선들 중 차량이 주행 중인 차선에 대응하는 차선 표시선을 선택하기 위해 제1 제어부(170)는 영상으로부터 추출된 각 차선 표시선의 영상 내 표시 위치를 이용할 수 있다. 예를 들어, 영상으로부터 복수 개의 차선 표시선이 검출되는 경우, 제1 제어부(170)는 영상을 수직으로 가로지르는 기준선을 설정하고, 기준선과 각 차선 표시선 간의 거리를 토대로 차량이 주행 중인 차선에 대응하는 차선 표시선을 선택할 수 있다. 즉, 기준선에서 가까운 차선 표시선을 차량이 주행 중인 차선과 관련된 차선 표시선으로 선택할 수 있다. 또한, 제1 제어부(170)는 기준선을 기준으로 어느 방향에 위치하느냐에 따라 차량이 주행 중인 차선의 왼쪽 표시선과 오른쪽 표시선을 구분할 수도 있다. When the plurality of lane display lines are extracted from the image, the first controller 170 may recognize at least one lane display line corresponding to the lane in which the vehicle is driving among the plurality of lane display lines. Here, the first controller 170 may use the display position in the image of each lane display line extracted from the image to select a lane display line corresponding to the lane in which the vehicle is driving among the lane display lines included in the image. For example, when a plurality of lane display lines are detected from the image, the first controller 170 sets a reference line that vertically crosses the image, and corresponds to a lane in which the vehicle is driving based on a distance between the reference line and each lane display line. The lane display line can be selected. That is, the lane display line close to the reference line may be selected as the lane display line associated with the lane in which the vehicle is driving. In addition, the first controller 170 may distinguish the left display line and the right display line of the lane in which the vehicle is driving based on which direction the reference line is located.

도 7은 영상으로부터 차량이 주행 중인 차선과 관련된 차선 표시선을 선택하는 일 예를 도시한 것이다. 도 7을 참조하면, 제1 제어부(170)는 차량용 블랙박스(200)로부터 차량의 주행과 관련된 영상(7)를 수신한다(S201). 또한, 필터링 알고리즘을 이용하여 영상(7)로부터 차선 표시선(7a, 7b, 7c, 7d)을 검출한다(S202). 제1 제어부(170)는 검출된 차선 표시선들(7a, 7b, 7c, 7d) 각각의 영상(7) 내 위치를 토대로, 차량이 주행 중인 차선과 관련된 차선 표시선(7b, 7c)을 선택할 수 있다. 이를 위해, 제1 제어부(170)는 영상(7)를 수직으로 가로지르는 기준선(7e)를 설정한다. 그리고, 기준선(7e)을 기준으로 좌측에 위치하는 차선 표시선들(7a, 7b) 중에서 기준선(7e)에 가장 가까운 차선 표시선(7a)을 차량이 주행 중인 차선의 좌측 차선 표시선으로 인지한다. 또한, 기준선(7e)을 기준으로 우측에 위치하는 차선 표시선들(7c, 7d) 중에서 기준선(7e)에 가장 가까운 차선 표시선(7c)을 차량이 주행 중인 차선의 우측 차선 표시선으로 인지한다. 한편, 기준선과 각 차선 표시선 간의 거리 또는 상대적인 위치를 토대로 차량이 주행 중인 차선과 관련된 차선 표시선을 선택하는 방법은, 차량이 주행 중인 차선과 관련된 차선 표시선을 선택하는 방법의 일 예로서, 본 발명은 이에 한정되지 않는다. 본 문서에 개시되는 내비게이션 시스템(10)은 기준선과 각 차선 표시선의 상대적인 위치를 이용하여 차선 표시선을 선택하는 방법 이외에도 다양한 방법을 이용하여 차량이 주행 중인 차선과 관련된 차선 표시선을 선택할 수 있다.FIG. 7 illustrates an example of selecting a lane display line associated with a lane on which a vehicle is driving from an image. Referring to FIG. 7, the first controller 170 receives an image 7 related to driving of the vehicle from the vehicle black box 200 (S201). In addition, lane display lines 7a, 7b, 7c, and 7d are detected from the image 7 by using a filtering algorithm (S202). The first controller 170 may select the lane display lines 7b and 7c related to the lane in which the vehicle is driving, based on the position in the image 7 of each of the detected lane display lines 7a, 7b, 7c, and 7d. . To this end, the first controller 170 sets a reference line 7e that traverses the image 7 vertically. The lane display line 7a closest to the reference line 7e among the lane display lines 7a and 7b positioned on the left side of the reference line 7e is recognized as the left lane display line of the lane in which the vehicle is traveling. Also, among the lane display lines 7c and 7d positioned on the right side of the reference line 7e, the lane display line 7c closest to the reference line 7e is recognized as the right lane display line of the lane on which the vehicle is traveling. Meanwhile, the method of selecting a lane display line associated with a lane on which a vehicle is driving based on a distance or a relative position between a reference line and each lane display line is an example of a method of selecting a lane display line associated with a lane on which a vehicle is driven. It is not limited to this. The navigation system 10 disclosed in the present disclosure may select a lane display line related to a lane in which a vehicle is driven by using various methods, in addition to selecting a lane display line by using a relative position of a reference line and each lane display line.

차선 정보는 도로 위에 표시되는 적어도 하나의 객체와 관련된 객체 정보를 포함할 수도 있다. 여기서, 객체는 차선 표시선과 구분되며, 대응하는 도로 또는 대응하는 차선과 관련된 정보를 제공하기 위해 도로 위에 표시되는 비 텍스트 형태의 도형(예를 들어, 화살표) 또는 텍스트를 의미한다. 도로 위에 표시되는 객체는 대응하는 차선의 주행 방향(직진, 좌회전, 우회전, 유턴 등), 대응하는 차선의 경유지 또는 목적지 정보, 도로의 분기 여부, 일방 통행 차선 등의 정보를 제공할 수 있다. 객체가 도형으로 표시되는 경우, 제1 제어부(170)는 도형의 모양을 토대로 해당 도형에 대응되어 있는 객체 정보를 획득할 수 있다. 예를 들어, 화살표 모양의 도형이 추출되면, 화살표의 방향에 대응되어 있는 주행 방향을 객체 정보로 획득할 수 있다. 객체가 텍스트로 표시되는 경우, 제1 제어부(170)는 해당 텍스트를 객체 정보로 획득할 수 있다. 예를 들어, 텍스트가 차선의 경유지 또는 목적지를 가리키는 경우, 해당 경유지 또는 목적지를 객체 정보로 획득할 수 있다. 또한 예를 들어, 일방 통행 차선의 경우, 차선에 표시된 텍스트를 분석하여 일방 통행 차선임을 나타내는 객체 정보를 획득할 수도 있다. 제1 제어부(170)는 객체 정보를 획득하기 위해 영상으로부터 도로가 표시되는 도로 영역을 추출할 수 있으며, 추출된 도로 영역 내에서 차선과 구분되는 객체를 추출할 수 있다. 여기서, 제1 제어부(170)는 영상 내 위치, 표시 형태 등을 토대로 차선과 객체를 구분할 수 있다. Lane information may include object information related to at least one object displayed on the road. Here, the object is distinguished from the lane marking line and refers to a non-text figure (for example, an arrow) or text displayed on the road to provide information related to the corresponding road or the corresponding lane. The object displayed on the road may provide information such as a driving direction (forward, left, right, u-turn, etc.) of the corresponding lane, information on the waypoint or destination of the corresponding lane, whether the road is branched, and one-way lane. When the object is displayed as a figure, the first controller 170 may obtain object information corresponding to the figure based on the shape of the figure. For example, when an arrow-shaped figure is extracted, the driving direction corresponding to the direction of the arrow may be obtained as object information. When the object is displayed as text, the first controller 170 may obtain the text as object information. For example, if the text indicates a waypoint or destination in a lane, the waypoint or destination may be acquired as object information. In addition, for example, in the case of a one-way lane, the object information indicating that the one-way lane may be obtained by analyzing text displayed on the lane. The first controller 170 may extract a road area displaying a road from an image to obtain object information, and may extract an object distinguished from a lane from the extracted road area. Here, the first controller 170 may distinguish the lane from the object based on the position in the image, the display form, and the like.

도 8은 도로에 표시되는 객체의 일 예를 도시한 것이다. 도 8을 참조하면, 영상(8)에 포함되는 도로에는 차선을 구분하기 위한 표시선(8a) 이외에도 화살표 형태의 제1 객체(8b) 및 텍스트 형태의 제2 객체(8c)가 표시된다. 도 8에서는 비 텍스트 형태의 객체(8b)와 텍스트 형태의 객체(8c)가 결합되어 표시되는 경우를 예로 들어 설명하였으나, 본 발명은 비 텍스트 형태의 객체와 텍스트 형태의 객체 중 어느 하나만이 도로 상에 표시되는 경우에도 적용이 가능하다. 8 illustrates an example of an object displayed on a road. Referring to FIG. 8, the road included in the image 8 displays the first object 8b in the form of an arrow and the second object 8c in the form of a text, in addition to the display line 8a for distinguishing a lane. In FIG. 8, a case in which the non-text type object 8b and the text type object 8c are combined and displayed is described as an example. However, in the present invention, only one of the non-text type object and the text type object is displayed on the road. Applicable even if indicated in.

제1 제어부(170)는 전술한 차선 인식 방법에서와 같이, 다양한 필터링 알고리즘을 이용하여 영상으로부터 도로 위에 표시된 객체 정보를 획득할 수 있다. 예를 들어, 제1 제어부(170)는 에지 필터를 이용하여 영상으로부터 도로 위에 표시된 객체를 인식할 수 있다. 에지 필터를 이용하는 경우, 제1 제어부(170)는 차선 표시선을 검출 시와 마찬가지로 영상에 포함된 각 픽셀의 명도 값을 이용하여 영상에서 경계를 이루는 부분을 검색한다. 그리고, 검색된 경계 부분을 토대로 영상으로부터 객체를 추출한다. 객체는 표시 형태, 표시 위치 등을 토대로 차선 표시선과 구분될 수 있다. 한편, 에지 필터를 이용하여 객체가 표시된 객체를 인식하는 방법은, 객체를 인식하는 방법의 일 예로서, 본 문서에 개시되는 내비게이션 시스템(10)은 에지 필터를 이용한 방법 이외에도 다양한 필터링 알고리즘을 이용하여 영상에 포함된 객체를 추출할 수 있다. 객체가 추출되면, 제1 제어부(170)는 추출된 객체의 외곽선을 토대로 객체의 표시 형태(예를 들어, 화살표, 텍스트 등), 객체가 텍스트인 경우 대응하는 텍스트 등을 포함하는 객체 정보를 획득할 수 있다. As in the lane recognition method described above, the first controller 170 may obtain object information displayed on a road from an image by using various filtering algorithms. For example, the first controller 170 may recognize an object displayed on a road from an image by using an edge filter. When the edge filter is used, the first controller 170 searches for a boundary of the image by using brightness values of each pixel included in the image, as in detecting the lane display line. The object is extracted from the image based on the retrieved boundary part. The object may be distinguished from the lane display line based on the display type, the display position, and the like. Meanwhile, a method of recognizing an object on which an object is displayed using an edge filter is an example of a method of recognizing an object. The navigation system 10 disclosed in this document uses various filtering algorithms in addition to a method using an edge filter. The objects included in the image can be extracted. When the object is extracted, the first controller 170 obtains object information including a display form of the object (eg, an arrow, text, etc.) and corresponding text when the object is text, based on the extracted outline of the object. can do.

한편, 영상에 복수 개의 차선이 포함되는 경우, 제1 제어부(170)는 복수 개의 차선 중 차량이 주행 중인 차선을 인식하고, 주행 중인 차선에 표시된 객체를 인식할 수도 있다. 제1 제어부(170)는 전술한 바와 같이, 차량이 주행 중인 차선의 차선 표시선을 인지하면, 영상으로부터 차량이 주행 중인 차선 영역을 획득할 수 있다. 즉, 차량이 주행 중인 차선의 표시선 사이의 영역을 현재 주행 중인 차선으로 인지한다. 그리고, 이를 토대로 주행 중인 차선에 표시되는 영역과 이웃하는 차선에 표시되는 객체를 구분하는 것이 가능하다. Meanwhile, when a plurality of lanes are included in the image, the first controller 170 may recognize a lane in which the vehicle is driving among the plurality of lanes, and may recognize an object displayed on the driving lane. As described above, when the first controller 170 recognizes a lane display line of a lane in which the vehicle is driving, the first controller 170 may acquire a lane area in which the vehicle is driving from the image. That is, the area between the display lines of the lane on which the vehicle is traveling is recognized as the lane currently being driven. Based on this, it is possible to distinguish an area displayed on a driving lane from an object displayed on a neighboring lane.

영상으로부터 도로 우에 표시된 객체를 추출 시, 차량용 내비게이션(100)은 객체 인식률을 상승시키고, 객체 정보의 정확도를 상승시키기 위해, 기 저장된 후보 객체들을 이용할 수도 있다. 이 경우, 제1 저장부(150)는 영상에서 추출된 객체의 비교대상이 되는 후보 객체들을 관리하기 위한 후보 객체 데이터베이스를 저장한다. 또한, 후보 객체 데이터베이스에 포함되는 각 후보 객체에 대해 대응하는 객체 정보를 미리 저장할 수도 있다. 또한, 후보 객체 데이터베이스에 저장되는 각 후보 객체에 대해 대응하는 위치 데이터를 저장할 수도 있다. When extracting an object displayed on the road from an image, the vehicle navigation apparatus 100 may use previously stored candidate objects to increase the object recognition rate and increase the accuracy of the object information. In this case, the first storage unit 150 stores a candidate object database for managing candidate objects to be compared with the objects extracted from the image. In addition, object information corresponding to each candidate object included in the candidate object database may be stored in advance. Also, location data corresponding to each candidate object stored in the candidate object database may be stored.

도 9는 후보 객체 데이터베이스를 이용하여 객체 정보를 획득하는 일 예를 도시한 흐름도이다. 도 9를 참조하면, 제1 제어부(170)는 차량의 주행과 관련된 영상으로부터 객체가 추출되면(S301), 제1 저장부(150)에 저장된 후보 객체 데이터베이스를 이용하여 추출된 객체와의 매칭 과정을 수행한다(S302). 즉, 후보 객체 데이터베이스에 기 저장된 후보 객체들 중 영상으로부터 추출된 객체에 기 설정된 비율 이상 매칭되는 후보 객체를 검색한다. 매칭되는 후보 객체가 검색되면, 제1 제어부(170)는 해당 후보 객체를 이용하여 객체 정보를 획득한다(S303). 예를 들어, 제1 제어부(170)는 매칭되는 후보 객체에 대응하는 객체 정보를 제1 저장부(150)로부터 읽어올 수 있다. 또한, 예를 들어, 제1 제어부(170)는 매칭되는 후보 객체를 이용하여 텍스트를 인식하거나, 해당 후보 객체가 나타내는 도형 등을 분석하여, 객체 정보를 획득할 수도 있다. 한편, 후보 객체 데이터베이스에 기 저장된 후보 객체들 중 추출된 객체와 매칭되는 후보 객체가 존재하지 않는 경우, 제1 제어부(170)는 추출된 후보 객체를 무시할 수도 있다. 도로 상에 표시되는 모든 객체들이 후보 객체 데이터베이스에 후보 객체로 저장되는 경우, 제1 제어부(170)는 영상으로부터 추출된 객체와 매칭되는 후보 객체가 존재하지 않으면, 영상으로부터 추출된 객체가 잘못된 객체이거나 인식 불가한 객체로 판단하고, 이를 무시하거나 객체 인식이 실패하였음을 알리는 안내 정보를 출력할 수도 있다. 9 is a flowchart illustrating an example of obtaining object information using a candidate object database. Referring to FIG. 9, when an object is extracted from an image related to driving of a vehicle (S301), the first controller 170 matches a extracted object with a candidate object database stored in the first storage unit 150. It performs (S302). That is, a candidate object matching a predetermined ratio or more to an object extracted from an image among the candidate objects previously stored in the candidate object database is searched for. When a matching candidate object is found, the first controller 170 obtains object information using the corresponding candidate object (S303). For example, the first controller 170 may read object information corresponding to the matching candidate object from the first storage unit 150. Also, for example, the first controller 170 may acquire text information by recognizing text using a matching candidate object, or analyzing a figure represented by the candidate object. Meanwhile, when there is no candidate object matching the extracted object among the candidate objects previously stored in the candidate object database, the first controller 170 may ignore the extracted candidate object. When all the objects displayed on the road are stored as candidate objects in the candidate object database, the first controller 170 may determine that the object extracted from the image is an incorrect object if there is no candidate object matching the object extracted from the image. It may be determined that the object is not recognized, and may ignore the information or output guide information indicating that object recognition has failed.

도 10은 후보 객체 데이터베이스를 이용하여 객체 정보를 획득하는 다른 예를 도시한 흐름도이다. 도 10을 참조하면, 제1 제어부(170)는 차량의 주행과 관련된 영상으로부터 객체를 추출하고(S401), 제1 위치 데이터 모듈(111)을 통해 차량의 현재 위치 데이터를 획득한다(S402). 또한, 제1 제어부(170)는 제1 저장부(150)에 저장된 후보 객체 데이터베이스를 이용하여 추출된 객체의 매칭 과정을 수행한다(S403). 여기서, 제1 저장부(170)는 차량의 현재 위치를 토대로, 후보 객체 데이터베이스에 저장된 후보 객체들 중 일부만을 비교대상으로 선택한다. 즉, 후보 객체 데이터베이스에 저장되는 후보 객체들 중 차량의 현재 위치에 대응되는 후보 객체들만을 비교 대상으로 선택한다. 비교 대상으로 선택된 후보 객체들 중 추출된 객체와 매칭되는 후보 객체가 검색되면, 제1 제어부(170)는 해당 후보 객체를 이용하여 객체 정보를 획득한다(S404). 여기서, 객체 정보를 획득하는 방법은 전술한 도 9에 도시된 객체 정보 획득 방법과 유사하므로, 아래에서는 상세한 설명을 생략한다. 10 is a flowchart illustrating another example of obtaining object information using a candidate object database. Referring to FIG. 10, the first controller 170 extracts an object from an image related to driving of the vehicle (S401) and obtains current position data of the vehicle through the first position data module 111 (S402). In addition, the first controller 170 performs a matching process on the extracted objects using the candidate object database stored in the first storage unit 150 (S403). Here, the first storage unit 170 selects only some of the candidate objects stored in the candidate object database for comparison based on the current position of the vehicle. That is, only candidate objects corresponding to the current position of the vehicle among the candidate objects stored in the candidate object database are selected for comparison. When a candidate object matching the extracted object among the candidate objects selected for comparison is found, the first controller 170 obtains object information using the corresponding candidate object (S404). Here, the method of acquiring the object information is similar to the method of acquiring the object information shown in FIG. 9 described above, and thus a detailed description thereof will be omitted.

도 9 및 도 10에 도시된 바와 같이, 본 발명의 일 실시 예에 따른 차량용 내비게이션(100)은 도로 상에 표시되는 객체들을 비교 대상으로 미리 저장하고, 영상으로부터 추출되는 객체를 기 저장된 후보 객체들과 매칭시키는 과정을 수행함으로써, 객체 인식률을 높이고, 객체 정보의 정확도를 향상시킬 수 있다. As shown in FIG. 9 and FIG. 10, the vehicle navigation apparatus 100 according to an embodiment of the present invention pre-stores objects displayed on a road as a comparison target, and previously stored candidate objects extracted from an image. By performing the process of matching with, it is possible to increase the object recognition rate and improve the accuracy of the object information.

다시, 도 6을 보면, 차선 정보를 획득한 제1 제어부(170)는 이를 이용하여 경로 재 탐색 여부를 판단한다(S104). 그리고, 경로 재 탐색이 필요하다고 판단되면(S105), 차량의 위치 데이터를 토대로 목적지까지의 이동 경로를 산출하는 경로 탐색을 다시 수행한다(S106). Referring back to FIG. 6, the first controller 170 acquiring the lane information determines whether to re-route the route using the same (S104). If it is determined that the route re-search is necessary (S105), the route search for calculating the moving route to the destination is again performed based on the position data of the vehicle (S106).

S104 단계에서, 제1 제어부(170)는 차량의 주행 영상으로부터 획득한 객체 정보와 차량의 경로 정보를 토대로 경로 재 탐색 여부를 판단할 수 있다. 제1 제어부(170)는 사용자 입력 모듈(121)을 통해 입력된 목적지 데이터와 제1 위치 데이터 모듈(111)을 통해 획득되는 현재 차량의 위치 데이터를 토대로 산출된 차량의 이동 경로를 토대로 경로 정보를 생성한다. 또한, 제1 제어부(170)는 차량의 주행 영상으로부터 차선의 주행 방향을 안내하기 위해 도로 위에 표시되는 객체들을 추출하고, 추출된 객체를 분석하여 차량이 주행 중인 차선의 주행 방향을 획득할 수 있다. 또한, 제1 제어부(170)는 경로 정보를 토대로 골목길, 교차로, 분기점 등에서의 차량의 주행 방향을 미리 예측할 수 있다. 제1 제어부(170)는 경로 정보를 토대로 미리 예측한 차량의 주행 방향을 차량이 현재 주행 중인 차선의 주행 방향과 비교하여, 차량이 현재 올바른 차선으로 주행 중인지 판단한다. 그리고, 올바른 차선으로 주행 중이지 않은 경우, 목적지까지의 경로를 재 탐색한다. In operation S104, the first controller 170 may determine whether to re-route the route based on the object information obtained from the driving image of the vehicle and the route information of the vehicle. The first controller 170 may generate route information based on a moving route of the vehicle calculated based on the destination data input through the user input module 121 and the position data of the current vehicle acquired through the first position data module 111. Create In addition, the first controller 170 may extract the objects displayed on the road to guide the driving direction of the lane from the driving image of the vehicle, and analyze the extracted objects to obtain the driving direction of the lane in which the vehicle is driving. . In addition, the first controller 170 may predict the driving direction of the vehicle in the alley, the intersection, the branch point, etc. based on the route information. The first controller 170 determines whether the vehicle is currently driving in the correct lane by comparing the driving direction of the vehicle previously predicted based on the route information with the driving direction of the lane in which the vehicle is currently driving. If the vehicle is not driving in the correct lane, the route to the destination is searched again.

도 11은 차량이 주행 중인 차선의 주행 방향을 토대로 경로 재 탐색 여부를 결정하는 일 예를 도시한 흐름도이다. 도 11을 참조하면, 제1 제어부(170)는 경로 정보를 이용하여 예측한 주행 방향과 차량이 주행 중인 차선의 주행 방향을 비교한다(S501). 그리고, 이를 토대로 차량이 올바른 차선으로 주행 중인지 판단하고, 차량이 올바른 주행 차선으로 주행 중이지 않은 경우(S502), 제1 제어부(170)는 경로 재 탐색을 결정한다(S503). 예를 들어, 경로 정보에 의하면 분기점에서 제1 방향으로 주행해야 하나, 현재 차량이 분기점에서 제2 방향으로 주행 중인 경우, 제1 제어부(170)는 경로 재 탐색을 결정한다. 도 12에서는, 경로 정보에 따른 주행 방향과 현재 주행 중인 차선의 주행 방향이 다른 경우, 바로 경로 재 탐색을 결정하나, 본 발명은 이에 한정되지 않는다. FIG. 11 is a flowchart illustrating an example of determining whether to re-route a route based on a driving direction of a lane in which a vehicle is driving. Referring to FIG. 11, the first controller 170 compares the driving direction predicted using the route information with the driving direction of the lane in which the vehicle is traveling (S501). Then, based on this, it is determined whether the vehicle is driving in the correct lane, and if the vehicle is not driving in the correct driving lane (S502), the first controller 170 determines the route re-search (S503). For example, according to the route information, although the vehicle must travel in the first direction from the branch point, when the vehicle is currently traveling in the second direction from the branch point, the first controller 170 determines the route re-search. In FIG. 12, when the driving direction according to the route information is different from the driving direction of the currently driving lane, the route rescan is immediately determined, but the present invention is not limited thereto.

도 12는 차량이 주행 중인 차선의 주행 방향을 토대로 경로 재 탐색 여부를 결정하는 다른 예를 도시한 흐름도이다. 도 11을 참조하면, 제1 제어부(170)는 경로 정보를 이용하여 예측한 주행 방향과 차량이 주행 중인 차선의 주행 방향을 비교한다(S601). 그리고, 이를 토대로 차량이 올바른 차선으로 주행 중인지 판단하고, 차량이 올바른 주행 차선으로 주행 중이지 않은 경우(S602), 제1 제어부(170)는 차선 변경을 안내하는 정보를 출력한다(S603). 예를 들어, 경로 정보를 이용하여 예측한 주행 방향은 다음 교차로에서의 좌회전에 대응되나, 현재 차량이 직진 차선으로 주행 중인 경우, 제1 제어부(170)는 좌회전 차선으로의 차선 변경을 유도하는 안내 정보를 출력한다. 차선 변경을 유도하는 정보를 출력 후, 기 설정된 시간 이내에 또는 특정 영역을 통과하기 전까지 올바른 차선으로의 차선 변경이 수행되지 않는 경우, 제1 제어부(170)는 경로 재 탐색을 결정한다(S604). 여기서, 특정 영역은, 교차로, 분기점 등을 포함할 수 있다. 또한, 차선 변경 여부는 차량의 주행 영상으로부터 획득한 차선 정보를 토대로 판단할 수 있다. 12 is a flowchart illustrating another example of determining whether to re-route a route based on a driving direction of a lane in which a vehicle is driving. Referring to FIG. 11, the first controller 170 compares the driving direction predicted using the route information with the driving direction of the lane in which the vehicle is driving (S601). Then, based on this, it is determined whether the vehicle is driving in the correct lane, and if the vehicle is not driving in the correct driving lane (S602), the first controller 170 outputs information for guiding the lane change (S603). For example, the driving direction predicted using the route information corresponds to the left turn at the next intersection, but when the vehicle is currently driving in the straight lane, the first controller 170 guides the lane change to the left turn lane. Print information. If the lane change to the correct lane is not performed within the preset time or after passing the specific area after outputting the lane change information, the first controller 170 determines the route rescanning (S604). Here, the specific area may include an intersection, a branch point, and the like. In addition, whether the lane is changed may be determined based on lane information acquired from the driving image of the vehicle.

한편, 실제 도로 상에 주행 방향이 동일한 복수 개의 차선이 존재하는 경우, 제1 제어부(170)는 영상으로부터 획득한 차선의 색상 정보를 이용하여 차량이 현재 몇 차선으로 주행 중인지 판단할 수도 있다. 서로 반대 방향으로 주행하는 차선을 구분하기 위한 중앙선의 경우, 다른 차선 표시 선과 색상이 서로 다르다. 따라서, 제1 제어부(170)는 영상으로부터 획득한 차선의 색상 정보를 토대로, 현재 주행 중인 차선의 차선 표시선이 중앙선인지 또는, 중앙선으로부터 몇 번째 위치하는 차선 표시선인지를 인지한다. 그리고, 이를 토대로 차량이 현재 몇 차선으로 주행 중인지 판단할 수 있다. Meanwhile, when there are a plurality of lanes having the same driving direction on the actual road, the first controller 170 may determine which lane the vehicle is currently driving by using color information of the lane obtained from the image. In the case of the center line for distinguishing lanes traveling in opposite directions, the colors of the other lane marking lines are different. Accordingly, the first controller 170 recognizes whether the lane display line of the currently running lane is the center line or the lane display line located from the center line based on the color information of the lane obtained from the image. Based on this, it is possible to determine in which lane the vehicle is currently driving.

다시, 도 6을 보면, S106 단계에서, 제1 제어부(170)는 차량이 현재 주행 중인 차선의 주행 방향을 토대로 경로를 재 탐색할 수 있다. 즉, 제1 제어부(170)는 차량이 현재 주행 중인 차선의 주행 방향이 경로 정보에 따른 주행 방향과 다른 경우, 차량이 현재 주행 중인 차선의 주행 방향으로 계속 주행하는 경우의 경로 정보를 산출하도록 경로를 재 탐색한다. Referring back to FIG. 6, in step S106, the first controller 170 may re-search the route based on the driving direction of the lane in which the vehicle is currently driving. That is, when the driving direction of the lane in which the vehicle is currently traveling is different from the driving direction according to the route information, the first controller 170 calculates route information when the vehicle continues to travel in the driving direction of the currently driving lane. Rescan.

일반적으로, 인공 위성으로부터 수신되는 위치 데이터를 이용하여 차량의 경로 이탈을 감지하는 경우, 인공 위성으로부터 위치 데이터를 수신하기까지의 지연으로 인해, 경로 이탈을 감지하기까지의 시간이 오래 걸리는 문제점이 발생하였다. 그러나, 전술한 본 발명의 일 실시 예에 따르면, 내비게이션 시스템(10)은 도로 위에 표시된 객체를 이용하여 실시간으로 차량의 주행 방향을 감지하고, 이를 토대로 차량의 경로 이탈을 감지할 수 있어, 차량이 올바른 주행 방향으로 주행하지 않는 경우, 경로 재 탐색 여부를 빠르게 결정할 수 있다.In general, when detecting a path deviation of a vehicle by using location data received from a satellite, a problem in that it takes a long time to detect a path deviation due to a delay before receiving location data from the satellite. It was. However, according to the embodiment of the present invention described above, the navigation system 10 detects the driving direction of the vehicle in real time by using the object displayed on the road, and based on this can detect the deviation of the vehicle route, If you are not driving in the correct driving direction, you can quickly decide whether to re-route your route.

본 발명의 실시 예는 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터로 읽을 수 있는 매체(media)를 포함한다. 이 매체는 지금까지 설명한 경로 안내 방법을 실행시키기 위한 프로그램을 기록한다. 이 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이러한 매체의 예에는 하드 디스크(hard disk), 플로피 디스크(floppy disk) 및 자기 테이프(magnetic tape)와 같은 자기 매체(magnetic media), CD 및 DVD와 같은 광 기록 매체(optical recording media), 롬(ROM), 램(RAM), 플래시 메모리(flash memory) 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치 등이 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함한다.Embodiments of the present invention include a computer readable medium containing program instructions for performing various computer-implemented operations. This medium records a program for executing the route guidance method described so far. The media may include, alone or in combination with the program instructions, data files, data structures, and the like. Examples of such media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CDs and DVDs, and ROMs. Hardware devices configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like.

본 발명은 기재된 실시 예들에 한정되는 것이 아니고, 본 발명의 사상 및 범위를 벗어나지 않고 다양하게 수정 및 변형할 수 있음은 이 기술의 분야에서 통상의 지식을 가진 자에게 자명하다. 따라서, 그러한 수정 예 또는 변형 예들은 본 발명의 특허청구범위에 속한다 하여야 할 것이다.It is apparent to those skilled in the art that the present invention is not limited to the described embodiments, and that various modifications and changes can be made without departing from the spirit and scope of the present invention. Therefore, such modifications or variations will have to be belong to the claims of the present invention.

10 : 차량 안내 방법을 구현하기 위한 시스템
100 : 제1 전자 기기 110 : 제1 통신부
111 : 제1 위치 데이터 모듈 113 : 제1 무선 인터넷 모듈
115 : 방송 수신 모듈 117 제1 근거리 통신 모듈
119 : 제1 유선 통신 모듈 120 : 제1 입력부
121 : 제1 사용자 입력 모듈 123 : 제1 마이크
130 : 제1 센싱부 131 : 제1 모션 센싱 모듈
133 : 광 센싱 모듈 140 : 출력부
141 : 디스플레이 모듈 143 : 오디오 출력 모듈
145 : 디스플레이부 150 : 제1 저장부
160 : 전원부 170 : 제1 제어부
191 : 내비게이션 하우징 193 : 내비게이션 조작키
195 : 내비게이션 마이크 200 : 제2 전자 기기
210 : 제2 통신부 211 : 제2 위치 데이터 모듈
213 : 제2 무선 인터넷 모듈 217 : 제2 근거리 통신 모듈
219 : 제2 유선 통신 모듈 220 : 제2 입력부
221 : 제2 사용자 입력 모듈 223 : 제2 마이크
225 : 카메라 230 : 제2 센싱부
231 : 제2 모션 센싱 모듈 250 : 제2 저장부
260 : 제2 전원부 270 : 제2 제어부
10: system for implementing a vehicle guidance method
100: first electronic device 110: first communication unit
111: first location data module 113: first wireless internet module
115: broadcast receiving module 117 first short-range communication module
119: first wired communication module 120: first input unit
121: first user input module 123: first microphone
130: first sensing unit 131: first motion sensing module
133: light sensing module 140: output unit
141: display module 143: audio output module
145: display unit 150: first storage unit
160: power supply unit 170: first control unit
191: navigation housing 193: navigation operation keys
195: navigation microphone 200: second electronic device
210: second communication unit 211: second position data module
213: second wireless Internet module 217: second short-range communication module
219: second wired communication module 220: second input unit
221: second user input module 223: second microphone
225 camera 230: second sensing unit
231: second motion sensing module 250: second storage
260: second power supply unit 270: second control unit

Claims (17)

전자 기기를 이용한 경로 안내 방법에 있어서,
이동체의 위치 데이터를 기초로 목적지까지의 경로를 탐색하여 제1 경로 정보를 생성하는 단계;
상기 이동체의 주행 영상을 획득하는 단계;
상기 획득된 주행 영상으로부터 상기 이동체가 주행 중인 도로에 표시된 객체의 정보를 획득하는 단계;
상기 객체의 정보를 기초로 상기 이동체가 주행 중인 차로의 주행 방향을 결정하는 단계;
상기 제1 경로 정보를 기초로 상기 이동체가 주행할 골목길, 분기점 또는 교차로에서의 상기 이동체의 주행 방향을 예측하는 단계; 및
상기 예측된 골목길, 분기점 또는 교차로에서의 주행 방향과 상기 이동체가 주행 중인 차로의 주행 방향을 비교하는 단계; 및
상기 이동체가 주행 중인 차로의 주행 방향이 상기 예측된 상기 골목길, 분기점 또는 교차로의 주행 방향과 다른 경우, 경로 재 탐색을 결정하는 단계;
상기 경로 재 탐색시, 상기 이동체가 주행 중인 차로의 주행 방향으로 계속 주행하는 경우의 상기 목적지까지의 제2 경로 정보를 생성하고, 상기 생성된 제2 경로 정보를 기초로 경로 안내를 수행하는 단계;를 포함하고,
상기 객체는 상기 이동체가 주행하는 도로에 표시된 비 텍스트 형태의 도형 또는 텍스트인 것을 특징으로 하는 경로 안내 방법.
In the route guidance method using an electronic device,
Generating first route information by searching for a route to a destination based on the position data of the moving object;
Obtaining a driving image of the moving object;
Obtaining information of an object displayed on a road on which the moving object is driven from the obtained driving image;
Determining a driving direction of a lane on which the moving object is driven based on the information of the object;
Estimating a driving direction of the moving object at an alley, a junction or an intersection on which the moving object will travel based on the first path information; And
Comparing the driving direction at the predicted alley, branch or intersection with the driving direction of the lane on which the moving object is driven; And
Determining a route re-search if the driving direction of the lane in which the moving object is traveling is different from the predicted driving direction of the alley, branch point or intersection;
Generating second route information to the destination when the moving object continues to travel in a driving direction of a driving lane, and performing route guidance based on the generated second route information; Including,
The object is a route guidance method, characterized in that the non-text figure or text displayed on the road on which the moving object travels.
제1항에 있어서,
상기 비 텍스트 형태의 도형은 차로가 직진 차로인지, 좌회전 차로인지, 우회전 차로인지 또는 유턴 차로인지를 나타내는 화살표 모양의 도형인 것을 특징으로 하는 경로 안내 방법.
The method of claim 1,
The non-text figure is a route guide method characterized in that the arrow-shaped figure indicating whether the lane is a straight lane, left turn lane, right turn lane or U-turn lane.
제1항에 있어서,
상기 텍스트는 차로의 경유지 또는 목적지를 가리키는 단어인 것을 특징으로 하는 경로 안내 방법.
The method of claim 1,
The text is a route guidance method characterized in that a word indicating a waypoint or destination by car.
삭제delete 제1항에 있어서,
상기 경로 탐색을 다시 수행하는 단계는,
상기 이동체가 주행 중인 차로의 주행 방향이 제1 방향이고 상기 이동체가 주행할 상기 골목길, 분기점 또는 교차로의 주행 방향이 제2 방향인 경우, 상기 이동체가 올바른 차로에서 주행 중이지 않는 것으로 판단하고, 상기 목적지까지의 경로를 재 탐색하는 단계;를 더 포함하는 것을 특징으로 하는 경로 안내 방법.
The method of claim 1,
The step of performing the route search again,
When the driving direction of the lane in which the moving object is traveling is the first direction and the driving direction of the alley, the branch point or the intersection where the moving object is to be driven is the second direction, it is determined that the moving body is not traveling in the correct lane. Re-discovering the route to the destination; Route guidance method further comprising.
제1항에 있어서,
상기 경로 탐색을 다시 수행하는 단계는,
상기 이동체가 올바른 차로에서 주행 중이지 않은 경우, 차로 변경을 안내하는 정보를 출력하는 단계; 및
상기 차로 변경을 유도하는 정보를 출력 후, 기 설정된 시간 이내에 또는 특정 영역을 통과하기 전까지 올바른 차로로 차로 변경이 수행되지 않는 경우, 경로를 재 탐색하는 단계;를 더 포함하는 것을 특징으로 하는 경로 안내 방법.
The method of claim 1,
The step of performing the route search again,
Outputting information for guiding a lane change when the moving object is not driving in the correct lane; And
Re-finding the route if the lane change is not performed within a predetermined time period or after the information for inducing the lane change is output within a preset time or until a specific area is passed. Way.
제6항에 있어서,
상기 경로 탐색을 다시 수행하는 단계는,
상기 차로 변경 여부를 상기 이동체의 주행 영상으로부터 획득한 차선 정보를 기초로 판단하는 단계;를 더 포함하는 것을 특징으로 하는 경로 안내 방법.
The method of claim 6,
The step of performing the route search again,
And determining whether to change the lane on the basis of lane information obtained from the driving image of the moving object.
삭제delete 전자 기기에 있어서,
이동체의 위치 데이터를 획득하는 위치 데이터부;
상기 획득된 위치 데이터를 기초로 목적지까지의 경로를 탐색하여 제1 경로 정보를 생성하는 경로 탐색부;
상기 이동체의 주행 영상을 획득하는 주행 영상 획득부; 및
상기 획득된 주행 영상으로부터 상기 이동체가 주행 중인 도로에 표시된 객체의 정보를 획득하고, 상기 객체의 정보를 기초로 상기 이동체가 주행 중인 차로의 주행 방향을 결정하며, 상기 제1 경로 정보를 기초로 상기 이동체가 주행할 골목길, 분기점 또는 교차로에서의 상기 이동체의 주행 방향을 예측하고, 상기 예측된 골목길, 분기점 또는 교차로에서의 주행 방향과 상기 이동체가 주행 중인 차로의 주행 방향을 비교하며, 상기 이동체가 주행 중인 차로의 주행 방향이 상기 예측된 상기 골목길, 분기점 또는 교차로의 주행 방향과 다른 경우, 경로 재 탐색을 결정하고, 상기 경로 재 탐색시, 상기 이동체가 주행 중인 차로의 주행 방향으로 계속 주행하는 경우의 상기 목적지까지의 제2 경로 정보를 생성하도록 상기 경로 탐색부를 제어하고, 상기 생성된 제2 경로 정보를 기초로 경로 안내를 수행하도록 제어하는 제어부;를 포함하고,
상기 객체는 상기 이동체가 주행하는 도로에 표시된 비 텍스트 형태의 도형 또는 텍스트인 것을 특징으로 하는 전자 기기.
In an electronic device,
A position data unit for obtaining position data of the moving object;
A route searching unit searching for a route to a destination based on the obtained position data and generating first route information;
A driving image obtaining unit obtaining a driving image of the moving object; And
Acquires information of an object displayed on a road on which the moving object is driven from the obtained driving image, determines a driving direction of a lane on which the moving object is driven based on the information of the object, and based on the first path information Predict a driving direction of the moving object at an alley, a junction or an intersection on which the moving object will travel, compare the driving direction at the predicted alley, a branching point or an intersection with a driving direction of the lane in which the moving object is traveling, and the moving object is driven When the driving direction of the currently traveling lane is different from the predicted driving direction of the alley, the branch point or the intersection, the route rescan is determined, and when the route rescanning, the moving body continues to travel in the driving direction of the driving lane. Control the route search unit to generate second route information to the destination, and generate And a controller configured to perform route guidance based on the second route information.
The object is an electronic device, characterized in that the figure or text in the form of a non-text displayed on the road on which the moving object travels.
제9항에 있어서,
상기 비 텍스트 형태의 도형은 차로가 직진 차로인지, 좌회전 차로인지, 우회전 차로인지 또는 유턴 차로인지를 나타내는 화살표 모양의 도형인 것을 특징으로 하는 전자 기기.
The method of claim 9,
And the non-text figure is an arrow-shaped figure indicating whether the lane is a straight lane, a left turn lane, a right turn lane or a u-turn lane.
제9항에 있어서,
상기 텍스트는 차로의 경유지 또는 목적지를 가리키는 단어인 것을 특징으로 하는 전자 기기.
The method of claim 9,
And the text is a word indicating a waypoint or a destination by car.
삭제delete 제9항에 있어서,
상기 제어부는,
상기 이동체가 주행 중인 차로의 주행 방향이 제1 방향이고 상기 이동체가 주행할 상기 골목길, 분기점 또는 교차로의 주행 방향이 제2 방향인 경우, 상기 이동체가 올바른 차로에서 주행 중이지 않는 것으로 판단하고, 상기 목적지까지의 경로를 재 탐색하도록 상기 경로 탐색부를 제어하는 것을 특징으로 하는 전자 기기.
The method of claim 9,
The control unit,
When the driving direction of the lane in which the moving object is traveling is the first direction and the driving direction of the alley, the branch point or the intersection where the moving object is to be driven is the second direction, it is determined that the moving body is not traveling in the correct lane. And control the route search unit to re-route the route to a destination.
제9항에 있어서,
상기 제어부는,
상기 이동체가 올바른 차로에서 주행 중이지 않은 경우, 차로 변경을 안내하는 정보를 출력하도록 출력부를 제어하고,
상기 차로 변경을 유도하는 정보를 출력 후, 기 설정된 시간 이내에 또는 특정 영역을 통과하기 전까지 올바른 차로로 차로 변경이 수행되지 않는 경우, 경로를 재 탐색하도록 상기 경로 탐색부를 제어하는 것을 특징으로 하는 전자 기기.
The method of claim 9,
The control unit,
If the moving object is not driving in the correct lane, and controls the output unit to output information for guiding the lane change,
And outputting the information for inducing the lane change, and controlling the route search unit to re-route the route when the lane change is not performed within the correct lane within a preset time or until passing through a specific area. .
제9항에 있어서,
상기 제어부는,
상기 차로 변경 여부를 상기 이동체의 주행 영상으로부터 획득한 차선 정보를 기초로 판단하는 것을 특징으로 하는 전자 기기.
The method of claim 9,
The control unit,
And determining whether to change the lane on the basis of lane information acquired from the driving image of the moving object.
삭제delete 제1항, 제2항, 제3항, 제5항, 제6항 및 제7항 중 어느 한 항에 기재된 경로 안내 방법을 수행하기 위한 프로그램이 된 컴퓨터 판독 가능한 기록 매체.A computer-readable recording medium having a program for performing the route guidance method according to any one of claims 1, 2, 3, 5, 6, and 7.
KR1020180084573A 2018-07-20 2018-07-20 Electronic device and course guide method of electronic device KR102041300B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180084573A KR102041300B1 (en) 2018-07-20 2018-07-20 Electronic device and course guide method of electronic device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180084573A KR102041300B1 (en) 2018-07-20 2018-07-20 Electronic device and course guide method of electronic device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020100132405A Division KR20120070887A (en) 2010-12-22 2010-12-22 Electronic device and course guide method of electronic device

Publications (2)

Publication Number Publication Date
KR20180088339A KR20180088339A (en) 2018-08-03
KR102041300B1 true KR102041300B1 (en) 2019-11-06

Family

ID=63250252

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180084573A KR102041300B1 (en) 2018-07-20 2018-07-20 Electronic device and course guide method of electronic device

Country Status (1)

Country Link
KR (1) KR102041300B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005214883A (en) * 2004-01-30 2005-08-11 Denso Corp Car navigation system
JP2006317286A (en) * 2005-05-12 2006-11-24 Denso Corp Onboard navigation device
JP2008076365A (en) * 2006-09-25 2008-04-03 Matsushita Electric Ind Co Ltd Navigation apparatus, navigation method, and navigation program
JP2008187347A (en) * 2007-01-29 2008-08-14 Toshiba Corp On-vehicle navigation system, road marking identifying program and road marking identifying method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100731515B1 (en) * 2005-05-03 2007-06-25 팅크웨어(주) Method and system for navigate route using partial retrieval

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005214883A (en) * 2004-01-30 2005-08-11 Denso Corp Car navigation system
JP2006317286A (en) * 2005-05-12 2006-11-24 Denso Corp Onboard navigation device
JP2008076365A (en) * 2006-09-25 2008-04-03 Matsushita Electric Ind Co Ltd Navigation apparatus, navigation method, and navigation program
JP2008187347A (en) * 2007-01-29 2008-08-14 Toshiba Corp On-vehicle navigation system, road marking identifying program and road marking identifying method

Also Published As

Publication number Publication date
KR20180088339A (en) 2018-08-03

Similar Documents

Publication Publication Date Title
KR101612785B1 (en) Mobile vehicle navigation method and apparatus thereof
KR101729102B1 (en) Navigation method of mobile terminal and apparatus thereof
CN108680173B (en) Electronic device, control method of electronic device, and computer-readable recording medium
KR101646139B1 (en) Navigation method of mobile terminal and apparatus thereof
CN111801636A (en) Method for providing detailed map data and system thereof
JP4994028B2 (en) Gasoline price information collection system, gasoline price information collection method, and navigation apparatus
US20170038219A1 (en) Method and apparatus for predicting destinations
US11073963B2 (en) Method, electronic apparatus and computer readable recording medium for displaying information regarding user's point of interest
KR102123844B1 (en) Electronic apparatus, control method of electronic apparatus and computer readable recording medium
KR20120079341A (en) Method, electronic device and recorded medium for updating map data
EP1873491A1 (en) Navigation device
KR101049372B1 (en) Navigation system, and control method of a navigation device for vehicle
KR20110088603A (en) Navigation system, server connected to the navigation system, and control method of a navigation device for vehicle
KR20120070886A (en) Electronic device and lane guide method of electronic device
KR20120078877A (en) Navigation for vehicel and land departure warning method of navigation for vehicel
KR101911522B1 (en) Electronic device and navigation service method of electronic device
KR102041300B1 (en) Electronic device and course guide method of electronic device
KR20120070887A (en) Electronic device and course guide method of electronic device
KR102058620B1 (en) Electronic device and driving related guidance maethod for moving body
KR101912853B1 (en) Electronic device and lane guide method of electronic device
KR101055155B1 (en) Navigation system, navigation for vehicle and navigation method of navigation for vehicel
KR101906436B1 (en) Driving-related guidance method for a moving body, electronic apparatus and computer-readable recording medium
KR101677618B1 (en) Navigation method of mobile terminal and apparatus thereof
JP2015175818A (en) navigation device
KR20120078876A (en) Electronic device and lane guide method of electronic device

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant