KR20190042120A - Apparatus for smart voice navigation - Google Patents

Apparatus for smart voice navigation Download PDF

Info

Publication number
KR20190042120A
KR20190042120A KR1020170133071A KR20170133071A KR20190042120A KR 20190042120 A KR20190042120 A KR 20190042120A KR 1020170133071 A KR1020170133071 A KR 1020170133071A KR 20170133071 A KR20170133071 A KR 20170133071A KR 20190042120 A KR20190042120 A KR 20190042120A
Authority
KR
South Korea
Prior art keywords
information
navigation
smart voice
image
control unit
Prior art date
Application number
KR1020170133071A
Other languages
Korean (ko)
Inventor
권명규
Original Assignee
권명규
송명석
오자훈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 권명규, 송명석, 오자훈 filed Critical 권명규
Priority to KR1020170133071A priority Critical patent/KR20190042120A/en
Publication of KR20190042120A publication Critical patent/KR20190042120A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3629Guidance using speech or audio output, e.g. text-to-speech
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3644Landmark guidance, e.g. using POIs or conspicuous other objects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Navigation (AREA)

Abstract

The present invention relates to a smart voice navigation comprising: a camera part for photographing an image in front of a vehicle; a control part for generating at least one of direction information or driving information on the basis of the GPS position information, previously stored object information, and the image; and an output part for outputting at least one of the generated route guide information or driving information as a voice.

Description

스마트 보이스 내비게이션 {APPARATUS FOR SMART VOICE NAVIGATION}{APPARATUS FOR SMART VOICE NAVIGATION}

본 발명은 스마트 보이스 내비게이션에 관한 것으로, 상세하게는 GPS(Global Positioning System) 및 차량 정면의 사물 정보에 기반하여 음성 및 헤드업 화면(Head-up Display, HUD)으로 길 안내 서비스를 제공하는, 스마트 보이스 내비게이션에 관한 것이다.The present invention relates to a smart voice navigation system, and more particularly, to a smart voice navigation system that provides a navigation service using a voice and a head-up display (HUD) based on GPS (Global Positioning System) Voice navigation.

목적지만 입력하면 알아서 길을 알려주는 차량용 내비게이션 시스템은 운전자에게 필수적인 도우미로 자리 잡았으며, 최근에는 근처 명소를 제공하는 등 기능도 다양해지고 있다.The car navigation system, which informs the user when the destination is entered, has become an essential helper for the driver.

또한, 인포테인먼트 시스템(Infotainment System)이 급속도로 발전하면서 음악 감상, 전화, 문자, 웹 검색 기능까지 제공하는 첨단 내비게이션이 등장하였다.In addition, with the rapid development of Infotainment System, cutting-edge navigation has emerged that provides music appreciation, phone, text and web search functions.

하지만, 내비게이션이 발전함에 따라, 운전 중 내비게이션 조작에 따른 교통사고가 증가하고 있다.However, with the development of navigation, traffic accidents due to navigation operations during driving are increasing.

미국 자동차 협회(American Automobile Association, AAA)는 내비게이션이 운전자의 주의를 산만하게 한다는 연구 결과를 발표하였고, 우리나라는 운전 중 내비게이션 조작 행위를 범칙금 대상 행위로 지정하였다.The American Automobile Association (AAA) has published a study that shows that navigation distracts the attention of the driver, and Korea has designated navigation act as a penalty.

종래에는 차량의 매립형 내비게이션 장치로서, 내비게이션을 센터페시아(Centerfascia)에 설치하고, 설치 상태를 안정적으로 유지할 수 있는 차량의 매립형 내비게이션 장치가 개시되었다.Conventionally, as a buried navigation device for a vehicle, a buried navigation device for a vehicle has been disclosed in which navigation is installed in a center fascia and the installation state can be stably maintained.

다만, 종래의 매립형 내비게이션은 터치스크린을 통한 비디오 내비게이션으로서, 운전자의 주의를 분산시켜, 교통사고 발생 확률을 증가시키는 문제가 있다.However, the conventional embedded navigation system is a video navigation system through a touch screen, which distracts driver's attention and increases the probability of a traffic accident.

KRKR 10201501795251020150179525 AA

본 발명은 GPS 및 차량 정면의 사물 정보에 기반하여 음성 및 헤드업 화면으로 길 안내 서비스를 제공하여, 사용자가 운전 중 내비게이션 비디오 화면을 보지 않고도 용이하게 운전할 수 있는 스마트 보이스 내비게이션에 관한 것이다.The present invention relates to a smart voice navigation capable of providing a route guidance service to a voice and a head up screen based on GPS and object information on the front of a vehicle and allowing a user to easily operate the navigation screen without looking at a navigation video screen during operation.

본 발명의 일 실시예에 따른 스마트 보이스 네이게이션은, 차량의 전방의 영상을 촬영하는 카메라부; GPS 위치 정보, 기저장된 사물정보 및 상기 영상에 기반하여, 길 안내 정보 또는 주행 정보 중 적어도 하나를 생성하는 제어부; 및 상기 생성된 길 안내 정보 또는 주행 정보 중 적어도 하나를 음성으로 출력하는 출력부를 포함할 수 있다.According to an embodiment of the present invention, there is provided a smart voice navigation system including a camera unit for capturing an image in front of a vehicle; A controller for generating at least one of the GPS position information, the previously stored object information, and the navigation information or the driving information based on the image; And an output unit for outputting at least one of the generated navigation guidance information or the navigation information by voice.

상기 제어부는, 실시간 GPS 위치 정보 및 상기 기저장된 사물정보에 기반하여 길 안내 정보를 생성할 수 있다.The controller may generate the route guidance information based on the real time GPS position information and the previously stored object information.

상기 제어부는, 상기 영상에 포함된 사물 및 건물의 정보를 인식하고, 상기 인식된 정보에 기반하여 상기 생성된 길 안내 정보를 갱신할 수 있다.The control unit recognizes information of objects and buildings included in the image, and updates the generated guidance information based on the recognized information.

상기 제어부는, 상기 영상에 포함된 날씨 및 특정 이벤트의 정보를 인식하고, 상기 인식된 정보에 기반하여 주행 정보를 생성할 수 있다.The control unit may recognize the weather and the specific event information included in the image, and may generate the traveling information based on the recognized information.

상기 제어부는, 상기 길 안내 정보 또는 주행 정보 중 적어도 하나를 출력하도록 출력부를 제어할 수 있다.The control unit may control the output unit to output at least one of the route guidance information or the driving information.

상기 출력부는, 상기 길 안내 정보 또는 주행 정보 중 적어도 하나를 헤드업 화면(head-up display)에 출력할 수 있다.The output unit may output at least one of the route guidance information and the driving information to a head-up display.

본 발명의 일 실시예에 따른 스마트 보이스 내비게이션에 따르면, 사용자는 음성으로 길 안내 정보를 제공받을 수 있어, 안전한 운행을 할 수 있는 효과가 있다.According to the smart voice navigation according to the embodiment of the present invention, the user can receive the route guidance information by voice, thereby enabling safe operation.

또한, 내비게이션의 길 안내 정보는 차량의 헤드업 화면(head-up display)에 출력되므로, 운전자는 운전 중 정면만을 주시하며 안전한 운행을 할 수 있는 효과가 있다.In addition, since the navigation guidance information is output to the head-up display of the vehicle, the driver can enjoy safe operation while watching only the front face during operation.

또한, 도로표지판, 건물 등의 차량 정면의 사물 정보에 기반하여 길 안내 서비스를 제공하므로, 정교한 길안내 서비스를 제공할 수 있는 효과가 있다.Also, since the route guidance service is provided based on the object information on the front of the vehicle such as a road sign, a building, etc., it is possible to provide an elaborate route guidance service.

본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 발명에 대한 실시예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 특징을 설명한다.
도 1은 본 발명의 일 실시예에 따른 스마트 보이스 내비게이션의 블록도를 간략히 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 스마트 보이스 내비게이션이 인식하는 사물 정보인 도로표지판의 예시를 도시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 스마트 보이스 내비게이션의 실시예를 도시한 도면이다.
The accompanying drawings, which are included to provide a further understanding of the invention and are incorporated in and constitute a part of the specification, illustrate embodiments of the invention and, together with the description, serve to explain the technical features of the invention.
1 is a simplified block diagram of a smart voice navigation system in accordance with an embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of a road sign, which is object information recognized by a smart voice navigation according to an embodiment of the present invention.
3 is a diagram illustrating an embodiment of smart voice navigation according to an embodiment of the present invention.

본 명세서에서 '포함하다' 라는 표현으로 언급되는 구성요소, 특징, 및 단계는 해당 구성요소, 특징 및 단계가 존재함을 의미하며, 하나 이상의 다른 구성요소, 특징, 단계 및 이와 동등한 것을 배제하고자 함이 아니다.The components, features, and steps referred to in the specification as " comprising " in this specification are intended to mean that there are corresponding components, features, and steps, and do not preclude the presence of one or more other components, features, steps, and the like Is not.

본 명세서에서 단수형으로 특정되어 언급되지 아니하는 한, 복수의 형태를 포함한다. 즉, 본 명세서에서 언급된 구성요소 등은 하나 이상의 다른 구성요소 등의 존재나 추가를 의미할 수 있다.Includes plural forms as long as it is not specified and specified in the singular form herein. That is, the components and the like referred to in this specification may mean the presence or addition of one or more other components or the like.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함하여, 본 명세서에서 사용되는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자(통상의 기술자)에 의하여 일반적으로 이해되는 것과 동일한 의미이다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs to be.

즉, 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미인 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.That is, terms such as those defined in commonly used dictionaries should be construed as meaning consistent with meaning in the context of the related art, and unless otherwise expressly defined herein, interpreted in an ideal or overly formal sense It does not.

이하에서는, 첨부된 도면을 참조하여 본 발명의 실시예에 따른 스마트 보이스 내비게이션에 대해 상세하게 설명한다.Hereinafter, a smart voice navigation according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 스마트 보이스 내비게이션의 블록도를 간략히 도시한 도면이다.1 is a simplified block diagram of a smart voice navigation system in accordance with an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 스마트 보이스 내비게이션이 인식하는 사물 정보인 도로표지판의 예시를 도시한 도면이다.FIG. 2 is a diagram illustrating an example of a road sign, which is object information recognized by a smart voice navigation according to an embodiment of the present invention.

도 1 및 2를 참조하면, 본 발명의 일 실시예에 따른 스마트 보이스 내비게이션(100)은 GPS 위치 정보 및 사물 정보에 기반하여 길 안내 정보를 생성하는 제어부(101), 길 안내 정보를 사용자에게 제공하는 출력부(103) 및 차량의 정면 방향을 촬영하는 카메라부(105)를 포함할 수 있다.1 and 2, a smart voice navigation system 100 according to an embodiment of the present invention includes a controller 101 for generating route guidance information based on GPS position information and object information, And a camera unit 105 for photographing the frontal direction of the vehicle.

제어부(101)는 사용자가 목적지를 입력하면 목적지까지 GPS 위치 정보 및 사물 정보에 기반하여 사용자에게 제공될 길 안내 정보를 생성할 수 있다.The control unit 101 can generate the navigation information to be provided to the user based on the GPS position information and the object information to the destination when the user inputs the destination.

제어부(101)는 카메라부(105)를 통해 촬영된 영상에서 도로표시판, 도로면 표지 및 전봇대 등 사물 정보를 인식하여 사용자가 설정한 목적지까지 경로에 대한 길 안내 정보를 생성할 수 있다.The control unit 101 recognizes object information such as a road signboard, a road surface marker, and a lamp stand in the image photographed through the camera unit 105, and generates the guidance information for the route to the destination set by the user.

제어부(101)는 촬영된 영상을 통해 인식된 사물 정보를 기저장된 사물정보와 비교하여 인식된 사물 정보를 학습할 수 있다. 여기서 기저장된 사물정보는, 경찰청, 교통안전공단 등에서 제공하는 공공데이터일 수 있다.The control unit 101 can learn the recognized object information by comparing the recognized object information with the previously stored object information through the photographed image. The previously stored object information may be public data provided by the National Police Agency, the Traffic Safety Corporation, and the like.

즉, 제어부(101)는 카메라부(105)를 통해 촬영된 영상에서 인식된 사물 정보를 기저장된 사물정보인 공공데이터와 비교하여, 인식된 사물 정보를 학습할 수 있다.That is, the control unit 101 can learn the recognized object information by comparing the recognized object information from the image photographed through the camera unit 105 with public data, which is previously stored object information.

또한, 제어부(101)는 GPS 위치 정보를 통해 사용자의 위치 정보를 생성하고, 사용자의 위치 정보 및 사물 정보를 종합하여 길 안내 정보를 생성할 수 있다.Also, the control unit 101 may generate the location information of the user through the GPS location information, and may generate the route guidance information by combining the location information and the object information of the user.

예컨대, 목적지가 서울인 경우, 제어부(101)는 차량의 정면에 도로표지판(201)을 통해, 글자, 화살표 등의 이미지 및 문자를 인식하고, 기저장된 사물정보와 비교하여, ‘1km 주행 후 서울 방면 좌측 도로로 진입’이라는 정보를 생성할 수 있다.For example, when the destination is Seoul, the control unit 101 recognizes images and characters such as characters, arrows, and the like through the road sign 201 on the front of the vehicle, compares the images and characters with previously stored object information, Quot ;, " entering the road on the left side ".

또한, 제어부(101)는 GPS 위치 정보를 통해 사용자가 1km 정도 주행하여 분기점에 도달한 경우, ‘서울 방면 좌측 도로 진입’이라는 정보를 생성할 수 있다.In addition, when the user travels for about 1 km through the GPS position information and reaches the branching point, the control unit 101 can generate information such as " entering the road on the left side toward Seoul ".

제어부(101)는 도로표지판 등의 도로에 표시된 사물뿐만 아니라, GPS 위치 정보를 실시간으로 분석하여 현재 위치 근방의 건물 정보를 통해서도 길 안내 정보를 생성할 수 있다.The control unit 101 can generate not only objects displayed on roads such as road signs, but also GPS information by analyzing GPS location information in real time and also through building information near the current location.

예컨대, 100m 전방의 A건물을 끼고 우회전을 해야하는 상황이라면, 제어부(101)는 ‘100m 주행 후 우회전’이라는 정보와 ‘A건물을 끼고 우회전’이라는 정보를 종합하여, ‘100m 주행 후 A건물을 끼고 우회전’이라는 정보를 생성할 수 있다.For example, if it is necessary to make a right turn with the building A 100 m ahead, the control unit 101 synthesizes the information "turn right after driving 100 m" and the information "turn right with A building" Right turn 'can be generated.

제어부(101)는 길 안내 정보를 생성함에 있어서, 사고, 차 막힘, 공사 등의 실시간 교통 상황을 분석하여, 최단 거리의 길 안내 정보를 생성할 수 있다.In generating the route guidance information, the control unit 101 can analyze the real-time traffic situation such as an accident, obstruction of road, construction, etc., and generate the shortest distance guidance information.

또한, 제어부(101)는 야간, 안개, 눈, 우천 등 실시간 기상정보를 고려하여, 주행 정보를 생성할 수 있다.In addition, the control unit 101 can generate driving information in consideration of real-time weather information such as night, mist, snow, rain, and the like.

예컨대, 제어부(101)는 야간인 경우 전조등을 키라는 주행 정보를 생성할 수 있고, 우천, 안개 상황에서 서행하라는 정보와 함께 미등을 키라는 주행 정보를 생성할 수 있다.For example, the control unit 101 can generate driving information for driving a headlamp at night, and generate driving information for driving a tail lamp together with information for slowing down in a rainy and fog situation.

제어부(101)는 카메라부(105)에서 촬영된 차량 앞쪽의 영상을 분석하여, 앞 차와의 간격, 차선 침범 등의 상황에 맞는 주행 정보를 생성할 수 있다. The control unit 101 analyzes the image of the front side of the vehicle photographed by the camera unit 105, and can generate driving information suitable for situations such as an interval with the preceding vehicle, a lane departure, and the like.

또한, 실시간으로 촬영되는 영상을 분석하여 교통 상황을 학습함으로써, 보다 향상된 길 안내 정보를 생성할 수 있다.Further, the improved road information can be generated by analyzing the images photographed in real time and learning traffic conditions.

제어부(101)는 컨볼루션 신경망(Convolution Neural Network, CNN) 등의 딥러닝(Deep learning)기반의 방법을 통해 촬영된 영상을 분석함으로써, 영상에 포함된 글자 및 이미지를 인식할 수 있다.The control unit 101 can recognize characters and images included in the image by analyzing the captured images through a Deep Learning based method such as a Convolution Neural Network (CNN).

제어부(101)는 생성된 길 안내 정보 및 주행 정보를 출력부(103)를 통해 사용자에게 음성 또는 차량 앞 유리의 헤드업 화면(head-up display)으로 제공할 수 있다.The control unit 101 may provide the generated guidance information and driving information to the user through the output unit 103 as a voice or a head-up display of the windshield of the vehicle.

예컨대, 기생성된 길 안내 정보의 경로상에 실시간 교통 정보에 포함되지 않은 공사, 사고, 도로 폐쇄, 경찰 수신호를 촬영한 영상을 통해, 제어부(101)는 우회하는 경로를 탐색하고, 기생성된 길 안내 정보의 경로와 비교하여 목적지까지 더 짧은 거리를 사용자에게 제공할 수 있다.For example, the control unit 101 searches for a route to be bypassed through an image of a construction, an accident, a road closure, and a police signal which are not included in the real-time traffic information on the route of the generated route guidance information, It is possible to provide the user with a shorter distance to the destination compared with the route information.

또한, 촬영된 영상을 통해서 차량이 차선을 침범한 경우, 제어부(101)는 차선 침범에 대한 정보를 생성하여 사용자에게 제공할 수 있다.In addition, when the vehicle invades the lane through the photographed image, the control unit 101 can generate information about the lane incursion and provide it to the user.

출력부(103)는 제어부(101)에서 생성한 정보를 음성 또는 시각적으로 출력할 수 있다.The output unit 103 can output the information generated by the control unit 101 either visually or visually.

출력부(103)는 제어부(103)에서 생성된 정보를 음성 정보로 출력할 수 있고, 헤드업 화면의 일측에 생성된 정보를 표시하여 시각 정보로 출력할 수도 있다.The output unit 103 can output the information generated by the control unit 103 as audio information, and display the generated information on one side of the head-up screen to output it as time information.

카메라부(105)는 주행 중인 차량의 정면의 영상을 실시간으로 촬영할 수 있다. The camera unit 105 can photograph the image of the front side of the running vehicle in real time.

촬영된 영상은 제어부에 의해 분석되어 길 안내 정보를 생성하는데 이용될 수 있다.The photographed image can be analyzed by the control unit and used to generate the route guidance information.

제어부(101)는 촬영된 영상에서 사물 및 건물을 인식한 정보와 사물에 대해 기저장된 사물정보를 종합하여 길 안내 정보를 생성할 수 있다.The control unit 101 can generate the guidance information by combining the information of the object and the building in the photographed image and the previously stored object information on the object.

또한, 제어부(101)는 촬영된 영상에서 사고, 도로 폐쇄, 경찰 수신호 등의 GPS 위치 정보에 포함되지 않은 정보들을 인식하고, 우회 경로를 생성하여, 기생성된 길 안내 정보를 갱신할 수 있다.In addition, the control unit 101 can recognize information not included in GPS position information such as an accident, a road closure, a police signal, etc. in the photographed image, and can generate a bypass route to update the generated route guidance information.

제어부(101)는 촬영된 영상에서 인식된 건물과 차량의 거리를 측정하여, 측정된 거리 정보와 GPS 위치 정보에 기반하여 보다 정확한 길 안내 정보를 생성할 수 있다. The control unit 101 may measure the distance between the building and the vehicle recognized from the photographed image, and may generate more accurate guidance information based on the measured distance information and the GPS position information.

예컨대, A건물과의 거리가 GPS 위치 정보를 통해서는 100m로 인식되지만, 촬영된 영상을 통해 측정된 A건물과의 거리가 50m인 경우, 제어부(101)는 차량으로부터 A건물과의 거리가 50m인 것으로 판단하여, 기생성된 길 안내 정보를 갱신할 수 있다.For example, if the distance to the building A is 100 m from the GPS position information, but the distance from the building A measured through the captured image is 50 m, the control unit 101 determines that the distance from the vehicle to the building A is 50 m It is possible to update the previously created route guidance information.

또한, 제어부(101)는 촬영된 영상에서 앞 차와의 간격, 차선 침범, 사고 현장 등의 특정 이벤트 및 날씨를 인식하여, 주행과 관련된 정보를 추출하여, 주행 정보를 제공할 수 있다.In addition, the control unit 101 can recognize the specific events and the weather such as the distance from the preceding vehicle, the lane departure, the accident scene, etc., and extract the information related to the running and provide the running information.

예컨대, 제어부(101)는 촬영된 영상에서 사고 현장을 인식한 경우, 전방에 사고가 발생하였으므로 서행하라는 주행 정보를 생성하여 제공할 수 있으며, 앞 차와의 간격을 인식하여 차량 간격을 넓히라는 주행 정보를 생성하여 제공할 수 있다.For example, when an accident scene is recognized on a photographed image, the control unit 101 can generate and provide driving information indicating that an accident has occurred ahead of the driver, It is possible to generate and provide driving information.

도 3은 본 발명의 일 실시예에 따른 스마트 보이스 내비게이션의 실시예를 도시한 도면이다.3 is a diagram illustrating an embodiment of smart voice navigation according to an embodiment of the present invention.

도 3을 참조하면, 제어부(101)는 생성된 길 안내 정보 및 주행 정보를 출력부(103)를 통해 음성뿐만 아니라, 음성 정보(301) 또는 시각 정보(303)로 출력할 수 있다.3, the control unit 101 may output the generated guidance information and driving information to the audio information 301 or the time information 303 through the output unit 103 as well as the voice.

음성 정보(301) 및 헤드업 화면에 표시되는 시각 정보(303)를 통해 길 안내 정보 및 주행 정보가 실시간으로 사용자에게 제공되기 때문에, 사용자는 주행 시 정면을 계속 응시할 수 있다.Since the route guidance information and the travel information are provided to the user in real time through the voice information 301 and the time information 303 displayed on the head-up screen, the user can keep gazing forward while driving.

또한, 사용자는 주행 시 정면을 계속 응시하며 정확한 길 안내 정보 및 주행 정보를 음성 및 헤드업 화면을 통해 제공받으므로, 정확한 길 안내 정보를 확인하기 위하여 내비게이션의 화면을 자주 쳐다봐야했던 종래 내비게이션의 문제점을 해결할 수 있다.In addition, since the user gazes at the front face while driving and receives accurate guidance information and driving information through the voice and head-up screen, the user has to look at the screen of the navigation frequently to check the accurate guidance information. Can be solved.

비록 본 명세서에서의 설명은 예시적인 몇 가지 양상으로 나타났지만, 다양한 수정이나 변경이 후술되는 특허청구범위에 의해 정의되는 범주로부터 이루어질 수 있으며, 본 발명의 기술적인 보호범위는 다음의 특허청구범위에 의하여 정해져야 할 것이다.Although the description herein has been made in some illustrative aspects, various modifications and variations can be made from the categories defined by the following claims, and the technical scope of the invention is defined in the following claims It should be decided by.

100 : 스마트 보이스 내비게이션
201 : 교통표지판
301 : 음성 정보
303 : 시각 정보
100: Smart Voice Navigation
201: Traffic signs
301: Voice information
303: Visual Information

Claims (6)

차량의 전방의 영상을 촬영하는 카메라부;
GPS 위치 정보, 기저장된 사물정보 및 상기 영상에 기반하여, 길 안내 정보 또는 주행 정보 중 적어도 하나를 생성하는 제어부; 및
상기 생성된 길 안내 정보 또는 주행 정보 중 적어도 하나를 음성으로 출력하는 출력부를 포함하는,
스마트 보이스 내비게이션.
A camera unit for photographing a forward image of the vehicle;
A controller for generating at least one of the GPS position information, the previously stored object information, and the navigation information or the driving information based on the image; And
And an output unit for outputting at least one of the generated navigation guidance information or navigation information by voice.
Smart voice navigation.
제1항에 있어서,
상기 제어부는,
실시간 GPS 위치 정보 및 상기 기저장된 사물정보에 기반하여 길 안내 정보를 생성하는,
스마트 보이스 내비게이션.
The method according to claim 1,
Wherein,
Real time GPS position information and the previously stored object information,
Smart voice navigation.
제2항에 있어서,
상기 제어부는,
상기 영상에 포함된 사물 및 건물의 정보를 인식하고, 상기 인식된 정보에 기반하여 상기 생성된 길 안내 정보를 갱신하는,
스마트 보이스 내비게이션.
3. The method of claim 2,
Wherein,
Recognizing information of objects and buildings included in the image, and updating the generated route guidance information based on the recognized information,
Smart voice navigation.
제1항에 있어서,
상기 제어부는,
상기 영상에 포함된 날씨 및 특정 이벤트의 정보를 인식하고, 상기 인식된 정보에 기반하여 주행 정보를 생성하는,
스마트 보이스 내비게이션.
The method according to claim 1,
Wherein,
And a control unit configured to recognize the weather and the specific event information included in the image, and generate driving information based on the recognized information,
Smart voice navigation.
제1항에 있어서,
상기 제어부는,
상기 길 안내 정보 또는 주행 정보 중 적어도 하나를 출력하도록 출력부를 제어하는,
스마트 보이스 내비게이션.
The method according to claim 1,
Wherein,
And controlling the output unit to output at least one of the navigation information and the driving information.
Smart voice navigation.
제1항에 있어서,
상기 출력부는,
상기 길 안내 정보 또는 주행 정보 중 적어도 하나를 헤드업 화면(head-up display)에 출력하는,
스마트 보이스 내비게이션.
The method according to claim 1,
The output unit includes:
And outputting at least one of the route guidance information or the travel information to a head-up display,
Smart voice navigation.
KR1020170133071A 2017-10-13 2017-10-13 Apparatus for smart voice navigation KR20190042120A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170133071A KR20190042120A (en) 2017-10-13 2017-10-13 Apparatus for smart voice navigation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170133071A KR20190042120A (en) 2017-10-13 2017-10-13 Apparatus for smart voice navigation

Publications (1)

Publication Number Publication Date
KR20190042120A true KR20190042120A (en) 2019-04-24

Family

ID=66282220

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170133071A KR20190042120A (en) 2017-10-13 2017-10-13 Apparatus for smart voice navigation

Country Status (1)

Country Link
KR (1) KR20190042120A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230070607A (en) 2021-11-15 2023-05-23 이지운 A buoy having a function of maintaining buoyancy in case of breakage and a method for manufacturing the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230070607A (en) 2021-11-15 2023-05-23 이지운 A buoy having a function of maintaining buoyancy in case of breakage and a method for manufacturing the same

Similar Documents

Publication Publication Date Title
US11767024B2 (en) Augmented reality method and apparatus for driving assistance
US10220781B2 (en) Travel environment evaluation system, travel environment evaluation method, drive assist device, and travel environment display device
WO2018066711A1 (en) Travel assistance device and computer program
CN106415693B (en) Vehicle cognition notice device, vehicle cognition notice system
US8970451B2 (en) Visual guidance system
WO2019097763A1 (en) Superposed-image display device and computer program
KR20170058640A (en) Traffic signs recognition apparatus and method for providing limiting speed of the same
JP5459137B2 (en) Intersection guidance system
US11972616B2 (en) Enhanced navigation instructions with landmarks under difficult driving conditions
US11525694B2 (en) Superimposed-image display device and computer program
JP2018173862A (en) Driving support apparatus and computer program
CN112313137B (en) Travel information processing device and processing method
CN111959499A (en) Vehicle control method and device
JP2020091663A (en) Display controller for vehicles
CN113183758A (en) Auxiliary driving method and system based on augmented reality
KR20150051671A (en) A display control device using vehicles and user motion recognition and its method of operation
CN113544757A (en) Information processing apparatus, information processing method, and mobile device
US20210268961A1 (en) Display method, display device, and display system
JP2023012793A (en) Superimposed image display device
KR20190042120A (en) Apparatus for smart voice navigation
US11390215B2 (en) Assistance system for a vehicle
CN114945501B (en) Method for coordinating traffic participants by means of a server device, server device and control circuit for carrying out the method
US20220105866A1 (en) System and method for adjusting a lead time of external audible signals of a vehicle to road users
JP5959401B2 (en) Driving support system
JP2012032366A (en) Car navigation system

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E601 Decision to refuse application