KR101588184B1 - Control apparatus for vechicle, vehicle, and controlling method for vehicle - Google Patents

Control apparatus for vechicle, vehicle, and controlling method for vehicle Download PDF

Info

Publication number
KR101588184B1
KR101588184B1 KR1020140143161A KR20140143161A KR101588184B1 KR 101588184 B1 KR101588184 B1 KR 101588184B1 KR 1020140143161 A KR1020140143161 A KR 1020140143161A KR 20140143161 A KR20140143161 A KR 20140143161A KR 101588184 B1 KR101588184 B1 KR 101588184B1
Authority
KR
South Korea
Prior art keywords
vehicle
driver
hand
control unit
voice
Prior art date
Application number
KR1020140143161A
Other languages
Korean (ko)
Inventor
김정훈
Original Assignee
현대자동차주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 현대자동차주식회사 filed Critical 현대자동차주식회사
Priority to KR1020140143161A priority Critical patent/KR101588184B1/en
Application granted granted Critical
Publication of KR101588184B1 publication Critical patent/KR101588184B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • B60R16/037Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
    • B60R16/0373Voice control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/089Driver voice

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Navigation (AREA)

Abstract

A control apparatus for a vehicle comprises: a voice receiving unit receiving a voice of a driver; a gesture detection unit detecting a gesture of a driver; and a control unit determining whether any one of objects is selected by the voice and the gesture and generating a control signal so that a vehicle display can provide augmented reality of the selected object based on a determination result. The control unit guides the driver to the selected object which is a destination.

Description

차량용 제어 장치, 차량, 및 차량의 제어방법 {CONTROL APPARATUS FOR VECHICLE, VEHICLE, AND CONTROLLING METHOD FOR VEHICLE}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a vehicle control apparatus, a vehicle control method,

차량용 제어 장치, 차량, 및 차량의 제어방법에 관한 것이다.A vehicle control apparatus, a vehicle, and a control method of the vehicle.

차량은 기본적인 주행 기능 외에도 오디오 기능, 비디오 기능, 내비게이션 기능, 공조 제어, 시트 제어, 조명 제어 등의 운전자 편의를 위한 부가적인 기능을 더 수행할 수 있다. In addition to basic driving functions, the vehicle can perform additional functions for operator convenience such as audio function, video function, navigation function, air conditioning control, seat control, lighting control and so on.

이러한 차량 내에서 다양한 기능을 수행하기 위한 기술로 손을 이용한 제스처 감지 기술 및 음성 인식 기술이 부각되고 있다. 손을 이용한 제스처 감지 기술 및 음성 인식 기술은 손과 입이 사람의 신체 일부 중에서 가장 자유로운 부분이며 일상적으로 도구를 다루기 위한 방법과 가장 가까우므로 가장 직관적인 기술이라고 할 수 있다.As a technique for performing various functions in such a vehicle, a gesture detection technique using a hand and a voice recognition technology are highlighted. Hand gesture detection and speech recognition are the most intuitive techniques because hands and mouth are the most liberal part of a person's body and are the closest to the way they routinely manipulate their tools.

운전자의 제스처 및 음성에 따라 운전자가 원하는 목적지를 판단하고, 목적지에 대한 증강 현실 및 길 안내를 제공하도록 차량 디스플레이를 제어하는 차량용 제어 장치를 제공하고자 한다.An object of the present invention is to provide a vehicle control device for controlling a vehicle display so as to determine a destination desired by a driver according to a gesture and voice of a driver and to provide an augmented reality and a guidance for a destination.

운전자의 제스처 및 음성에 따라 목적지를 판단하고, 목적지에 대한 증강 현실 및 길 안내를 제공하는 차량 및 차량의 제어방법을 제공하고자 한다.A vehicle and a control method of a vehicle that determine a destination according to a gesture and voice of a driver and provide an augmented reality and a guidance on a destination.

일 측면에 따른 차량용 제어 장치는 운전자의 음성을 수신하는 음성 수신부; 운전자의 손을 감지하는 제스처 감지부; 차량의 전면 유리 또는 대시보드 상에 장착된 카메라 모듈; 제스처 감지부의 감지 결과에 기초하여 손의 끝점 및 손목의 방향선 중 적어도 어느 하나를 검출하고, 손의 끝점 및 손목의 방향선 중 적어도 어느 하나와, 음성에 기초하여 하나 이상의 객체 중 어느 하나가 선택되었는지 여부를 판단하고, 판단 결과에 기초하여 차량 디스플레이가 선택된 객체의 증강 현실을 제공하도록 제어 신호를 생성하는 제어부를 포함하되, 차량 디스플레이는, 전면 유리 상에 장착되어 선택된 객체에 대응하는 가상 영상 및 지도 정보를 출력하고, 지도 정보는 상기 선택된 객체를 목적지로 하는 길 안내 지시자를 포함하고, 제어부는, 카메라 모듈로부터 수신한 영상에 기초하여 상기 선택된 객체를 판단하고, 선택된 객체를 목적지로 하는 길 안내를 수행하고, 객체는 길 안내 수행 시 목적지가 될 수 있는 차량 외부의 건물 또는 장소일 수 있다.A vehicle control apparatus according to one aspect includes: a voice receiving unit for receiving a voice of a driver; A gesture sensing unit for sensing a driver's hand; A camera module mounted on a windshield or a dashboard of the vehicle; Detecting at least one of an end point of the hand and a direction line of the wrist based on the detection result of the gesture detection unit and detecting at least any one of an end point of the hand and a direction line of the wrist and one or more objects And a control unit for generating a control signal so that the vehicle display provides the augmented reality of the selected object based on the determination result, wherein the vehicle display further includes a virtual image corresponding to the selected object mounted on the windshield, The controller outputs the map information, and the map information includes a route guide indicator with the selected object as a destination. The controller determines the selected object based on the image received from the camera module, , And the object is a building outside the vehicle that can be the destination for the route guidance, or It can be a place.

또한, 차량 디스플레이는, AVN(Audio Video Navigation) 장치 상에 장착된다.The vehicle display is also mounted on an AVN (Audio Video Navigation) device.

또한, 제어부는, 음성이 미리 설정된 명령어와 일치하는 경우, 객체 중 어느 하나가 선택되었는지 여부를 판단한다.In addition, the control unit judges whether any one of the objects is selected when the voice matches the preset command.

삭제delete

삭제delete

삭제delete

삭제delete

또한, 제어부가 어느 한 객체를 목적지로 하는 길 안내를 수행하고 있는 상태에서, 음성 및 제스처에 의해 다른 객체가 선택된 경우, 제어부는 선택된 객체를 목적지로 하는 길 안내를 수행한다.In addition, in a state where the control unit is performing a route guidance to a certain object, when the other object is selected by the voice and the gesture, the control unit performs the route guidance using the selected object as a destination.

또한, 제어부는, 3차원 가상 영상을 생성한다.Further, the control unit generates a three-dimensional virtual image.

다른 측면에 따른 차량은, 운전자의 음성을 수신하는 음성 수신부; 운전자의 손을 감지하는 제스처 감지부; 차량의 전면 유리 또는 대시보드 상에 장착된 카메라 모듈; 제스처 감지부의 감지 결과에 기초하여 손의 끝점 및 손목의 방향선 중 적어도 어느 하나를 검출하고, 손의 끝점 및 손목의 방향선 중 적어도 어느 하나와, 음성에 기초하여 하나 이상의 객체 중 어느 하나가 선택되었는지 여부를 판단하는 제어부; 및 선택된 객체의 증강 현실을 제공하는 차량 디스플레이를 포함하되, 차량 디스플레이는, 차량의 전면 유리 상에 장착되어 선택된 객체에 대응하는 가상 영상 및 지도 정보를 출력하고, 지도 정보는 선택된 객체를 목적지로 하는 길 안내 지시자를 포함하고, 제어부는, 카메라 모듈로부터 수신한 영상에 기초하여 선택된 객체를 판단하고, 선택된 객체를 목적지로 하는 길 안내를 수행하고, 객체는 길 안내 수행 시 목적지가 될 수 있는 차량 외부의 건물 또는 장소일 수 있다.A vehicle according to another aspect includes: a voice receiving unit for receiving a voice of a driver; A gesture sensing unit for sensing a driver's hand; A camera module mounted on a windshield or a dashboard of the vehicle; Detecting at least one of an end point of the hand and a direction line of the wrist based on the detection result of the gesture detection unit and detecting at least any one of an end point of the hand and a direction line of the wrist and one or more objects A control unit for determining whether or not the control unit is turned on; And a vehicle display providing an augmented reality of the selected object, wherein the vehicle display is mounted on the windshield of the vehicle and outputs a virtual image and map information corresponding to the selected object, The control unit includes a route guidance indicator, and the control unit determines the selected object based on the image received from the camera module, performs the route guidance with the selected object as a destination, Of buildings or places.

또한, 차량 디스플레이는, AVN(Audio Video Navigation) 장치 상에 장착된다.The vehicle display is also mounted on an AVN (Audio Video Navigation) device.

삭제delete

삭제delete

또한, 제어부는, 음성이 미리 설정된 명령어와 일치하는 경우, 객체 중 어느 하나가 선택되었는지 여부를 판단한다.In addition, the control unit judges whether any one of the objects is selected when the voice matches the preset command.

또한, 제어부가 어느 한 객체를 목적지로 하는 길 안내를 수행하고 있는 상태에서, 음성 및 제스처에 의해 다른 객체가 선택된 경우, 선택된 객체를 목적지로 하는 길 안내를 수행한다.In addition, when the control unit is performing route guidance with an object as a destination, when another object is selected by voice and gesture, the route guidance is performed with the selected object as a destination.

또한, 차량 디스플레이는, 3차원 가상 영상을 표시한다.Further, the vehicle display displays a three-dimensional virtual image.

또 다른 측면에 따른 차량의 제어방법은, 운전자의 음성을 수신하고, 운전자의 손을 감지하는 단계; 감지하는 단계의 감지 결과에 기초하여 손의 끝점 및 손목의 방향선 중 적어도 어느 하나를 검출하고, 손의 끝점 및 손목의 방향선 중 적어도 어느 하나와, 음성에 기초하여 하나 이상의 객체 중 어느 하나가 선택되었는지 여부를 판단하는 단계; 선택된 객체의 증강 현실을 제공하는 단계; 및 선택된 객체를 목적지로 하는 길 안내를 수행하는 단계를 포함하되, 길 안내를 수행하는 단계는 차량의 전면 유리 상에서 선택된 객체에 대응하는 가상 영상 및 지도 정보를 출력하는 단계를 포함하고, 지도 정보는 선택된 객체를 목적지로 하는 길 안내 지시자를 포함하고, 판단하는 단계는 차량의 전면 유리 또는 대시보드 상에 장착된 카메라 모듈로부터 수신한 영상에 기초하여 선택된 객체를 판단하는 단계를 포함하고, 객체는 길 안내 수행 시 목적지가 될 수 있는 차량 외부의 건물 또는 장소일 수 있다.According to another aspect of the present invention, there is provided a method of controlling a vehicle, comprising: receiving a driver's voice and sensing a driver's hand; Detecting at least one of an end point of the hand and a direction line of the wrist based on the detection result of the sensing step and detecting at least any one of an end point of the hand and a direction line of the wrist and one or more objects based on the voice Judging whether or not it has been selected; Providing an augmented reality of the selected object; And performing a route guidance with the selected object as a destination, wherein performing the route guidance includes outputting a virtual image and map information corresponding to an object selected on the windshield of the vehicle, Wherein the determining comprises determining a selected object based on an image received from a camera module mounted on a windshield or dashboard of the vehicle, It may be a building or a place outside the vehicle that can be the destination when performing the guidance.

삭제delete

또한, 감지하는 단계는, 음성이 미리 설정된 명령어와 일치하는 경우, 객체 중 어느 하나가 선택되었는지 여부를 판단하는 단계를 포함한다.In addition, the sensing step includes determining whether any one of the objects is selected when the voice matches the preset command.

또한, 증강 현실을 제공하는 단계는, 3차원 가상 영상을 표시하는 단계를 포함한다.
또한, 제스처 감지부는 광원 및 광센서를 포함하고, 광원은 x축, y축, 및 z축에 대한 3차원 공간을 형성하고, 광센서는 운전자의 손에 의해 흡수 또는 반사된 빛을 감지하고, 제어부는 광센서의 감지 결과에 기초하여 손의 끝점 및 손목의 방향선 중 적어도 어느 하나를 검출할 수 있다.
Further, the step of providing the augmented reality includes displaying the three-dimensional virtual image.
The gesture sensing unit includes a light source and an optical sensor. The light source forms a three-dimensional space with respect to x-axis, y-axis, and z-axis. The optical sensor senses light absorbed or reflected by the driver's hand, The control unit can detect at least one of the end point of the hand and the direction line of the wrist based on the detection result of the optical sensor.

개시된 차량용 제어 장치, 차량, 및 차량의 제어방법에 의하면, 운전자는 차량 내에서 원하는 목적지를 손 또는 음성을 통해 지시함으로써, 목적지에 대한 직관적인 증강 현실 및 길 안내를 제공받을 수 있다.According to the vehicle control apparatus, the vehicle, and the control method of the vehicle, the driver can be provided with an intuitive augmented reality and guidance on the destination by instructing a desired destination in the vehicle by hand or voice.

또한, 개시된 차량용 제어 장치, 차량, 및 차량의 제어방법에 의하면, 운전자는 운전 중 언제든 주변에 위치한 목적지를 손 또는 음성을 통해 지시하여 증강 현실 및 길 안내를 제공받을 수 있다.In addition, according to the vehicle control apparatus, the vehicle, and the control method of the vehicle, the driver can be provided with the augmented reality and the route guidance by instructing the destination located around the vehicle at any time during the driving through hands or voice.

도 1은 차량용 제어 장치가 장착되는 차량의 외관 개략도이다.
도 2는 차량용 제어 장치가 장착된 차량의 내부도이다.
도 3은 차량용 제어 장치가 장착된 차량의 내부도이다.
도 4는 차량용 제어 장치의 제어 블록도이다.
도 5는 제스처 감지부가 감지한 신호에 의해 형성되는 3차원 공간의 예이다.
도 6은 손목의 방향선 또는 손의 끝점에 대응하는 객체의 예시도이다.
도 7은 음성과 명령어의 파형 예시도이다.
도 8은 전면 유리 상에 장착된 차량 디스플레이가 제공하는 객체의 증강 현실, 지도 정보에 대한 도면이다.
도 9는 AVN장치 상에 장착된 차량 디스플레이가 제공하는 영상이다.
도 10은 전면 유리 상에 장착된 차량 디스플레이가 내비게이션 화면을 출력하는 예시도이다.
도 11은 차량의 제어 블록도이다.
도 12는 차량의 제어방법에 대한 순서도이다.
BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a schematic view of the appearance of a vehicle on which a vehicle control device is mounted. Fig.
2 is an internal view of a vehicle equipped with a vehicle control device.
3 is an internal view of a vehicle equipped with a vehicle control device.
4 is a control block diagram of a control apparatus for a vehicle.
5 is an example of a three-dimensional space formed by a signal sensed by the gesture sensing unit.
6 is an illustration of an object corresponding to a direction line of a wrist or an end point of a hand;
7 is a diagram showing waveforms of voice and command words.
8 is a diagram of an augmented reality and map information of an object provided by a vehicle display mounted on a windshield.
9 is an image provided by the vehicle display mounted on the AVN apparatus.
10 is an exemplary view showing a vehicle display mounted on a windshield to output a navigation screen.
11 is a control block diagram of the vehicle.
12 is a flowchart of a control method of a vehicle.

본 발명의 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 연관되는 이하의 상세한 설명과 바람직한 실시 예들로부터 더욱 명백해질 것이다. 본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. 본 명세서에서, 제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 상기 용어들에 의해 제한되는 것은 아니다. BRIEF DESCRIPTION OF THE DRAWINGS The objectives, specific advantages and novel features of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG. It should be noted that, in the present specification, the reference numerals are added to the constituent elements of the drawings, and the same constituent elements are assigned the same number as much as possible even if they are displayed on different drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. In this specification, the terms first, second, etc. are used to distinguish one element from another, and the element is not limited by the terms.

이하, 도 1 내지 도 11을 참조하여, 차량용 제어 장치(100) 및 차량(10)에 대해 설명한다. 도 1은 차량용 제어 장치(100)가 장착되는 차량(10)의 외관을 설명하기 위한 개략도이고, 도 2는 차량용 제어 장치(100)가 장착된 차량(10)의 내부도이다.Hereinafter, the vehicle control apparatus 100 and the vehicle 10 will be described with reference to Figs. 1 to 11. Fig. Fig. 1 is a schematic view for explaining an appearance of a vehicle 10 on which a vehicle control apparatus 100 is mounted, and Fig. 2 is an internal view of the vehicle 10 on which the vehicle control apparatus 100 is mounted.

도 1을 참조하면, 일 실시예에 따른 차량(10)은 차량(10)의 외관을 형성하는 본체(1), 차량(10)을 이동시키는 차륜(51, 52), 차륜(51, 52)을 회전시키는 구동 장치(60), 차량(10) 내부를 외부로부터 차폐시키는 도어(71, 72(도 2 참조)), 차량(10) 내부의 운전자에게 차량(10) 전방의 시야를 제공하는 전면 유리(31), 운전자에게 차량(10) 후방의 시야를 제공하는 사이드 미러(81, 82)를 포함한다.1, a vehicle 10 according to an embodiment includes a main body 1 forming an outer appearance of a vehicle 10, wheels 51 and 52 for moving the vehicle 10, wheels 51 and 52, A door 71 and 72 for shielding the interior of the vehicle 10 from the outside, a driver 60 for driving the inside of the vehicle 10, Glass 31, and side mirrors 81 and 82 that provide the driver with a field of view behind the vehicle 10.

차륜(51, 52)은 차량의 전방에 마련되는 전륜(51), 차량의 후방에 마련되는 후륜(52)을 포함하며, 구동 장치(60)는 본체(1)가 전방 또는 후방으로 이동하도록 전륜(51) 또는 후륜(52)에 회전력을 제공한다. 이와 같은 구동 장치(60)는 화석 연료를 연소시켜 회전력을 생성하는 엔진(engine) 또는 축전기(미도시)로부터 전원을 공급받아 회전력을 생성하는 모터(motor)를 채용할 수 있다.The wheels 51 and 52 include a front wheel 51 provided on the front of the vehicle and a rear wheel 52 provided on the rear side of the vehicle and the driving device 60 includes a front wheel 51 and a rear wheel 52, (51) or the rear wheel (52). Such a drive unit 60 may employ an engine for generating a rotational force by burning fossil fuel or a motor for generating a rotational force by receiving power from a capacitor (not shown).

도어(71, 72)는 본체(1)의 좌측 및 우측에 회동 가능하게 마련되어 개방 시에 운전자가 차량(10)의 내부에 탑승할 수 있도록 하며, 폐쇄 시에 차량(100)의 내부를 외부로부터 차폐시킨다.The doors 71 and 72 are provided so as to be rotatable on the left and right sides of the main body 1 so that the driver can ride inside the vehicle 10 at the time of opening. Shield.

전면 유리(31)는 본체(1)의 전방 상측에 마련되어 차량(10) 내부의 운전자가 차량(10) 전방의 시각 정보를 획득할 수 있도록 하는 것으로서, 윈드쉴드 글래스(windshield glass)라고도 한다. The front glass 31 is provided on the front upper side of the main body 1 so that a driver inside the vehicle 10 can obtain time information in front of the vehicle 10. The windshield glass is also called a windshield glass.

전면 유리(31) 상에는, 차량 디스플레이(200)가 장착될 수 있다. On the windshield 31, a vehicle display 200 can be mounted.

전면 유리(31) 상에 장착된 차량 디스플레이(200)는 운전자에 의해 선택된 객체의 증강 현실, 지도 정보, 차량 현재 속도, 연료 잔량, 목적지 길안내 정보 등을 전면 유리(31) 상에 그래픽 영상으로 투영해주는 장치로서, 운전자가 계기반이나 AVN(Audio Video Navigation)화면 등을 보기 위해 시선을 옮기는 것을 최소화 시켜 준다. The vehicle display 200 mounted on the windshield 31 displays the augmented reality of the object selected by the driver, the map information, the current vehicle speed, the remaining amount of fuel, It is a projection device that minimizes eye movements for the operator to view the dashboard or AVN (Audio Video Navigation) screen.

객체는 AVN장치(300)가 내비게이션 기능 수행 시, 목적지가 될 수 있는 건물 또는 장소로서, 차량 디스플레이(200)가 제공하는 증강 현실의 한 단위가 된다.The object is a building or a place where the AVN apparatus 300 can be a destination when the navigation function is performed, and becomes a unit of the augmented reality provided by the vehicle display 200.

증강현실(Augmented Reality, AR)은 운전자가 보고 있는 현실의 영상이나 배경에 3차원 가상 영상을 겹쳐서 하나의 영상으로 보여주는 기술이다. Augmented Reality (AR) is a technology that superimposes three-dimensional virtual images on a realistic image or background that the driver sees and displays them as one image.

전면 유리(31) 상에 장착된 차량 디스플레이(200)는 어느 한 객체의 증강 현실을 운전자에게 제공하기 위해, 상기 객체의 3차원 가상 영상을 전면 유리(31)에 비치는 객체의 현실 영상 위에 겹쳐서 보여준다.The vehicle display 200 mounted on the windshield 31 overlaps and displays a three-dimensional virtual image of the object on the real image of the object reflected on the windshield 31 in order to provide the driver with an augmented reality of an object .

전면 유리(31) 상에 장착된 차량 디스플레이(200)는 예를 들어, 투명 박막 트랜지스터로 구현된 헤드업 디스플레이(Head-Up Display, HUD)일 수 있다. The vehicle display 200 mounted on the windshield 31 may be, for example, a Head-Up Display (HUD) implemented with a transparent thin film transistor.

이 경우, 도 2에 나타난 바와 같이, 차량 디스플레이(200)는 전면 유리(31) 상에 장착되며, 투명하므로 운전자의 시야를 방해하지 않는다.In this case, as shown in FIG. 2, the vehicle display 200 is mounted on the windshield 31 and is transparent, so that it does not interfere with the driver's view.

차량 디스플레이(200)는 전면 유리(31)뿐만 아니라 차량(10)의 차량(10) 내부의 운전자에게 차량(10) 후방의 시야를 제공하는 후면 유리(미도시), 차량(10) 좌방 또는 우방의 시야를 제공하는 사이드 유리(미도시) 상에 장착될 수도 있다.The vehicle display 200 includes a front glass 31 as well as a rear glass (not shown) that provides the driver of the vehicle 10 in the vehicle 10 with a view of the rear of the vehicle 10, (Not shown) that provides a field of view of the camera.

또한, 차량 디스플레이(200)는 AVN장치(300) 상에 장착될 수도 있고, 이는 도 9와 관련하여 자세히 후술한다.Vehicle display 200 may also be mounted on AVN device 300, which will be described in detail below with respect to FIG.

사이드 미러(81, 82)는 본체(1)의 좌측에 마련되는 좌측 사이드 미러(81) 및 우측에 마련되는 우측 사이드 미러(82)를 포함하며, 차량(10) 내부의 운전자가 차량(10) 측면 및 후방의 시각 정보를 획득할 수 있도록 한다.The side mirrors 81 and 82 include a left side mirror 81 provided on the left side of the main body 1 and a right side mirror 82 provided on the right side. Side information and rear-side time information.

일 실시예에 따른 차량(10)은 차량용 제어 장치(100) 및 AVN(Audio Video Navigation) 장치(300)를 포함한다. The vehicle 10 according to one embodiment includes a vehicle control device 100 and an AVN (Audio Video Navigation) device 300.

AVN 장치(300)는 오디오 기능, 비디오 기능 및 내비게이션 기능을 통합적으로 수행하는 장치로서, 상기 기능들 외에도 전화 걸기 등의 추가적인 기능들을 더 수행하는 것도 가능하다. The AVN apparatus 300 is an apparatus for integrally performing an audio function, a video function, and a navigation function. In addition to the above functions, it is also possible to perform additional functions such as a telephone call.

AVN장치(300) 상에는 오디오 기능, 비디오 기능 및 내비게이션 기능을 운전자에게 제공하기 위한 차량 디스플레이(200)가 장착될 수 있고, AVN장치(300) 상에 장착된 차량 디스플레이(200)는 차량(10)의 대시보드(32)의 중앙 영역인 센터페시아(33)에 장착될 수 있다. 이와 관련된 자세한 설명은 후술한다.A vehicle display 200 may be mounted on the AVN apparatus 300 to provide audio functions, video functions and navigation functions to the driver and the vehicle display 200 mounted on the AVN apparatus 300 may be mounted on the vehicle 10, The center fascia 33, which is the central area of the dashboard 32 of the vehicle. A detailed description related thereto will be described later.

도 3은 차량용 제어 장치(100)가 장착된 차량(10)의 내부도이고, 도 4는 차량용 제어 장치(100)의 제어 블록도이다.3 is an internal view of the vehicle 10 on which the vehicle control device 100 is mounted, and Fig. 4 is a control block diagram of the onboard control device 100. Fig.

차량용 제어 장치(100)는 도 3a와 같이 운전석(21)과 조수석(22) 사이의 센터 콘솔(40) 상에 장착될 수 있고, 도 3b와 같이 전면 유리(31)의 상단에 장착될 수도 있다.The vehicle control apparatus 100 may be mounted on the center console 40 between the driver's seat 21 and the passenger's seat 22 as shown in FIG. 3A, or may be mounted on the top of the front glass 31 as shown in FIG. 3B .

이러한 차량용 제어 장치(100)는 도 4를 참조하면, 운전자의 음성을 수신하는 음성 수신부(110), 운전자의 제스처를 감지하는 제스처 감지부(120), 차량용 제어 장치(100)의 각 구성요소를 전반적으로 제어하는 제어부(130), 및 하나 이상의 객체에 대응하는 지도 정보가 저장된 저장부(140)를 포함한다.4, the vehicle control apparatus 100 includes a voice receiving unit 110 for receiving a driver's voice, a gesture sensing unit 120 for sensing a driver's gesture, and components of the vehicle control apparatus 100 A control unit 130 for controlling the entire system, and a storage unit 140 for storing map information corresponding to one or more objects.

음성 수신부(110)는 운전자로부터 음성을 수신하여 전기적 신호를 발생시킨다. 음성은 사람의 음성을 비롯하여 모든 종류의 음향을 포함한다. 이러한 음성은 진동수 및 크기를 갖는 음파로 나타낼 수 있다. The voice receiving unit 110 receives voice from the driver and generates an electrical signal. Voice includes all kinds of sound including human voice. Such speech can be represented by a sound wave having a frequency and a magnitude.

음성 수신부(110)는 예를 들어, 마이크로 구현될 수 있다. 마이크는 카본형, 크리스털형, 가동코일형, 리본형, 콘덴서형, 및 반도체형 마이크를 포함한다. 그러나, 마이크는 제시된 마이크 종류에 한정되지 아니하고 다양한 종류의 마이크로 구현될 수 있다.The voice receiving unit 110 may be micro-implemented, for example. The microphone includes a carbon type, a crystal type, a movable coil type, a ribbon type, a condenser type, and a semiconductor type microphone. However, the microphones are not limited to the types of microphones presented, but may be implemented in various types of microphones.

제스처 감지부(120)는 운전자의 손을 촬영하여, 손의 제스처를 감지한다. The gesture sensing unit 120 senses the hand gesture by photographing the driver's hand.

이하, 손의 제스처를 예로 들어 설명하나, 제스처 감지부(120)가 눈 기타 다른 형태의 제스처를 감지하는 것도 가능하다.Hereinafter, a hand gesture will be described as an example, but it is also possible that the gesture detection unit 120 detects a gesture such as an eye or other types of gestures.

도 3a에 도시된 바와 같이, 차량용 제어 장치(100)가 센터 콘솔(31) 상에 장착된 경우, 제스처 감지부(120)는 센터 콘솔 (31) 상단에서 움직이는 손의 제스처를 감지할 수 있다.3A, when the onboard controller 100 is mounted on the center console 31, the gesture sensing unit 120 may sense a gesture of a moving hand on the top of the center console 31. [

도 3b에 도시된 바와 같이, 차량용 제어 장치(100)가 전면 유리(31) 상에 장착된 경우, 제스처 감지부(120)는 전면 유리(31)의 내부 하단에서 움직이는 손의 제스처를 감지할 수 있다.3B, when the on-vehicle control device 100 is mounted on the front glass 31, the gesture sensing unit 120 can sense a gesture of a moving hand at the inner bottom of the front glass 31 have.

제스처 감지부(120)는 예를 들어, 카메라로 구현될 수 있고, 운전자의 손이 카메라 시야 내에 위치하도록, 서보 모터에 의해 180도 회전 구동하면서 운전자의 손을 추적할 수 있다. 또한, 제스처 감지부(120)는 운전자 손의 3차원 좌표의 획득 또는 3D모델링을 위한 스테레오 카메라(Stereo Camera), 또는 적외선 광원 및 적외선 센서를 포함하는 적외선 카메라로 구현될 수도 있다.The gesture detection unit 120 can be implemented, for example, by a camera, and can track the driver's hand while being rotated 180 degrees by the servo motor so that the driver's hand is positioned within the camera field of view. Also, the gesture sensing unit 120 may be implemented by a stereo camera for acquiring three-dimensional coordinates of the driver's hand or 3D modeling, or an infrared camera including an infrared light source and an infrared sensor.

또한, 제스처 감지부(120)는 예를 들어, 초음파 센서로 구현될 수도 있다. 이 경우, 제스처 감지부(120)는 감지 영역 내에서, 운전자 손의 움직임을 실시간으로 감지한다. Also, the gesture sensing unit 120 may be implemented by an ultrasonic sensor, for example. In this case, the gesture sensing unit 120 senses the movement of the driver's hand in real time within the sensing area.

또한, 제스처 감지부(120)는 3개의 적외선 광원 및 2개의 광센서로 구현된 립모션(Leap Motion) 장치로서 구현될 수도 있다.Also, the gesture sensing unit 120 may be implemented as a Leap Motion device implemented by three infrared light sources and two optical sensors.

이외에도, 제스처 감지부(120) 손의 제스처를 감지하기 위한 다양한 장치로서 구현될 수 있다.In addition, the gesture sensing unit 120 may be implemented as a variety of devices for sensing a hand gesture.

도 5는 제스처 감지부(120)가 감지한 신호에 의해 형성되는 3차원 공간의 예이다.5 is an example of a three-dimensional space formed by a signal sensed by the gesture sensing unit 120. In FIG.

도 5를 참조하면, 제스처 감지부(120)는 3개의 적외선 광원을 이용하여 각 광원에 대응하는 x, y, z축에 대한 3차원 공간을 형성하고, 2개의 광센서가 형성된 3차원 공간을 감지할 수 있다. 5, the gesture sensing unit 120 forms a three-dimensional space with respect to x, y, and z axes corresponding to each light source using three infrared light sources, Can be detected.

이러한 3차원 공간에서 제스처 감지부(120)는 제스처로서, 운전자의 손을 감지한다.In this three-dimensional space, the gesture sensing unit 120 senses the driver's hand as a gesture.

예를 들어, 제스처 감지부(120)는 적외선 광원으로부터 조사되었으나, 운전자의 손에 의해 흡수 또는 반사된 적외선을 감지함으로써, 운전자의 손을 감지할 수 있고, 이에 따라 출력 신호를 생성한다.For example, the gesture sensing unit 120 can sense the driver's hand by sensing infrared rays absorbed or reflected by the driver's hand although it is irradiated from an infrared light source, thereby generating an output signal.

제어부(130)는 운전자에게 보여지는 하나 이상의 객체를 판단하고, 손목의 방향선(l) 또는 손의 끝점(p)을 검출하고, 검출된 손목의 방향선(l) 또는 손의 끝점(p)과 음성 수신부(110)에 의해 수신한 운전자의 음성에 기초하여, 하나 이상의 객체 중 어느 한 객체가 선택되었는지 여부를 판단한다.The control unit 130 determines one or more objects to be displayed to the driver and detects the direction line l of the wrist or the end point p of the hand and detects the direction line l of the detected wrist or the end point p of the hand, And the voice of the driver received by the voice receiving unit 110, whether or not any one of the at least one object is selected.

예를 들어, 제어부(130)는 위성 항법 장치(GPS)로부터 수신한 차량(10)의 현재 위치 정보에 기초하여, 현재 위치에서 운전자에게 보여지는 하나 이상의 객체를 추정할 수 있다.For example, the control unit 130 may estimate one or more objects to be displayed to the driver at the current position, based on the current position information of the vehicle 10 received from the GPS (Global Positioning System).

또한, 제어부(130)는 전면 유리(31) 또는 대시보드(32) 상에 장착된 카메라 모듈(미도시)로부터 수신한 바깥 영상에 기초하여, 운전자에게 보여지는 하나 이상의 객체를 추정할 수도 있다. 바깥 영상은 차량(10)의 전면 유리(31)를 통해 운전자에게 보여지는 영상을 의미한다.The control unit 130 may estimate one or more objects to be displayed to the driver based on the outside image received from the camera module (not shown) mounted on the windshield 31 or the dashboard 32. [ The outside image means an image that is seen by the driver through the windshield 31 of the vehicle 10.

그러나, 운전자에게 보여지는 하나 이상의 객체는 반드시 이에 한정되지 아니하고, 다양한 방법으로 추정 또는 판단될 수 있다.However, one or more objects shown to the driver are not necessarily limited to these, but may be estimated or determined in various ways.

또한, 제어부(130)는 제스처 감지부(120)의 출력 신호에 기초하여 손목의 방향선(l) 또는 손의 끝점(p)을 검출한다.The control unit 130 detects the direction line 1 of the wrist or the end point p of the hand based on the output signal of the gesture sensing unit 120.

예를 들어, 제어부(130)는 제스처 감지부(120)의 출력 신호에 기초하여 손의 경계에 대한 그래디언트(gradient)를 계산함으로써, 손목의 방향(I) 및 손의 끝점(p)을 먼저 검출할 수 있다. For example, the controller 130 calculates the gradient of the boundary of the hand based on the output signal of the gesture sensing unit 120 to detect the direction I of the wrist and the end point p of the hand first can do.

또한, 제어부(130)는 제스처 감지부(120)의 출력 신호에 기초하여 손의 끝점(p)을 검출하고, 손의 끝점(p)이 움직이는 궤도를 추적함으로써 손의 끝점(p)의 이동을 추적할 수도 있다.The control unit 130 detects the end point p of the hand based on the output signal of the gesture sensing unit 120 and tracks the movement of the end point p of the hand, It can also be tracked.

또한, 제어부(130)는 운전자에게 보여지는 하나 이상의 객체 중 검출된 손목의 방향선(l) 또는 손의 끝점(p)에 대응하는 객체를 판단한다.Further, the control unit 130 determines an object corresponding to the direction line l of the detected wrist or the end point p of the hand among at least one object shown to the driver.

도 6은 손목의 방향선(l) 또는 손의 끝점(p)에 대응하는 객체의 예시도이다.6 is an illustration of an object corresponding to a direction line l of a wrist or an end point p of a hand.

도 6을 참조하면, 제어부(130)는 운전자에게 보여지는 하나 이상의 객체(ob1, ob2) 중 검출된 손목의 방향선(l) 또는 손의 끝점(p)에 대응하는 객체(ob2)를 판단한다.Referring to FIG. 6, the controller 130 determines an object ob2 corresponding to a direction line l of the detected wrist or an end point p of the hand among one or more objects ob1 and ob2 shown to the driver .

손목의 방향선(l)에 대응하는 객체(ob2)는 검출된 손목의 방향선(l)과 전면 유리(31)가 만나는 지점에서 사용자에게 보여지는 객체(ob2)를 의미한다.The object ob2 corresponding to the directional line 1 of the wrist means an object ob2 shown to the user at the point where the directional line 1 of the detected wrist meets the windshield 31. [

손의 끝점(p)에 대응하는 객체(ob2)는 검출된 손의 끝점(p)으로부터 손목의 방향선(l)과 평행한 직선을 그었을 때, 직선과 전면 유리(31)가 만나는 지점에서 사용자에게 보여지는 객체(ob2)를 의미한다.The object ob2 corresponding to the end point p of the hand is positioned at a position where the straight line and the front glass 31 meet when a straight line parallel to the direction line l of the wrist is drawn from the detected end point p of the hand, (Ob2) shown to the user.

또한, 제어부(130)는 음성 수신부(110)로부터 수신한 음성이 후술할 저장부(140)에 저장된 명령어와 일치하는지 판단한다.The control unit 130 determines whether the voice received from the voice receiving unit 110 coincides with a command stored in the storage unit 140 to be described later.

도 7은 음성과 명령어의 파형 예시도이다.7 is a diagram showing waveforms of voice and command words.

제어부(130)는 음성과 명령어가 일치하는 경우, 현재 손목의 방향선(l) 및 손의 끝점(p)에 대응하는 객체(ob2)가 "선택"되었다고 판단한다.The control unit 130 determines that the object ob2 corresponding to the direction line l of the current wrist and the end point p of the hand is "selected "

예를 들어, 저장부(140)에 명령어로서 "저기요"가 저장되어 있고, 음성 수신부(110)가 음성으로서 "저기요"를 수신한 경우, 제어부(130)는 현재 손목의 방향선(l) 및 손의 끝점(p)에 대응하는 객체(ob2)가 선택되었다고 판단한다.For example, when "save" is stored as a command in the storage unit 140 and the voice receiving unit 110 receives "save" as a voice, the control unit 130 determines whether the current direction of the wrist l It is determined that the object ob2 corresponding to the end point p of the hand has been selected.

음성과 명령어의 일치는, 도 7에 도시된 바와 같이, 음성의 파형 및 명령어의 파형의 일치 여부에 따라 판단될 수 있다.As shown in Fig. 7, the coincidence between the voice and the command can be judged according to whether or not the waveform of the voice and the waveform of the command coincide with each other.

이어서, 제어부(130)는 선택된 객체에 대한 증강 현실을 운전자에게 제공하도록 차량 디스플레이(200)에 대한 제어 신호를 생성한다.The control unit 130 then generates a control signal for the vehicle display 200 to provide the augmented reality for the selected object to the driver.

차량 디스플레이(200)는 상술한 바와 같이, 전면 유리(31) 상에 장착될 수도 있고, AVN장치(300) 상에 장착될 수도 있다.The vehicle display 200 may be mounted on the windshield 31 or mounted on the AVN apparatus 300, as described above.

도 8은 전면 유리(31) 상에 장착된 차량 디스플레이(200)가 제공하는 객체의 증강 현실, 지도 정보에 대한 도면이다.8 is a diagram of an augmented reality and map information of an object provided by the vehicle display 200 mounted on the windshield 31. Fig.

도 8을 참조하면, 제어부(130)는 선택된 객체(ob2)에 대해 가상 영상을 생성하고, 차량 디스플레이(200)가 전면 유리(31) 상에 생성된 가상 영상을 투영하도록 하는 제어 신호를 생성한다.8, the controller 130 generates a virtual image for the selected object ob2, and generates a control signal for causing the vehicle display 200 to project the virtual image generated on the windshield 31 .

이 경우, 제어부(130)는 전면 유리(31) 상에서 운전자에게 보여지는 현실 영상 위에 가상 영상을 투영하도록 전면 유리(31) 상에 장착된 차량 디스플레이(200)를 제어함으로써, 증강 현실을 운전자에게 제공할 수 있다.In this case, the controller 130 controls the vehicle display 200 mounted on the front glass 31 to project the virtual image on the real image displayed to the driver on the windshield 31, thereby providing the augmented reality to the driver can do.

가상 영상은 후술할 저장부(140)에 저장된 영상일 수 있다.The virtual image may be an image stored in the storage unit 140, which will be described later.

또한, 제어부(130)는 가상 영상뿐만 아니라, 선택된 객체(ob)에 대한 지도 정보(inf) 또한 전면 유리(310) 상에 표시하도록 전면 유리(31) 상에 장착된 차량 디스플레이(200)를 제어할 수도 있다.The control unit 130 also controls the vehicle display 200 mounted on the windshield 31 to display not only the virtual image but also the map information inf for the selected object ob on the windshield 310 You may.

지도 정보는 객체의 상호명, 지리적 위치 등 객체와 관련된 일반적인 내비게이션 정보를 의미한다. Map information refers to general navigation information related to an object such as an object's business name, geographical position, and the like.

이외에도, 제어부(130)는 전면 유리(31) 상에 장착된 차량 디스플레이(200)가 차량 현재 속도, 연료 잔량, 길 안내 정보 등 다양한 정보(미도시)를 전면 유리(31) 상에 그래픽 영상으로 투영하도록 제어할 수 있다.In addition, the controller 130 controls the vehicle display 200 mounted on the front glass 31 to display various information (not shown) such as the current speed of the vehicle, the remaining amount of fuel, It is possible to control the projection.

전면 유리(31) 상에 장착된 차량 디스플레이(200)는 예를 들어, 투명 박막 트랜지스터로 구현된 헤드업 디스플레이(Head-Up Display, HUD)일 수 있다. The vehicle display 200 mounted on the windshield 31 may be, for example, a Head-Up Display (HUD) implemented with a transparent thin film transistor.

또한, 전면 유리(31) 상에 장착된 차량 디스플레이(200)는, 3차원 영상을 운전자에게 표시할 수도 있다.Further, the vehicle display 200 mounted on the front glass 31 may display a three-dimensional image to the driver.

한편, 차량 디스플레이(200)는 전면 유리(31) 상에 장착되는 것뿐만 아니라, AVN장치(300) 상에 장착될 수도 있다.On the other hand, the vehicle display 200 may be mounted on the AVN apparatus 300, as well as mounted on the windshield 31.

도 9는 AVN장치(300) 상에 장착된 차량 디스플레이(200)가 제공하는 영상이다.9 is an image provided by the vehicle display 200 mounted on the AVN apparatus 300. Fig.

AVN장치(300) 상에 장착된 차량 디스플레이(200)는, 도 2에 도시된 바와 같이, 차량(10)의 대시보드(32)의 중앙 영역인 센터페시아(33)에 장착될 수 있으며, 도 9에 도시된 바와 같이 선택된 객체(ob2)에 대한 증강 현실을 제공할 수 있다.The vehicle display 200 mounted on the AVN apparatus 300 can be mounted on the center fascia 33 which is the central area of the dashboard 32 of the vehicle 10, It is possible to provide an augmented reality for the selected object ob2 as shown in FIG.

이 경우, 제어부(130)는 차량(10)의 현재 위치에 대응하는 지도 정보에 기초하여, 내비게이션 화면 상에 선택된 객체(ob2)의 주위 영역에 대한 현실 영상 및 선택된 객체(ob2)에 대한 가상 영상을 함께 표시하도록 AVN장치(300) 상에 장착된 차량 디스플레이(200)를 제어함으로써, 증강 현실을 운전자에게 제공할 수 있다.In this case, based on the map information corresponding to the current position of the vehicle 10, the control unit 130 displays the virtual image of the selected region of the selected object ob2, The augmented reality can be provided to the driver by controlling the vehicle display 200 mounted on the AVN apparatus 300 to display the augmented reality together.

현실 영상은 차량(10) 전면 유리(31) 또는 대시보드(32) 상에 장착된 카메라 모듈(미도시)로부터 획득된 바깥 영상일 수 있다.The real image may be an image obtained from a camera module (not shown) mounted on the front glass 31 of the vehicle 10 or the dashboard 32.

가상 영상은 후술할 저장부(140)에 저장된 3차원 영상일 수 있다.The virtual image may be a three-dimensional image stored in the storage unit 140, which will be described later.

또한, 제어부(130)는 가상 영상뿐만 아니라, 선택된 객체(ob)에 대한 지도 정보(inf) 또한 운전자에게 표시하도록 AVN장치(300) 상에 장착된 차량 디스플레이(200)를 제어할 수도 있다.The control unit 130 may also control the vehicle display 200 mounted on the AVN apparatus 300 to display not only virtual images but also map information inf for the selected object ob to the driver.

AVN장치(300) 상에 장착된 차량 디스플레이(200)는, 플라즈마 디스플레이 패널(PDP, plazma display panel), 발광 다이오드(LED, light emitting diode) 또는 액정 디스플레이(LCD, liquid crystal display) 등을 이용하여 구현된 것일 수 있다. The vehicle display 200 mounted on the AVN apparatus 300 may be formed using a plasma display panel (PDP), a light emitting diode (LED), or a liquid crystal display It may be implemented.

한편, 제어부(130)는 선택된 객체(ob2)를 목적지로 하는 길 안내를 수행할 수 있다.On the other hand, the controller 130 can perform a route guidance using the selected object ob2 as a destination.

이 경우, 제어부(130)가 이미 어느 한 객체를 목적지로 하는 길 안내를 수행하고 있는 상태에서, 음성 및 제스처에 의해 다른 객체(ob2)가 선택된 경우, 선택된 객체(ob2)를 목적지로 하는 길 안내를 최우선적으로 수행한다.In this case, if another object ob2 is selected by voice and gesture in a state in which the controller 130 has already performed the route guidance to an object, As a priority.

길 안내는 전면 유리(31) 상에 장착된 차량 디스플레이(200) 또는 AVN장치(300) 상에 장착된 차량 디스플레이(200)가 내비게이션 화면을 출력하도록 제어함으로써 수행될 수 있다.The route guidance can be performed by controlling the vehicle display 200 mounted on the windshield 31 or the vehicle display 200 mounted on the AVN apparatus 300 to output a navigation screen.

도 10은 전면 유리(31) 상에 장착된 차량 디스플레이(200)가 내비게이션 화면을 출력하는 예시도이다.10 is an exemplary view showing the vehicle display 200 mounted on the windshield 31 to output a navigation screen.

도 10을 참조하면, 제어부(130)는, 선택된 객체(ob2)를 목적지로 하는 길 안내 영상을 생성하고, 길 안내 영상을 운전자에게 투영하도록 전면 유리(31) 상에 장착된 차량 디스플레이(200)를 제어할 수 있다.10, the control unit 130 generates a route guidance image with the selected object ob2 as a destination, and displays the vehicle display 200 mounted on the front glass 31 to project the route guidance image to the driver. Can be controlled.

이 경우, 제어부(130)는 운전자에게 길 안내를 수행하기 위해, 길 안내 지시자(v) 및 그 외 지도 정보(미도시)를 길 안내 영상으로 생성할 수도 있다. In this case, the control unit 130 may generate the route guidance indicator v and other map information (not shown) as a route guidance image to perform the route guidance to the driver.

또한, 길 안내 영상(예를 들어, 길 안내 지시자(v))도 3차원 가상 영상으로 생성될 수 있다.Also, the route guidance image (e.g., the route guidance indicator v) may be generated as a three-dimensional virtual image.

이외에도 제어부(130)는 전면 유리(31) 상에 장착된 차량 디스플레이(200)가 다양한 가상 영상을 전면 유리(31)에 투영하도록 제어함으로써 운전자에게 증강 현실을 제공할 수 있다.In addition, the control unit 130 can provide the augmented reality to the driver by controlling the vehicle display 200 mounted on the windshield 31 to project various virtual images onto the windshield 31. [

또한, 다시 도 9를 참조하면, 제어부(130)는 선택된 객체(ob2)를 목적지로 하는 길 안내 영상을 생성하고, 길 안내 영상을 운전자에게 출력하도록 AVN장치(300) 상에 장착된 차량 디스플레이(200)를 제어할 수 있다.9, the controller 130 generates a route guidance image with the selected object ob2 as a destination, and displays the route guidance image on a vehicle display (not shown) mounted on the AVN apparatus 300 200 can be controlled.

이 경우, AVN장치(300) 상에 장착된 차량 디스플레이(200)는 길 안내를 수행하기 위해, 선택된 객체(ob2)를 목적지로 하는 길 안내 지시자(v) 및 지도 정보(inf)를 길 안내 영상으로서 운전자에게 출력할 수 있다.In this case, the vehicle display 200 mounted on the AVN apparatus 300 transmits the route guidance indicator v and the map information inf, which are the destination of the selected object ob2, To the driver.

또한, 길 안내 영상(예를 들어, 길 안내 지시자(v))도 3차원 가상 영상으로 생성될 수 있다.Also, the route guidance image (e.g., the route guidance indicator v) may be generated as a three-dimensional virtual image.

이외에도 제어부(130)는 AVN장치(300) 상에 장착된 차량 디스플레이(200)가 다양한 가상 영상을 내비게이션 화면에 출력하도록 제어함으로써 운전자에게 증강 현실을 제공할 수 있다.In addition, the control unit 130 may provide the augmented reality to the driver by controlling the vehicle display 200 mounted on the AVN apparatus 300 to output various virtual images to the navigation screen.

다시 도 3을 참조하면, 제어부(130)는 프로세서(Processor, 131), 차량용 제어 장치(100)의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 133) 및 차량용 제어 장치(100)의 외부에서부터 입력되는 신호 또는 데이터를 저장하거나, 차량용 제어 장치(100)에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 램(RAM, 132)을 포함할 수 있다.3, the control unit 130 includes a ROM 133 storing a control program for controlling a processor 131, a control unit 100 for a vehicle, and a control unit (RAM) 132 used as a storage area corresponding to various operations performed in the on-vehicle control apparatus 100, or may include a RAM (Random Access Memory)

또한, 제어부(130)와 전기적으로 연결되는 별개인 회로 기판에 프로세서(131), 램(132) 또는 롬(133)을 포함하는 프로세싱 보드(graphic processing board, 도시되지 아니함)를 포함할 수 있다. In addition, a separate circuit board electrically connected to the controller 130 may include a processing board (not shown) including a processor 131, a RAM 132, or a ROM 133.

프로세서(131), 램(132) 및 롬(133)은 내부 버스(bus)를 통해 상호 연결될 수 있다. The processor 131, the RAM 132, and the ROM 133 may be interconnected via an internal bus.

또한, 제어부(130)는 프로세서(131), 램(132) 및 롬(133)을 포함하는 구성 요소를 지칭하는 용어로 사용될 수 있다. The control unit 130 may also be used to refer to components including the processor 131, the RAM 132, and the ROM 133. [

또한, 제어부(130)는 프로세서(131), 램(132), 롬(133), 및 프로세싱 보드(도시하지 아니함)를 포함하는 구성 요소를 지칭하는 용어로 사용될 수도 있다.The control unit 130 may also be used to refer to components including a processor 131, a RAM 132, a ROM 133, and a processing board (not shown).

저장부(140)는 차량용 제어 장치(100)의 기능 동작에 대한 프로그램이 저장된 프로그램 영역(141) 및 사용에 따른 데이터가 저장된 데이터 영역(142)을 포함한다. 데이터 영역(142)에는 하나 이상의 객체(ob) 각각에 대응하는 가상 영상, 지도 정보, 음성 인식에 필요한 명령어 등이 저장된다.The storage unit 140 includes a program area 141 in which a program for the functional operation of the vehicular controller 100 is stored and a data area 142 in which data according to use is stored. The data area 142 stores virtual images, map information, commands necessary for voice recognition, and the like corresponding to one or more objects (ob).

지도 정보는 객체의 상호명, 지리적 위치 등 객체와 관련된 일반적인 내비게이션 정보를 의미한다. 지도 정보는 지형 정보(예를 들어, 지하 또는 터널 여부), 경로 정보(예를 들어, 과속 카메라 위치, 분기점, 고속 도로 여부), 교통 정보(예를 들어, 실시간 교통 상황), 장소 정보(예를 들어, A식당, B주유소의 위치)를 포함한다.Map information refers to general navigation information related to an object such as an object's business name, geographical position, and the like. The map information may include location information (e.g., underground or tunnel), path information (e.g., speed camera location, bifurcation, highway), traffic information For example, the location of the A restaurant and the B gas station).

명령어는 운전자의 음성에 따라 제어부(130)가 제어를 수행할 때 사용하는 데이터의 한 단위를 의미한다. 예를 들어, 명령어는 "음성 인식 모드," "<서수>번째," "네/아니오", "경로 <숫자>," "<이름>에게 전화," 및 "이전 화면" "저기요" 등 다양한 문구에 대한 음성 파형을 포함한다. The term " command " means a unit of data used when the control unit 130 performs control according to the driver's voice. For example, the command can be a variety of commands such as "voice recognition mode," "<ordinal number>," "yes / no", "route <number>," "call to <name> And includes a speech waveform for the phrase.

한편, 도 3에서는 제어부(130)가 제어 프로그램이 저장된 롬(ROM, 133)과 차량용 제어 장치(100)의 외부에서부터 입력되는 신호 또는 데이터를 저장하거나, 차량용 제어 장치(100)에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 램(RAM, 132)을 포함하는 것으로 도시하였으나, 저장부(140)가 램 및 롬을 포함하는 것도 가능하다.3, the control unit 130 stores signals or data input from the ROM 133 storing the control program and the outside of the onboard control unit 100, or various operations performed on the onboard control unit 100 (RAM) 132 used as a storage area corresponding to the storage unit 140. However, it is also possible that the storage unit 140 includes a RAM and a ROM.

또한, 저장부(140)는 제어부(130)와 별도의 구성으로서 구현되는 것도 가능하나, 제어부(130) 내에서 구현되어 램 및 롬을 포함하는 것도 가능하다. 이 경우, 저장부(140)는 어느 한 기판 상에 또는 장치 내에서 제어부(130)를 이루는 다른 구성요소들과 함께 결합되어 구현될 수 있다.Also, the storage unit 140 may be implemented as a separate unit from the controller 130, but may be implemented in the controller 130 to include RAM and ROM. In this case, the storage unit 140 may be implemented in combination with other components constituting the control unit 130 on any one of the substrates or in the apparatus.

한편, 다른 실시예에 따르면, 상술한 음성 수신부(110), 제스처 감지부(120), 제어부(130), 및 저장부(140)는 차량(10) 내에서 각각 모듈로서 구현되어, 상호 간 유무선 네트워크를 통해 연결될 수 있다.The gesture detection unit 120, the control unit 130 and the storage unit 140 may be implemented as modules in the vehicle 10, And can be connected through a network.

이 경우, 유무선 네트워크는 유선 통신망, 무선 통신망, 및 근거리 통신망을 포함하고, 유선 통신망, 무선 통신망, 및 근거리 통신망의 조합을 포함할 수 있다. In this case, the wired and wireless network includes a wired communication network, a wireless communication network, and a local area network, and may include a combination of a wired communication network, a wireless communication network, and a local area network.

유선 통신망은 유선 이더넷을 포함하고, 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 및 캔 통신망(Controller Area Network; CAN)을 포함한다.The wired communication network includes wired Ethernet, and includes a wide area network (WAN), a value added network (VAN), and a CAN (Controller Area Network).

무선 통신망은AP(access point, 도시되지 아니함)가 설치된 장소에서 무선 네트워크에 접속하여 AP(access point)와 연결될 수 있다. 무선 통신망은 미국전기전자학회(IEEE)의 무선 랜 규격(IEEE802. 11x)을 지원한다. The wireless communication network may be connected to an access point (AP) by accessing a wireless network at a location where an access point (not shown) is installed. The wireless communication network supports the IEEE 802.11 standard of the Institute of Electrical and Electronics Engineers (IEEE).

근거리 통신망은 블루투스(bluetooth) 통신망, 블루투스 저 에너지(bluetooth low energy) , 적외선 통신망(IrDA, infrared data association), 와이파이(Wi-Fi) 통신망, UWB(Ultra Wideband) 및 NFC(Near Field Communication), 직비(Zigbee) 통신망 등을 포함한다.The local area network includes a bluetooth communication network, a bluetooth low energy, an infrared data association (IrDA), a Wi-Fi communication network, an ultra wideband (UWB) (Zigbee) communication network.

이하, 차량(10) 내에서 각각 구현되는 음성 수신부(110), 제스처 감지부(120), 제어부(130), 및 저장부(140)를 음성 수신부(210), 제스처 감지부(220), 제어부(230), 및 저장부(240)로서 설명한다.Hereinafter, the voice receiving unit 110, the gesture detecting unit 120, the control unit 130, and the storage unit 140 implemented in the vehicle 10 will be referred to as a voice receiving unit 210, a gesture detecting unit 220, (230), and a storage unit (240).

도 11은 차량(10)의 제어 블록도이다.11 is a control block diagram of the vehicle 10. Fig.

도 11을 참조하면, 차량(10)은 음성을 수신하는 음성 수신부(210), 운전자의 제스처를 감지하는 제스처 감지부(220), 차량(100)의 각 구성요소를 전반적으로 제어하는 제어부(230), 하나 이상의 객체에 대응하는 지도 정보가 저장된 저장부(240), 및 가상 영상을 출력하는 차량 디스플레이(200)를 포함한다.11, the vehicle 10 includes a voice receiving unit 210 for receiving voice, a gesture sensing unit 220 for sensing a gesture of a driver, a control unit 230 for controlling overall components of the vehicle 100 A storage unit 240 for storing map information corresponding to at least one object, and a vehicle display 200 for outputting a virtual image.

음성 수신부(210), 제스처 감지부(220), 제어부(230), 및 저장부(240)는 상술한 도 4의 음성 수신부(110), 제스처 감지부(120), 제어부(130), 및 저장부(140)와 동일한 역할을 수행하는바, 중복된 내용을 생략한다.The gesture detection unit 220, the control unit 230 and the storage unit 240 are connected to the voice receiving unit 210, the gesture detection unit 120, the control unit 130, (140), and duplicate descriptions thereof are omitted.

차량 디스플레이(200)는 도 2에 도시된 바와 같이, 전면 유리(31) 상에 장착될 수 있고, 도 9에 도시된 바와 같이 AVN장치(300) 상에 장착될 수도 있다.The vehicle display 200 may be mounted on the windshield 31, as shown in Fig. 2, and mounted on the AVN apparatus 300 as shown in Fig.

전면 유리(31) 상에 장착된 차량 디스플레이(200)는 제어부(230)에서 출력된 제어 신호에 따라 선택된 객체에 대한 3차원 가상 영상을 전면 유리(31) 상에 투영한다.The vehicle display 200 mounted on the windshield 31 projects a three-dimensional virtual image of the selected object on the windshield 31 in accordance with the control signal output from the controller 230.

또한, 전면 유리(31) 상에 장착된 차량 디스플레이(200)는 3차원 가상 영상뿐만 아니라, 선택된 객체에 대한 지도 정보 또한 전면 유리(31) 상에 투영할 수 있다.In addition, the vehicle display 200 mounted on the front glass 31 can project not only a three-dimensional virtual image but also map information on the selected object on the windshield 31. [

또한, 전면 유리(31) 상에 장착된 차량 디스플레이(200)는 투명 박막 트랜지스터로 구현된 헤드업 디스플레이(Head-Up Display, HUD)일 수 있다.Also, the vehicle display 200 mounted on the front glass 31 may be a head-up display (HUD) implemented with a transparent thin film transistor.

AVN장치(300) 상에 장착된 차량 디스플레이(200)는 제어부(230)에서 생성된 제어 신호에 따라, 선택된 객체에 대한 3차원 가상 영상을 내비게이션 화면 상에 출력한다. The vehicle display 200 mounted on the AVN apparatus 300 outputs a 3D virtual image of the selected object on the navigation screen according to the control signal generated by the controller 230.

이 경우, AVN장치(300) 상에 장착된 차량 디스플레이(200)는 내비게이션 화면 상에 선택된 객체(ob2)의 주위 영역에 대한 현실 영상 및 선택된 객체(ob2)에 대한 3차원 가상 영상을 함께 표시할 수 있다.In this case, the vehicle display 200 mounted on the AVN apparatus 300 displays the three-dimensional virtual image of the selected object ob2 together with the real image of the surrounding region of the selected object ob2 on the navigation screen .

현실 영상은 차량(10) 전면 유리(31) 또는 대시보드(32) 상에 장착된 카메라 모듈(미도시)로부터 획득된 바깥 영상일 수 있다.The real image may be an image obtained from a camera module (not shown) mounted on the front glass 31 of the vehicle 10 or the dashboard 32.

AVN장치(300) 상에 장착된 차량 디스플레이(200)는, 플라즈마 디스플레이 패널(PDP, plazma display panel), 발광 다이오드(LED, light emitting diode) 또는 액정 디스플레이(LCD, liquid crystal display) 등을 이용하여 구현된 것일 수 있다. The vehicle display 200 mounted on the AVN apparatus 300 may be formed using a plasma display panel (PDP), a light emitting diode (LED), or a liquid crystal display It may be implemented.

이외에도 차량(10)은 후방 또는 측방의 장애물 내지 다른 차량을 감지하는 근접 센서, 강수 여부 및 강수량을 감지하는 레인 센서 등의 감지 장치를 포함할 수 있다.In addition, the vehicle 10 may include a proximity sensor for detecting rear or side obstacles or other vehicles, and a rain sensor for detecting rainfall and precipitation.

이하, 도 12를 참조하여, 차량(10)의 제어방법에 대해 설명한다. 도 12는 차량의 제어방법에 대한 순서도이다.Hereinafter, a control method of the vehicle 10 will be described with reference to Fig. 12 is a flowchart of a control method of a vehicle.

우선, 차량은 운전자로부터 음성을 수신하고, 운전자의 제스처를 감지한다(S1110).First, the vehicle receives voice from the driver and senses the driver's gesture (S1110).

이 경우, 차량은 운전자로부터 수신한 음성 및 운전자의 제스처에 대응하는 전기적 신호를 발생시킨다.In this case, the vehicle generates a voice received from the driver and an electrical signal corresponding to the gesture of the driver.

운전자의 제스처는 예를 들어, 운전자의 손의 제스처일 수 있다.The gesture of the driver may be, for example, a gesture of the driver's hand.

차량은 카메라, 적외선 센서, 초음파 센서, 립 모션 장치 등을 이용하여 운전자의 손을 촬영할 수 있고, 촬영된 손의 손목 방향선 또는 손의 끝점을 감지할 수 있다.The vehicle can photograph the driver's hand using a camera, an infrared sensor, an ultrasonic sensor, a lip motion device, etc., and can sense the wrist direction line of the hand or the end point of the hand.

이어서, 차량은 운전자에게 보여지는 하나 이상의 객체를 판단하고, 검출된 제스처 및 수신한 음성에 기초하여, 하나 이상의 객체 중 어느 한 객체가 선택되었는지 여부를 판단한다(S1120).Then, the vehicle determines one or more objects to be displayed to the driver, and determines whether any one of the at least one object is selected based on the detected gesture and the received voice (S1120).

구체적으로, 차량은 위성 항법 장치(GPS)로부터 수신한 차량의 현재 위치 정보에 기초하여, 현재 위치에서 운전자에게 보여지는 하나 이상의 객체를 추정할 수 있다.Specifically, the vehicle can estimate one or more objects to be displayed to the driver at the current position, based on the current position information of the vehicle received from the GPS.

또한, 차량은 전면 유리 상단 또는 하단에 장착된 카메라 모듈(미도시)로부터 수신한 바깥 영상에 기초하여, 운전자에게 보여지는 하나 이상의 객체를 추정할 수도 있다. In addition, the vehicle may estimate one or more objects to be displayed to the driver based on an outside image received from a camera module (not shown) mounted on the top or bottom of the windshield.

그러나, 운전자에게 보여지는 하나 이상의 객체는 반드시 이에 한정되지 아니하고, 다양한 방법으로 추정 또는 판단될 수 있다.However, one or more objects shown to the driver are not necessarily limited to these, but may be estimated or determined in various ways.

또한, 차량은 출력 신호에 기초하여 손의 제스처를 검출한다. Further, the vehicle detects the hand gesture based on the output signal.

예를 들어, 차량은 운전자 손목의 방향선 또는 손의 끝점을 검출한다. 또한, 차량은 손의 끝점이 움직이는 궤도를 추적함으로써 손의 끝점의 이동을 추적할 수도 있다.For example, the vehicle detects the direction line of the driver's wrist or the end point of the hand. The vehicle can also track the movement of the end point of the hand by tracking the trajectory along which the end point of the hand moves.

또한, 차량은 추정 또는 판단된 하나 이상의 객체 중 검출된 손의 제스처에 대응하는 어느 한 객체를 판단한다. 예를 들어, 차량은 검출된 손목 방향선 또는 손의 끝점에 대응하는 객체를 판단한다.Further, the vehicle determines an object corresponding to the detected hand gesture of one or more objects estimated or determined. For example, the vehicle determines an object corresponding to the detected wrist direction line or the end point of the hand.

그리고, 차량은 미리 설정된 명령어와 일치하는 음성을 수신한 경우, 손의 제스처에 대응하는 어느 한 객체가 "선택"되었다고 판단한다. 예를 들어, 차량(10)은 미리 설정된 명령어인 "저기요"와 동일한 음성을 수신한 경우, 상기 손목 방향선 또는 손의 끝점 위치에 존재하는 어느 한 객체가 선택되었다고 판단한다.When the vehicle receives a voice corresponding to a preset command, it determines that an object corresponding to the hand gesture is "selected ". For example, when the vehicle 10 receives a voice that is the same as the preset command "sleeping ", it is determined that an object existing at the wrist direction line or the end position of the hand is selected.

이어서, 차랑은 선택된 객체의 증강 현실 및 지도 정보를 운전자에게 제공한다(S1130).Then, the elevator provides the augmented reality and map information of the selected object to the driver (S1130).

이 경우, 차량은 전면 유리 또는 AVN장치 상에 장착된 차량 디스플레이(200)를 통해 선택된 객체의 가상 영상 및 지도 정보를 출력할 수 있다.In this case, the vehicle can output the virtual image and map information of the selected object through the vehicle display 200 mounted on the windshield or AVN device.

또한, 차량은 가상 영상 출력 시, 현실 영상 위에 선택된 객체의 가상 영상을 겹쳐서 출력할 수도 있다.In addition, the vehicle may output a virtual image of a selected object on the real image when the virtual image is output.

현실 영상은 실제로 전면 유리를 통해 운전자에게 보여지는 바깥 영상일 수 있고, 차량의 전면 유리 또는 대시보드 상에 장착된 카메라 모듈로부터 획득된 바깥 영상일 수 있다.The real image may actually be the outer image seen through the windshield to the driver, or it may be the outer image obtained from a camera module mounted on the windshield or dashboard of the vehicle.

지도 정보는 객체의 상호명, 지리적 위치 등 객체와 관련된 일반적인 내비게이션 정보를 포함한다.The map information includes general navigation information related to the object such as an object's business name, geographical location, and the like.

지도 정보는 지형 정보(예를 들어, 지하 또는 터널 여부), 경로 정보(예를 들어, 과속 카메라 위치, 분기점, 고속 도로 여부), 교통 정보(예를 들어, 실시간 교통 상황), 장소 정보(예를 들어, A식당, B주유소의 위치)를 포함한다.The map information may include location information (e.g., underground or tunnel), path information (e.g., speed camera location, bifurcation, highway), traffic information For example, the location of the A restaurant and the B gas station).

이어서, 차랑은 선택된 객체를 목적지로 하는 길 안내를 수행한다(S1140).Subsequently, the vehicle performs a route guidance with the selected object as a destination (S1140).

길 안내는 전면 유리 상에 장착된 차량 디스플레이 또는 AVN장치 상에 장착된 디스플레이가 선택된 객체를 목적지로 하는 내비게이션 화면을 출력하도록 제어함으로써 수행될 수 있다.The route guidance can be performed by controlling the vehicle display mounted on the windshield or the display mounted on the AVN device to output a navigation screen that is the destination of the selected object.

전술한 실시 예에서 차량용 제어 장치(100) 및 차량(10)을 구성하는 구성요소들 중 일부 구성요소는 일종의 '모듈(module)'로 구현될 수 있다. 여기서, '모듈'은 소프트웨어 또는 Field Programmable Gate Array(FPGA) 또는 주문형 반도체(Application Specific Integrated Circuit, ASIC)과 같은 하드웨어 구성요소를 의미하며, 모듈은 어떤 역할들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. In the above-described embodiment, some of the components constituting the vehicular controller 100 and the vehicle 10 may be implemented as a kind of 'module'. Here, 'module' means a hardware component such as software or a field programmable gate array (FPGA) or an application specific integrated circuit (ASIC), and the module performs certain roles. However, a module is not limited to software or hardware. A module may be configured to reside on an addressable storage medium and may be configured to execute one or more processors.

따라서, 일 예로서 모듈은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 모듈들에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다. 게다가, 상기 구성요소들 및 모듈들은 디바이스 내에서 하나 또는 그 이상의 CPU를 실행할 수 있다.Thus, by way of example, a module may include components such as software components, object-oriented software components, class components and task components, and processes, functions, attributes, procedures, Microcode, circuitry, data, databases, data structures, tables, arrays, and variables, as will be appreciated by those skilled in the art. The functionality provided by the components and modules may be combined into a smaller number of components and modules or further separated into additional components and modules. In addition, the components and modules may execute one or more CPUs within the device.

한편, 상술한 차량의 제어방법은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다. Meanwhile, the vehicle control method described above can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording media storing data that can be decoded by a computer system. For example, it may be a ROM (Read Only Memory), a RAM (Random Access Memory), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, or the like. In addition, the computer-readable recording medium may be distributed and executed in a computer system connected to a computer network, and may be stored and executed as a code readable in a distributed manner.

전술한 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the appended claims. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

1: 본체
10: 차량
21: 운전석 22: 보조석
31: 전면 유리
32: 대시 보드
33: 센터페시아
51: 전륜
52: 후륜
60: 구동 장치
71, 72: 도어
81, 82: 사이드 미러
100: 차량용 제어 장치
110: 음성 수신부
120: 제스처 감지부
130: 제어부
131: 프로세서
132: 램 132: 롬
140: 저장부
141: 프로그램 영역 142: 데이터 영역
200: 차량 디스플레이
210: 음성 수신부
220: 제스처 감지부
230: 제어부
231: 프로세서
232: 램 233: 롬
240: 저장부
241: 프로그램 영역 242: 데이터 영역
300: 에이브이엔 장치
1: Body
10: Vehicle
21: driver's seat 22:
31: front glass
32: Dashboard
33: Center Fesia
51: front wheel
52: rear wheel
60: Driving device
71, 72: Door
81, 82: side mirror
100: vehicle control device
110:
120: Gesture detection unit
130:
131: Processor
132: Ram 132: Rom
140:
141: program area 142: data area
200: Vehicle display
210:
220: Gesture detection unit
230:
231: Processor
232: Ram 233: Rom
240:
241: program area 242: data area
300: Abe Lee's device

Claims (22)

운전자의 음성을 수신하는 음성 수신부;
운전자의 손을 감지하는 제스처 감지부;
차량의 전면 유리 또는 대시보드 상에 장착된 카메라 모듈; 및
상기 제스처 감지부의 감지 결과에 기초하여 상기 손의 끝점 및 손목의 방향선 중 적어도 어느 하나를 검출하고, 상기 손의 끝점 및 상기 손목의 방향선 중 적어도 어느 하나와, 상기 음성에 기초하여 하나 이상의 객체 중 어느 하나가 선택되었는지 여부를 판단하고, 판단 결과에 기초하여 차량 디스플레이가 선택된 객체의 증강 현실을 제공하도록 제어 신호를 생성하는 제어부를 포함하되,
상기 차량 디스플레이는, 상기 전면 유리 상에 장착되어 상기 선택된 객체에 대응하는 가상 영상 및 지도 정보를 출력하고,
상기 지도 정보는 상기 선택된 객체를 목적지로 하는 길 안내 지시자를 포함하고,
상기 제어부는, 상기 카메라 모듈로부터 수신한 영상에 기초하여 상기 선택된 객체를 판단하고, 선택된 객체를 목적지로 하는 길 안내를 수행하고,
상기 객체는 상기 길 안내 수행 시 목적지가 될 수 있는 차량 외부의 건물 또는 장소인 차량용 제어 장치.
A voice receiving unit for receiving a voice of a driver;
A gesture sensing unit for sensing a driver's hand;
A camera module mounted on a windshield or a dashboard of the vehicle; And
Detecting at least one of an end point of the hand and a direction line of the wrist based on the detection result of the gesture detection unit and detecting at least one of an end point of the hand and a direction line of the wrist, And a control unit for generating a control signal so that the vehicle display provides the augmented reality of the selected object based on the determination result,
Wherein the vehicle display is mounted on the front glass and outputs a virtual image and map information corresponding to the selected object,
Wherein the map information includes a route guidance indicator with the selected object as a destination,
Wherein the control unit judges the selected object based on an image received from the camera module, performs a route guidance using the selected object as a destination,
Wherein the object is a building or a place outside the vehicle that can be a destination when performing the route guidance.
제 1 항에 있어서,
상기 차량 디스플레이는, AVN(Audio Video Navigation) 장치 상에 장착되는 차량용 제어 장치.
The method according to claim 1,
Wherein the vehicle display is mounted on an AVN (Audio Video Navigation) apparatus.
삭제delete 삭제delete 삭제delete 삭제delete 제 1 항에 있어서,
상기 제어부는, 상기 음성이 미리 설정된 명령어와 일치하는 경우, 상기 객체 중 어느 하나가 선택되었는지 여부를 판단하는 차량용 제어 장치.
The method according to claim 1,
Wherein the control unit determines whether one of the objects is selected when the voice coincides with a predetermined command.
제 1 항에 있어서,
상기 제어부가 어느 한 객체를 목적지로 하는 길 안내를 수행하고 있는 상태에서, 상기 음성 및 상기 제스처에 의해 다른 객체가 선택된 경우, 상기 제어부는 선택된 객체를 목적지로 하는 길 안내를 수행하는 차량용 제어 장치.
The method according to claim 1,
Wherein the control unit performs a route guidance using the selected object as a destination when the voice and the gesture select another object in a state that the control unit is performing a route guidance to an object.
제 1 항에 있어서,
상기 제어부는, 3차원 가상 영상을 생성하는 차량용 제어 장치.
The method according to claim 1,
Wherein the control unit generates a three-dimensional virtual image.
운전자의 음성을 수신하는 음성 수신부;
운전자의 손을 감지하는 제스처 감지부;
차량의 전면 유리 또는 대시보드 상에 장착된 카메라 모듈;
상기 제스처 감지부의 감지 결과에 기초하여 상기 손의 끝점 및 손목의 방향선 중 적어도 어느 하나를 검출하고, 상기 손의 끝점 및 상기 손목의 방향선 중 적어도 어느 하나와, 상기 음성에 기초하여 하나 이상의 객체 중 어느 하나가 선택되었는지 여부를 판단하는 제어부; 및
선택된 객체의 증강 현실을 제공하는 차량 디스플레이를 포함하되,
상기 차량 디스플레이는, 차량의 전면 유리 상에 장착되어 상기 선택된 객체에 대응하는 가상 영상 및 지도 정보를 출력하고,
상기 지도 정보는 상기 선택된 객체를 목적지로 하는 길 안내 지시자를 포함하고,
상기 제어부는, 상기 카메라 모듈로부터 수신한 영상에 기초하여 상기 선택된 객체를 판단하고, 선택된 객체를 목적지로 하는 길 안내를 수행하고,
상기 객체는 상기 길 안내 수행 시 목적지가 될 수 있는 차량 외부의 건물 또는 장소인 차량.
A voice receiving unit for receiving a voice of a driver;
A gesture sensing unit for sensing a driver's hand;
A camera module mounted on a windshield or a dashboard of the vehicle;
Detecting at least one of an end point of the hand and a direction line of the wrist based on the detection result of the gesture detection unit and detecting at least one of an end point of the hand and a direction line of the wrist, A control unit for determining whether or not any one of them is selected; And
A vehicle display providing an augmented reality of a selected object,
Wherein the vehicle display is mounted on a windshield of a vehicle and outputs a virtual image and map information corresponding to the selected object,
Wherein the map information includes a route guidance indicator with the selected object as a destination,
Wherein the control unit judges the selected object based on an image received from the camera module, performs a route guidance using the selected object as a destination,
Wherein the object is a building or a place outside the vehicle that can be the destination in the course guidance.
삭제delete 제 10 항에 있어서,
상기 차량 디스플레이는, AVN(Audio Video Navigation) 장치 상에 장착되는 차량.
11. The method of claim 10,
The vehicle display is mounted on an AVN (Audio Video Navigation) device.
삭제delete 제 10 항에 있어서,
상기 제어부는, 상기 음성이 미리 설정된 명령어와 일치하는 경우, 상기 객체 중 어느 하나가 선택되었는지 여부를 판단하는 차량.
11. The method of claim 10,
Wherein the control unit judges whether one of the objects is selected when the voice coincides with a preset command.
제 10 항에 있어서,
상기 제어부가 어느 한 객체를 목적지로 하는 길 안내를 수행하고 있는 상태에서, 상기 음성 및 상기 제스처에 의해 다른 객체가 선택된 경우, 상기 제어부는 선택된 객체를 목적지로 하는 길 안내를 수행하는 차량.
11. The method of claim 10,
Wherein, when the control unit is performing a route guidance to an object, the control unit performs the route guidance with the selected object as a destination, when another object is selected by the voice and the gesture.
제 10 항에 있어서,
상기 차량 디스플레이는, 3차원 가상 영상을 표시하는 차량.
11. The method of claim 10,
Wherein the vehicle display displays a three-dimensional virtual image.
운전자의 음성을 수신하고, 운전자의 손을 감지하는 단계;
상기 감지하는 단계의 감지 결과에 기초하여 상기 손의 끝점 및 손목의 방향선 중 적어도 어느 하나를 검출하고, 상기 손의 끝점 및 상기 손목의 방향선 중 적어도 어느 하나와, 상기 음성에 기초하여 하나 이상의 객체 중 어느 하나가 선택되었는지 여부를 판단하는 단계;
선택된 객체의 증강 현실을 제공하는 단계; 및
선택된 객체를 목적지로 하는 길 안내를 수행하는 단계를 포함하되,
상기 길 안내를 수행하는 단계는 차량의 전면 유리 상에서 상기 선택된 객체에 대응하는 가상 영상 및 지도 정보를 출력하는 단계를 포함하고,
상기 지도 정보는 상기 선택된 객체를 목적지로 하는 길 안내 지시자를 포함하고,
상기 판단하는 단계는 차량의 전면 유리 또는 대시보드 상에 장착된 카메라 모듈로부터 수신한 영상에 기초하여 상기 선택된 객체를 판단하는 단계를 포함하고,
상기 객체는 상기 길 안내 수행 시 목적지가 될 수 있는 차량 외부의 건물 또는 장소인 차량의 제어방법.
Receiving a driver's voice and sensing a driver's hand;
Detecting at least one of an end point of the hand and a direction line of the wrist based on the detection result of the sensing step and detecting at least one of an end point of the hand and a direction line of the wrist, Determining whether one of the objects is selected;
Providing an augmented reality of the selected object; And
Performing a route guidance with the selected object as a destination,
Wherein the step of performing the route guidance includes outputting virtual image and map information corresponding to the selected object on the windshield of the vehicle,
Wherein the map information includes a route guidance indicator with the selected object as a destination,
Wherein the determining comprises determining the selected object based on an image received from a camera module mounted on a windshield or dashboard of the vehicle,
Wherein the object is a building or a place outside the vehicle that can be a destination when performing the route guidance.
삭제delete 제 17 항에 있어서,
상기 감지하는 단계는, 상기 음성이 미리 설정된 명령어와 일치하는 경우, 상기 객체 중 어느 하나가 선택되었는지 여부를 판단하는 단계를 포함하는 차량의 제어방법.
18. The method of claim 17,
Wherein the sensing includes determining whether one of the objects has been selected when the voice matches a predetermined command.
제 17 항에 있어서,
상기 증강 현실을 제공하는 단계는, 3차원 가상 영상을 표시하는 단계를 포함하는 차량의 제어방법.
18. The method of claim 17,
Wherein the step of providing the augmented reality includes displaying a three-dimensional virtual image.
제 1 항에 있어서,
상기 제스처 감지부는 광원 및 광센서를 포함하고, 상기 광원은 x축, y축, 및 z축에 대한 3차원 공간을 형성하고, 상기 광센서는 상기 운전자의 손에 의해 흡수 또는 반사된 빛을 감지하고,
상기 제어부는 상기 광센서의 감지 결과에 기초하여 상기 손의 끝점 및 손목의 방향선 중 적어도 어느 하나를 검출하는 차량용 제어 장치.
The method according to claim 1,
The gesture sensing unit includes a light source and an optical sensor, and the light source forms a three-dimensional space with respect to x-axis, y-axis, and z-axis, and the optical sensor senses light absorbed or reflected by the hands of the driver and,
Wherein the controller detects at least one of an end point of the hand and a direction line of the wrist based on the detection result of the optical sensor.
제 10 항에 있어서,
상기 제스처 감지부는 광원 및 광센서를 포함하고, 상기 광원은 x축, y축, 및 z축에 대한 3차원 공간을 형성하고, 상기 광센서는 상기 운전자의 손에 의해 흡수 또는 반사된 빛을 감지하고,
상기 제어부는 상기 광센서의 감지 결과에 기초하여 상기 손의 끝점 및 손목의 방향선 중 적어도 어느 하나를 검출하는 차량.
11. The method of claim 10,
The gesture sensing unit includes a light source and an optical sensor, and the light source forms a three-dimensional space with respect to x-axis, y-axis, and z-axis, and the optical sensor senses light absorbed or reflected by the hands of the driver and,
Wherein the control unit detects at least one of an end point of the hand and a direction line of the wrist based on the detection result of the optical sensor.
KR1020140143161A 2014-10-22 2014-10-22 Control apparatus for vechicle, vehicle, and controlling method for vehicle KR101588184B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140143161A KR101588184B1 (en) 2014-10-22 2014-10-22 Control apparatus for vechicle, vehicle, and controlling method for vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140143161A KR101588184B1 (en) 2014-10-22 2014-10-22 Control apparatus for vechicle, vehicle, and controlling method for vehicle

Publications (1)

Publication Number Publication Date
KR101588184B1 true KR101588184B1 (en) 2016-01-25

Family

ID=55307004

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140143161A KR101588184B1 (en) 2014-10-22 2014-10-22 Control apparatus for vechicle, vehicle, and controlling method for vehicle

Country Status (1)

Country Link
KR (1) KR101588184B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018044098A1 (en) * 2016-09-02 2018-03-08 Lg Electronics Inc. Vehicle user interface apparatus and vehicle
KR20210005759A (en) * 2019-07-04 2021-01-15 한양대학교 에리카산학협력단 Object selection navigation system for autonomous vehicle, autonomous vehicle apparatus thereof
KR20210005766A (en) * 2019-07-04 2021-01-15 한양대학교 에리카산학협력단 Passing priority offering system based on autonomous vehicle, and autonomous vehicle apparatus thereof
KR20210072112A (en) * 2018-12-14 2021-06-16 프로덕티브 어플리케이션 솔루션스 인코포레이티드 Systems and methods for targeting distribution of media from mobile platforms
US11167771B2 (en) 2018-01-05 2021-11-09 Magna Mirrors Of America, Inc. Vehicular gesture monitoring system
US11866063B2 (en) 2020-01-10 2024-01-09 Magna Electronics Inc. Communication system and method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110117966A (en) * 2010-04-22 2011-10-28 한국전자통신연구원 Apparatus and method of user interface for manipulating multimedia contents in vehicle
KR20130012629A (en) * 2011-07-26 2013-02-05 한국과학기술원 Augmented reality system for head-up display
KR20130027367A (en) * 2011-09-07 2013-03-15 동국대학교 산학협력단 A navigation apparatus and method for displaying course thereof
KR20140070861A (en) * 2012-11-28 2014-06-11 한국전자통신연구원 Apparatus and method for controlling multi modal human-machine interface

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110117966A (en) * 2010-04-22 2011-10-28 한국전자통신연구원 Apparatus and method of user interface for manipulating multimedia contents in vehicle
KR20130012629A (en) * 2011-07-26 2013-02-05 한국과학기술원 Augmented reality system for head-up display
KR20130027367A (en) * 2011-09-07 2013-03-15 동국대학교 산학협력단 A navigation apparatus and method for displaying course thereof
KR20140070861A (en) * 2012-11-28 2014-06-11 한국전자통신연구원 Apparatus and method for controlling multi modal human-machine interface

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018044098A1 (en) * 2016-09-02 2018-03-08 Lg Electronics Inc. Vehicle user interface apparatus and vehicle
US10488218B2 (en) 2016-09-02 2019-11-26 Lg Electronics Inc. Vehicle user interface apparatus and vehicle
US11167771B2 (en) 2018-01-05 2021-11-09 Magna Mirrors Of America, Inc. Vehicular gesture monitoring system
US11648956B2 (en) 2018-01-05 2023-05-16 Magna Mirrors Of America, Inc. Vehicular cabin monitoring system
KR20210072112A (en) * 2018-12-14 2021-06-16 프로덕티브 어플리케이션 솔루션스 인코포레이티드 Systems and methods for targeting distribution of media from mobile platforms
KR102427460B1 (en) 2018-12-14 2022-07-29 프로덕티브 어플리케이션 솔루션스 인코포레이티드 Systems and methods for targeting distribution of media from mobile platforms
KR20210005759A (en) * 2019-07-04 2021-01-15 한양대학교 에리카산학협력단 Object selection navigation system for autonomous vehicle, autonomous vehicle apparatus thereof
KR20210005766A (en) * 2019-07-04 2021-01-15 한양대학교 에리카산학협력단 Passing priority offering system based on autonomous vehicle, and autonomous vehicle apparatus thereof
KR102235274B1 (en) 2019-07-04 2021-04-07 한양대학교 에리카산학협력단 Passing priority offering system based on autonomous vehicle, and autonomous vehicle apparatus thereof
KR102303419B1 (en) * 2019-07-04 2021-09-27 한양대학교 에리카산학협력단 Autonomous vehicle apparatus
US11866063B2 (en) 2020-01-10 2024-01-09 Magna Electronics Inc. Communication system and method

Similar Documents

Publication Publication Date Title
KR101588184B1 (en) Control apparatus for vechicle, vehicle, and controlling method for vehicle
CN109725634B (en) 3D LIDAR system using dichroic mirrors for autonomous vehicles
US10488218B2 (en) Vehicle user interface apparatus and vehicle
CN105989749B (en) System and method for prioritizing driver alerts
US10460184B2 (en) Image information acquiring apparatus, vehicle, and control method thereof
US20190193738A1 (en) Vehicle and Control Method Thereof
US10191493B2 (en) Vehicle position point forwarding method for autonomous vehicles
KR101623856B1 (en) Audio video navigation, vehicle and controlling method of the audio video navigation
US11525694B2 (en) Superimposed-image display device and computer program
CN110869901A (en) User interface device for vehicle and vehicle
KR20190098818A (en) Autonomous parking system and vehicle
CN112750206A (en) Augmented reality wearable system for vehicle occupants
KR20190033975A (en) Method for controlling the driving system of a vehicle
KR20190029192A (en) Automatic Driving control apparatus, vehicle having the same and method for controlling the same
KR101977092B1 (en) Vehicle control device mounted on vehicle and method for controlling the vehicle
CN108263287B (en) Vehicle and control method thereof
EP3428033B1 (en) Vehicle control device provided in vehicle
US10922976B2 (en) Display control device configured to control projection device, display control method for controlling projection device, and vehicle
EP4083930A1 (en) Digital signage platform providing device, operating method thereof, and system including digital signage platform providing device
KR20180051977A (en) User Interface Apparatus for vehicle and method
KR20160032452A (en) Drive assist device, and controlling method thereof
JP2015172548A (en) Display control device, control method, program, and recording medium
JP5795386B2 (en) Display device and control method
WO2011135660A1 (en) Navigation system, navigation method, navigation program, and storage medium
US20230012932A1 (en) Vehicle control device and control method therefor

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181213

Year of fee payment: 4