KR101588184B1 - Control apparatus for vechicle, vehicle, and controlling method for vehicle - Google Patents
Control apparatus for vechicle, vehicle, and controlling method for vehicle Download PDFInfo
- Publication number
- KR101588184B1 KR101588184B1 KR1020140143161A KR20140143161A KR101588184B1 KR 101588184 B1 KR101588184 B1 KR 101588184B1 KR 1020140143161 A KR1020140143161 A KR 1020140143161A KR 20140143161 A KR20140143161 A KR 20140143161A KR 101588184 B1 KR101588184 B1 KR 101588184B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- driver
- hand
- control unit
- voice
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
- B60R16/037—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements for occupant comfort, e.g. for automatic adjustment of appliances according to personal settings, e.g. seats, mirrors, steering wheel
- B60R16/0373—Voice control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
- B60W2040/089—Driver voice
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Mechanical Engineering (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Navigation (AREA)
Abstract
Description
차량용 제어 장치, 차량, 및 차량의 제어방법에 관한 것이다.A vehicle control apparatus, a vehicle, and a control method of the vehicle.
차량은 기본적인 주행 기능 외에도 오디오 기능, 비디오 기능, 내비게이션 기능, 공조 제어, 시트 제어, 조명 제어 등의 운전자 편의를 위한 부가적인 기능을 더 수행할 수 있다. In addition to basic driving functions, the vehicle can perform additional functions for operator convenience such as audio function, video function, navigation function, air conditioning control, seat control, lighting control and so on.
이러한 차량 내에서 다양한 기능을 수행하기 위한 기술로 손을 이용한 제스처 감지 기술 및 음성 인식 기술이 부각되고 있다. 손을 이용한 제스처 감지 기술 및 음성 인식 기술은 손과 입이 사람의 신체 일부 중에서 가장 자유로운 부분이며 일상적으로 도구를 다루기 위한 방법과 가장 가까우므로 가장 직관적인 기술이라고 할 수 있다.As a technique for performing various functions in such a vehicle, a gesture detection technique using a hand and a voice recognition technology are highlighted. Hand gesture detection and speech recognition are the most intuitive techniques because hands and mouth are the most liberal part of a person's body and are the closest to the way they routinely manipulate their tools.
운전자의 제스처 및 음성에 따라 운전자가 원하는 목적지를 판단하고, 목적지에 대한 증강 현실 및 길 안내를 제공하도록 차량 디스플레이를 제어하는 차량용 제어 장치를 제공하고자 한다.An object of the present invention is to provide a vehicle control device for controlling a vehicle display so as to determine a destination desired by a driver according to a gesture and voice of a driver and to provide an augmented reality and a guidance for a destination.
운전자의 제스처 및 음성에 따라 목적지를 판단하고, 목적지에 대한 증강 현실 및 길 안내를 제공하는 차량 및 차량의 제어방법을 제공하고자 한다.A vehicle and a control method of a vehicle that determine a destination according to a gesture and voice of a driver and provide an augmented reality and a guidance on a destination.
일 측면에 따른 차량용 제어 장치는 운전자의 음성을 수신하는 음성 수신부; 운전자의 손을 감지하는 제스처 감지부; 차량의 전면 유리 또는 대시보드 상에 장착된 카메라 모듈; 제스처 감지부의 감지 결과에 기초하여 손의 끝점 및 손목의 방향선 중 적어도 어느 하나를 검출하고, 손의 끝점 및 손목의 방향선 중 적어도 어느 하나와, 음성에 기초하여 하나 이상의 객체 중 어느 하나가 선택되었는지 여부를 판단하고, 판단 결과에 기초하여 차량 디스플레이가 선택된 객체의 증강 현실을 제공하도록 제어 신호를 생성하는 제어부를 포함하되, 차량 디스플레이는, 전면 유리 상에 장착되어 선택된 객체에 대응하는 가상 영상 및 지도 정보를 출력하고, 지도 정보는 상기 선택된 객체를 목적지로 하는 길 안내 지시자를 포함하고, 제어부는, 카메라 모듈로부터 수신한 영상에 기초하여 상기 선택된 객체를 판단하고, 선택된 객체를 목적지로 하는 길 안내를 수행하고, 객체는 길 안내 수행 시 목적지가 될 수 있는 차량 외부의 건물 또는 장소일 수 있다.A vehicle control apparatus according to one aspect includes: a voice receiving unit for receiving a voice of a driver; A gesture sensing unit for sensing a driver's hand; A camera module mounted on a windshield or a dashboard of the vehicle; Detecting at least one of an end point of the hand and a direction line of the wrist based on the detection result of the gesture detection unit and detecting at least any one of an end point of the hand and a direction line of the wrist and one or more objects And a control unit for generating a control signal so that the vehicle display provides the augmented reality of the selected object based on the determination result, wherein the vehicle display further includes a virtual image corresponding to the selected object mounted on the windshield, The controller outputs the map information, and the map information includes a route guide indicator with the selected object as a destination. The controller determines the selected object based on the image received from the camera module, , And the object is a building outside the vehicle that can be the destination for the route guidance, or It can be a place.
또한, 차량 디스플레이는, AVN(Audio Video Navigation) 장치 상에 장착된다.The vehicle display is also mounted on an AVN (Audio Video Navigation) device.
또한, 제어부는, 음성이 미리 설정된 명령어와 일치하는 경우, 객체 중 어느 하나가 선택되었는지 여부를 판단한다.In addition, the control unit judges whether any one of the objects is selected when the voice matches the preset command.
삭제delete
삭제delete
삭제delete
삭제delete
또한, 제어부가 어느 한 객체를 목적지로 하는 길 안내를 수행하고 있는 상태에서, 음성 및 제스처에 의해 다른 객체가 선택된 경우, 제어부는 선택된 객체를 목적지로 하는 길 안내를 수행한다.In addition, in a state where the control unit is performing a route guidance to a certain object, when the other object is selected by the voice and the gesture, the control unit performs the route guidance using the selected object as a destination.
또한, 제어부는, 3차원 가상 영상을 생성한다.Further, the control unit generates a three-dimensional virtual image.
다른 측면에 따른 차량은, 운전자의 음성을 수신하는 음성 수신부; 운전자의 손을 감지하는 제스처 감지부; 차량의 전면 유리 또는 대시보드 상에 장착된 카메라 모듈; 제스처 감지부의 감지 결과에 기초하여 손의 끝점 및 손목의 방향선 중 적어도 어느 하나를 검출하고, 손의 끝점 및 손목의 방향선 중 적어도 어느 하나와, 음성에 기초하여 하나 이상의 객체 중 어느 하나가 선택되었는지 여부를 판단하는 제어부; 및 선택된 객체의 증강 현실을 제공하는 차량 디스플레이를 포함하되, 차량 디스플레이는, 차량의 전면 유리 상에 장착되어 선택된 객체에 대응하는 가상 영상 및 지도 정보를 출력하고, 지도 정보는 선택된 객체를 목적지로 하는 길 안내 지시자를 포함하고, 제어부는, 카메라 모듈로부터 수신한 영상에 기초하여 선택된 객체를 판단하고, 선택된 객체를 목적지로 하는 길 안내를 수행하고, 객체는 길 안내 수행 시 목적지가 될 수 있는 차량 외부의 건물 또는 장소일 수 있다.A vehicle according to another aspect includes: a voice receiving unit for receiving a voice of a driver; A gesture sensing unit for sensing a driver's hand; A camera module mounted on a windshield or a dashboard of the vehicle; Detecting at least one of an end point of the hand and a direction line of the wrist based on the detection result of the gesture detection unit and detecting at least any one of an end point of the hand and a direction line of the wrist and one or more objects A control unit for determining whether or not the control unit is turned on; And a vehicle display providing an augmented reality of the selected object, wherein the vehicle display is mounted on the windshield of the vehicle and outputs a virtual image and map information corresponding to the selected object, The control unit includes a route guidance indicator, and the control unit determines the selected object based on the image received from the camera module, performs the route guidance with the selected object as a destination, Of buildings or places.
또한, 차량 디스플레이는, AVN(Audio Video Navigation) 장치 상에 장착된다.The vehicle display is also mounted on an AVN (Audio Video Navigation) device.
삭제delete
삭제delete
또한, 제어부는, 음성이 미리 설정된 명령어와 일치하는 경우, 객체 중 어느 하나가 선택되었는지 여부를 판단한다.In addition, the control unit judges whether any one of the objects is selected when the voice matches the preset command.
또한, 제어부가 어느 한 객체를 목적지로 하는 길 안내를 수행하고 있는 상태에서, 음성 및 제스처에 의해 다른 객체가 선택된 경우, 선택된 객체를 목적지로 하는 길 안내를 수행한다.In addition, when the control unit is performing route guidance with an object as a destination, when another object is selected by voice and gesture, the route guidance is performed with the selected object as a destination.
또한, 차량 디스플레이는, 3차원 가상 영상을 표시한다.Further, the vehicle display displays a three-dimensional virtual image.
또 다른 측면에 따른 차량의 제어방법은, 운전자의 음성을 수신하고, 운전자의 손을 감지하는 단계; 감지하는 단계의 감지 결과에 기초하여 손의 끝점 및 손목의 방향선 중 적어도 어느 하나를 검출하고, 손의 끝점 및 손목의 방향선 중 적어도 어느 하나와, 음성에 기초하여 하나 이상의 객체 중 어느 하나가 선택되었는지 여부를 판단하는 단계; 선택된 객체의 증강 현실을 제공하는 단계; 및 선택된 객체를 목적지로 하는 길 안내를 수행하는 단계를 포함하되, 길 안내를 수행하는 단계는 차량의 전면 유리 상에서 선택된 객체에 대응하는 가상 영상 및 지도 정보를 출력하는 단계를 포함하고, 지도 정보는 선택된 객체를 목적지로 하는 길 안내 지시자를 포함하고, 판단하는 단계는 차량의 전면 유리 또는 대시보드 상에 장착된 카메라 모듈로부터 수신한 영상에 기초하여 선택된 객체를 판단하는 단계를 포함하고, 객체는 길 안내 수행 시 목적지가 될 수 있는 차량 외부의 건물 또는 장소일 수 있다.According to another aspect of the present invention, there is provided a method of controlling a vehicle, comprising: receiving a driver's voice and sensing a driver's hand; Detecting at least one of an end point of the hand and a direction line of the wrist based on the detection result of the sensing step and detecting at least any one of an end point of the hand and a direction line of the wrist and one or more objects based on the voice Judging whether or not it has been selected; Providing an augmented reality of the selected object; And performing a route guidance with the selected object as a destination, wherein performing the route guidance includes outputting a virtual image and map information corresponding to an object selected on the windshield of the vehicle, Wherein the determining comprises determining a selected object based on an image received from a camera module mounted on a windshield or dashboard of the vehicle, It may be a building or a place outside the vehicle that can be the destination when performing the guidance.
삭제delete
또한, 감지하는 단계는, 음성이 미리 설정된 명령어와 일치하는 경우, 객체 중 어느 하나가 선택되었는지 여부를 판단하는 단계를 포함한다.In addition, the sensing step includes determining whether any one of the objects is selected when the voice matches the preset command.
또한, 증강 현실을 제공하는 단계는, 3차원 가상 영상을 표시하는 단계를 포함한다.
또한, 제스처 감지부는 광원 및 광센서를 포함하고, 광원은 x축, y축, 및 z축에 대한 3차원 공간을 형성하고, 광센서는 운전자의 손에 의해 흡수 또는 반사된 빛을 감지하고, 제어부는 광센서의 감지 결과에 기초하여 손의 끝점 및 손목의 방향선 중 적어도 어느 하나를 검출할 수 있다.Further, the step of providing the augmented reality includes displaying the three-dimensional virtual image.
The gesture sensing unit includes a light source and an optical sensor. The light source forms a three-dimensional space with respect to x-axis, y-axis, and z-axis. The optical sensor senses light absorbed or reflected by the driver's hand, The control unit can detect at least one of the end point of the hand and the direction line of the wrist based on the detection result of the optical sensor.
개시된 차량용 제어 장치, 차량, 및 차량의 제어방법에 의하면, 운전자는 차량 내에서 원하는 목적지를 손 또는 음성을 통해 지시함으로써, 목적지에 대한 직관적인 증강 현실 및 길 안내를 제공받을 수 있다.According to the vehicle control apparatus, the vehicle, and the control method of the vehicle, the driver can be provided with an intuitive augmented reality and guidance on the destination by instructing a desired destination in the vehicle by hand or voice.
또한, 개시된 차량용 제어 장치, 차량, 및 차량의 제어방법에 의하면, 운전자는 운전 중 언제든 주변에 위치한 목적지를 손 또는 음성을 통해 지시하여 증강 현실 및 길 안내를 제공받을 수 있다.In addition, according to the vehicle control apparatus, the vehicle, and the control method of the vehicle, the driver can be provided with the augmented reality and the route guidance by instructing the destination located around the vehicle at any time during the driving through hands or voice.
도 1은 차량용 제어 장치가 장착되는 차량의 외관 개략도이다.
도 2는 차량용 제어 장치가 장착된 차량의 내부도이다.
도 3은 차량용 제어 장치가 장착된 차량의 내부도이다.
도 4는 차량용 제어 장치의 제어 블록도이다.
도 5는 제스처 감지부가 감지한 신호에 의해 형성되는 3차원 공간의 예이다.
도 6은 손목의 방향선 또는 손의 끝점에 대응하는 객체의 예시도이다.
도 7은 음성과 명령어의 파형 예시도이다.
도 8은 전면 유리 상에 장착된 차량 디스플레이가 제공하는 객체의 증강 현실, 지도 정보에 대한 도면이다.
도 9는 AVN장치 상에 장착된 차량 디스플레이가 제공하는 영상이다.
도 10은 전면 유리 상에 장착된 차량 디스플레이가 내비게이션 화면을 출력하는 예시도이다.
도 11은 차량의 제어 블록도이다.
도 12는 차량의 제어방법에 대한 순서도이다.BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a schematic view of the appearance of a vehicle on which a vehicle control device is mounted. Fig.
2 is an internal view of a vehicle equipped with a vehicle control device.
3 is an internal view of a vehicle equipped with a vehicle control device.
4 is a control block diagram of a control apparatus for a vehicle.
5 is an example of a three-dimensional space formed by a signal sensed by the gesture sensing unit.
6 is an illustration of an object corresponding to a direction line of a wrist or an end point of a hand;
7 is a diagram showing waveforms of voice and command words.
8 is a diagram of an augmented reality and map information of an object provided by a vehicle display mounted on a windshield.
9 is an image provided by the vehicle display mounted on the AVN apparatus.
10 is an exemplary view showing a vehicle display mounted on a windshield to output a navigation screen.
11 is a control block diagram of the vehicle.
12 is a flowchart of a control method of a vehicle.
본 발명의 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 연관되는 이하의 상세한 설명과 바람직한 실시 예들로부터 더욱 명백해질 것이다. 본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다. 본 명세서에서, 제 1, 제 2 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 상기 용어들에 의해 제한되는 것은 아니다. BRIEF DESCRIPTION OF THE DRAWINGS The objectives, specific advantages and novel features of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG. It should be noted that, in the present specification, the reference numerals are added to the constituent elements of the drawings, and the same constituent elements are assigned the same number as much as possible even if they are displayed on different drawings. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. In this specification, the terms first, second, etc. are used to distinguish one element from another, and the element is not limited by the terms.
이하, 도 1 내지 도 11을 참조하여, 차량용 제어 장치(100) 및 차량(10)에 대해 설명한다. 도 1은 차량용 제어 장치(100)가 장착되는 차량(10)의 외관을 설명하기 위한 개략도이고, 도 2는 차량용 제어 장치(100)가 장착된 차량(10)의 내부도이다.Hereinafter, the
도 1을 참조하면, 일 실시예에 따른 차량(10)은 차량(10)의 외관을 형성하는 본체(1), 차량(10)을 이동시키는 차륜(51, 52), 차륜(51, 52)을 회전시키는 구동 장치(60), 차량(10) 내부를 외부로부터 차폐시키는 도어(71, 72(도 2 참조)), 차량(10) 내부의 운전자에게 차량(10) 전방의 시야를 제공하는 전면 유리(31), 운전자에게 차량(10) 후방의 시야를 제공하는 사이드 미러(81, 82)를 포함한다.1, a
차륜(51, 52)은 차량의 전방에 마련되는 전륜(51), 차량의 후방에 마련되는 후륜(52)을 포함하며, 구동 장치(60)는 본체(1)가 전방 또는 후방으로 이동하도록 전륜(51) 또는 후륜(52)에 회전력을 제공한다. 이와 같은 구동 장치(60)는 화석 연료를 연소시켜 회전력을 생성하는 엔진(engine) 또는 축전기(미도시)로부터 전원을 공급받아 회전력을 생성하는 모터(motor)를 채용할 수 있다.The
도어(71, 72)는 본체(1)의 좌측 및 우측에 회동 가능하게 마련되어 개방 시에 운전자가 차량(10)의 내부에 탑승할 수 있도록 하며, 폐쇄 시에 차량(100)의 내부를 외부로부터 차폐시킨다.The
전면 유리(31)는 본체(1)의 전방 상측에 마련되어 차량(10) 내부의 운전자가 차량(10) 전방의 시각 정보를 획득할 수 있도록 하는 것으로서, 윈드쉴드 글래스(windshield glass)라고도 한다. The
전면 유리(31) 상에는, 차량 디스플레이(200)가 장착될 수 있다. On the
전면 유리(31) 상에 장착된 차량 디스플레이(200)는 운전자에 의해 선택된 객체의 증강 현실, 지도 정보, 차량 현재 속도, 연료 잔량, 목적지 길안내 정보 등을 전면 유리(31) 상에 그래픽 영상으로 투영해주는 장치로서, 운전자가 계기반이나 AVN(Audio Video Navigation)화면 등을 보기 위해 시선을 옮기는 것을 최소화 시켜 준다. The
객체는 AVN장치(300)가 내비게이션 기능 수행 시, 목적지가 될 수 있는 건물 또는 장소로서, 차량 디스플레이(200)가 제공하는 증강 현실의 한 단위가 된다.The object is a building or a place where the
증강현실(Augmented Reality, AR)은 운전자가 보고 있는 현실의 영상이나 배경에 3차원 가상 영상을 겹쳐서 하나의 영상으로 보여주는 기술이다. Augmented Reality (AR) is a technology that superimposes three-dimensional virtual images on a realistic image or background that the driver sees and displays them as one image.
전면 유리(31) 상에 장착된 차량 디스플레이(200)는 어느 한 객체의 증강 현실을 운전자에게 제공하기 위해, 상기 객체의 3차원 가상 영상을 전면 유리(31)에 비치는 객체의 현실 영상 위에 겹쳐서 보여준다.The
전면 유리(31) 상에 장착된 차량 디스플레이(200)는 예를 들어, 투명 박막 트랜지스터로 구현된 헤드업 디스플레이(Head-Up Display, HUD)일 수 있다. The
이 경우, 도 2에 나타난 바와 같이, 차량 디스플레이(200)는 전면 유리(31) 상에 장착되며, 투명하므로 운전자의 시야를 방해하지 않는다.In this case, as shown in FIG. 2, the
차량 디스플레이(200)는 전면 유리(31)뿐만 아니라 차량(10)의 차량(10) 내부의 운전자에게 차량(10) 후방의 시야를 제공하는 후면 유리(미도시), 차량(10) 좌방 또는 우방의 시야를 제공하는 사이드 유리(미도시) 상에 장착될 수도 있다.The
또한, 차량 디스플레이(200)는 AVN장치(300) 상에 장착될 수도 있고, 이는 도 9와 관련하여 자세히 후술한다.
사이드 미러(81, 82)는 본체(1)의 좌측에 마련되는 좌측 사이드 미러(81) 및 우측에 마련되는 우측 사이드 미러(82)를 포함하며, 차량(10) 내부의 운전자가 차량(10) 측면 및 후방의 시각 정보를 획득할 수 있도록 한다.The side mirrors 81 and 82 include a
일 실시예에 따른 차량(10)은 차량용 제어 장치(100) 및 AVN(Audio Video Navigation) 장치(300)를 포함한다. The
AVN 장치(300)는 오디오 기능, 비디오 기능 및 내비게이션 기능을 통합적으로 수행하는 장치로서, 상기 기능들 외에도 전화 걸기 등의 추가적인 기능들을 더 수행하는 것도 가능하다. The
AVN장치(300) 상에는 오디오 기능, 비디오 기능 및 내비게이션 기능을 운전자에게 제공하기 위한 차량 디스플레이(200)가 장착될 수 있고, AVN장치(300) 상에 장착된 차량 디스플레이(200)는 차량(10)의 대시보드(32)의 중앙 영역인 센터페시아(33)에 장착될 수 있다. 이와 관련된 자세한 설명은 후술한다.A
도 3은 차량용 제어 장치(100)가 장착된 차량(10)의 내부도이고, 도 4는 차량용 제어 장치(100)의 제어 블록도이다.3 is an internal view of the
차량용 제어 장치(100)는 도 3a와 같이 운전석(21)과 조수석(22) 사이의 센터 콘솔(40) 상에 장착될 수 있고, 도 3b와 같이 전면 유리(31)의 상단에 장착될 수도 있다.The
이러한 차량용 제어 장치(100)는 도 4를 참조하면, 운전자의 음성을 수신하는 음성 수신부(110), 운전자의 제스처를 감지하는 제스처 감지부(120), 차량용 제어 장치(100)의 각 구성요소를 전반적으로 제어하는 제어부(130), 및 하나 이상의 객체에 대응하는 지도 정보가 저장된 저장부(140)를 포함한다.4, the
음성 수신부(110)는 운전자로부터 음성을 수신하여 전기적 신호를 발생시킨다. 음성은 사람의 음성을 비롯하여 모든 종류의 음향을 포함한다. 이러한 음성은 진동수 및 크기를 갖는 음파로 나타낼 수 있다. The
음성 수신부(110)는 예를 들어, 마이크로 구현될 수 있다. 마이크는 카본형, 크리스털형, 가동코일형, 리본형, 콘덴서형, 및 반도체형 마이크를 포함한다. 그러나, 마이크는 제시된 마이크 종류에 한정되지 아니하고 다양한 종류의 마이크로 구현될 수 있다.The
제스처 감지부(120)는 운전자의 손을 촬영하여, 손의 제스처를 감지한다. The
이하, 손의 제스처를 예로 들어 설명하나, 제스처 감지부(120)가 눈 기타 다른 형태의 제스처를 감지하는 것도 가능하다.Hereinafter, a hand gesture will be described as an example, but it is also possible that the
도 3a에 도시된 바와 같이, 차량용 제어 장치(100)가 센터 콘솔(31) 상에 장착된 경우, 제스처 감지부(120)는 센터 콘솔 (31) 상단에서 움직이는 손의 제스처를 감지할 수 있다.3A, when the
도 3b에 도시된 바와 같이, 차량용 제어 장치(100)가 전면 유리(31) 상에 장착된 경우, 제스처 감지부(120)는 전면 유리(31)의 내부 하단에서 움직이는 손의 제스처를 감지할 수 있다.3B, when the on-
제스처 감지부(120)는 예를 들어, 카메라로 구현될 수 있고, 운전자의 손이 카메라 시야 내에 위치하도록, 서보 모터에 의해 180도 회전 구동하면서 운전자의 손을 추적할 수 있다. 또한, 제스처 감지부(120)는 운전자 손의 3차원 좌표의 획득 또는 3D모델링을 위한 스테레오 카메라(Stereo Camera), 또는 적외선 광원 및 적외선 센서를 포함하는 적외선 카메라로 구현될 수도 있다.The
또한, 제스처 감지부(120)는 예를 들어, 초음파 센서로 구현될 수도 있다. 이 경우, 제스처 감지부(120)는 감지 영역 내에서, 운전자 손의 움직임을 실시간으로 감지한다. Also, the
또한, 제스처 감지부(120)는 3개의 적외선 광원 및 2개의 광센서로 구현된 립모션(Leap Motion) 장치로서 구현될 수도 있다.Also, the
이외에도, 제스처 감지부(120) 손의 제스처를 감지하기 위한 다양한 장치로서 구현될 수 있다.In addition, the
도 5는 제스처 감지부(120)가 감지한 신호에 의해 형성되는 3차원 공간의 예이다.5 is an example of a three-dimensional space formed by a signal sensed by the
도 5를 참조하면, 제스처 감지부(120)는 3개의 적외선 광원을 이용하여 각 광원에 대응하는 x, y, z축에 대한 3차원 공간을 형성하고, 2개의 광센서가 형성된 3차원 공간을 감지할 수 있다. 5, the
이러한 3차원 공간에서 제스처 감지부(120)는 제스처로서, 운전자의 손을 감지한다.In this three-dimensional space, the
예를 들어, 제스처 감지부(120)는 적외선 광원으로부터 조사되었으나, 운전자의 손에 의해 흡수 또는 반사된 적외선을 감지함으로써, 운전자의 손을 감지할 수 있고, 이에 따라 출력 신호를 생성한다.For example, the
제어부(130)는 운전자에게 보여지는 하나 이상의 객체를 판단하고, 손목의 방향선(l) 또는 손의 끝점(p)을 검출하고, 검출된 손목의 방향선(l) 또는 손의 끝점(p)과 음성 수신부(110)에 의해 수신한 운전자의 음성에 기초하여, 하나 이상의 객체 중 어느 한 객체가 선택되었는지 여부를 판단한다.The
예를 들어, 제어부(130)는 위성 항법 장치(GPS)로부터 수신한 차량(10)의 현재 위치 정보에 기초하여, 현재 위치에서 운전자에게 보여지는 하나 이상의 객체를 추정할 수 있다.For example, the
또한, 제어부(130)는 전면 유리(31) 또는 대시보드(32) 상에 장착된 카메라 모듈(미도시)로부터 수신한 바깥 영상에 기초하여, 운전자에게 보여지는 하나 이상의 객체를 추정할 수도 있다. 바깥 영상은 차량(10)의 전면 유리(31)를 통해 운전자에게 보여지는 영상을 의미한다.The
그러나, 운전자에게 보여지는 하나 이상의 객체는 반드시 이에 한정되지 아니하고, 다양한 방법으로 추정 또는 판단될 수 있다.However, one or more objects shown to the driver are not necessarily limited to these, but may be estimated or determined in various ways.
또한, 제어부(130)는 제스처 감지부(120)의 출력 신호에 기초하여 손목의 방향선(l) 또는 손의 끝점(p)을 검출한다.The
예를 들어, 제어부(130)는 제스처 감지부(120)의 출력 신호에 기초하여 손의 경계에 대한 그래디언트(gradient)를 계산함으로써, 손목의 방향(I) 및 손의 끝점(p)을 먼저 검출할 수 있다. For example, the
또한, 제어부(130)는 제스처 감지부(120)의 출력 신호에 기초하여 손의 끝점(p)을 검출하고, 손의 끝점(p)이 움직이는 궤도를 추적함으로써 손의 끝점(p)의 이동을 추적할 수도 있다.The
또한, 제어부(130)는 운전자에게 보여지는 하나 이상의 객체 중 검출된 손목의 방향선(l) 또는 손의 끝점(p)에 대응하는 객체를 판단한다.Further, the
도 6은 손목의 방향선(l) 또는 손의 끝점(p)에 대응하는 객체의 예시도이다.6 is an illustration of an object corresponding to a direction line l of a wrist or an end point p of a hand.
도 6을 참조하면, 제어부(130)는 운전자에게 보여지는 하나 이상의 객체(ob1, ob2) 중 검출된 손목의 방향선(l) 또는 손의 끝점(p)에 대응하는 객체(ob2)를 판단한다.Referring to FIG. 6, the
손목의 방향선(l)에 대응하는 객체(ob2)는 검출된 손목의 방향선(l)과 전면 유리(31)가 만나는 지점에서 사용자에게 보여지는 객체(ob2)를 의미한다.The object ob2 corresponding to the
손의 끝점(p)에 대응하는 객체(ob2)는 검출된 손의 끝점(p)으로부터 손목의 방향선(l)과 평행한 직선을 그었을 때, 직선과 전면 유리(31)가 만나는 지점에서 사용자에게 보여지는 객체(ob2)를 의미한다.The object ob2 corresponding to the end point p of the hand is positioned at a position where the straight line and the
또한, 제어부(130)는 음성 수신부(110)로부터 수신한 음성이 후술할 저장부(140)에 저장된 명령어와 일치하는지 판단한다.The
도 7은 음성과 명령어의 파형 예시도이다.7 is a diagram showing waveforms of voice and command words.
제어부(130)는 음성과 명령어가 일치하는 경우, 현재 손목의 방향선(l) 및 손의 끝점(p)에 대응하는 객체(ob2)가 "선택"되었다고 판단한다.The
예를 들어, 저장부(140)에 명령어로서 "저기요"가 저장되어 있고, 음성 수신부(110)가 음성으로서 "저기요"를 수신한 경우, 제어부(130)는 현재 손목의 방향선(l) 및 손의 끝점(p)에 대응하는 객체(ob2)가 선택되었다고 판단한다.For example, when "save" is stored as a command in the
음성과 명령어의 일치는, 도 7에 도시된 바와 같이, 음성의 파형 및 명령어의 파형의 일치 여부에 따라 판단될 수 있다.As shown in Fig. 7, the coincidence between the voice and the command can be judged according to whether or not the waveform of the voice and the waveform of the command coincide with each other.
이어서, 제어부(130)는 선택된 객체에 대한 증강 현실을 운전자에게 제공하도록 차량 디스플레이(200)에 대한 제어 신호를 생성한다.The
차량 디스플레이(200)는 상술한 바와 같이, 전면 유리(31) 상에 장착될 수도 있고, AVN장치(300) 상에 장착될 수도 있다.The
도 8은 전면 유리(31) 상에 장착된 차량 디스플레이(200)가 제공하는 객체의 증강 현실, 지도 정보에 대한 도면이다.8 is a diagram of an augmented reality and map information of an object provided by the
도 8을 참조하면, 제어부(130)는 선택된 객체(ob2)에 대해 가상 영상을 생성하고, 차량 디스플레이(200)가 전면 유리(31) 상에 생성된 가상 영상을 투영하도록 하는 제어 신호를 생성한다.8, the
이 경우, 제어부(130)는 전면 유리(31) 상에서 운전자에게 보여지는 현실 영상 위에 가상 영상을 투영하도록 전면 유리(31) 상에 장착된 차량 디스플레이(200)를 제어함으로써, 증강 현실을 운전자에게 제공할 수 있다.In this case, the
가상 영상은 후술할 저장부(140)에 저장된 영상일 수 있다.The virtual image may be an image stored in the
또한, 제어부(130)는 가상 영상뿐만 아니라, 선택된 객체(ob)에 대한 지도 정보(inf) 또한 전면 유리(310) 상에 표시하도록 전면 유리(31) 상에 장착된 차량 디스플레이(200)를 제어할 수도 있다.The
지도 정보는 객체의 상호명, 지리적 위치 등 객체와 관련된 일반적인 내비게이션 정보를 의미한다. Map information refers to general navigation information related to an object such as an object's business name, geographical position, and the like.
이외에도, 제어부(130)는 전면 유리(31) 상에 장착된 차량 디스플레이(200)가 차량 현재 속도, 연료 잔량, 길 안내 정보 등 다양한 정보(미도시)를 전면 유리(31) 상에 그래픽 영상으로 투영하도록 제어할 수 있다.In addition, the
전면 유리(31) 상에 장착된 차량 디스플레이(200)는 예를 들어, 투명 박막 트랜지스터로 구현된 헤드업 디스플레이(Head-Up Display, HUD)일 수 있다. The
또한, 전면 유리(31) 상에 장착된 차량 디스플레이(200)는, 3차원 영상을 운전자에게 표시할 수도 있다.Further, the
한편, 차량 디스플레이(200)는 전면 유리(31) 상에 장착되는 것뿐만 아니라, AVN장치(300) 상에 장착될 수도 있다.On the other hand, the
도 9는 AVN장치(300) 상에 장착된 차량 디스플레이(200)가 제공하는 영상이다.9 is an image provided by the
AVN장치(300) 상에 장착된 차량 디스플레이(200)는, 도 2에 도시된 바와 같이, 차량(10)의 대시보드(32)의 중앙 영역인 센터페시아(33)에 장착될 수 있으며, 도 9에 도시된 바와 같이 선택된 객체(ob2)에 대한 증강 현실을 제공할 수 있다.The
이 경우, 제어부(130)는 차량(10)의 현재 위치에 대응하는 지도 정보에 기초하여, 내비게이션 화면 상에 선택된 객체(ob2)의 주위 영역에 대한 현실 영상 및 선택된 객체(ob2)에 대한 가상 영상을 함께 표시하도록 AVN장치(300) 상에 장착된 차량 디스플레이(200)를 제어함으로써, 증강 현실을 운전자에게 제공할 수 있다.In this case, based on the map information corresponding to the current position of the
현실 영상은 차량(10) 전면 유리(31) 또는 대시보드(32) 상에 장착된 카메라 모듈(미도시)로부터 획득된 바깥 영상일 수 있다.The real image may be an image obtained from a camera module (not shown) mounted on the
가상 영상은 후술할 저장부(140)에 저장된 3차원 영상일 수 있다.The virtual image may be a three-dimensional image stored in the
또한, 제어부(130)는 가상 영상뿐만 아니라, 선택된 객체(ob)에 대한 지도 정보(inf) 또한 운전자에게 표시하도록 AVN장치(300) 상에 장착된 차량 디스플레이(200)를 제어할 수도 있다.The
AVN장치(300) 상에 장착된 차량 디스플레이(200)는, 플라즈마 디스플레이 패널(PDP, plazma display panel), 발광 다이오드(LED, light emitting diode) 또는 액정 디스플레이(LCD, liquid crystal display) 등을 이용하여 구현된 것일 수 있다. The
한편, 제어부(130)는 선택된 객체(ob2)를 목적지로 하는 길 안내를 수행할 수 있다.On the other hand, the
이 경우, 제어부(130)가 이미 어느 한 객체를 목적지로 하는 길 안내를 수행하고 있는 상태에서, 음성 및 제스처에 의해 다른 객체(ob2)가 선택된 경우, 선택된 객체(ob2)를 목적지로 하는 길 안내를 최우선적으로 수행한다.In this case, if another object ob2 is selected by voice and gesture in a state in which the
길 안내는 전면 유리(31) 상에 장착된 차량 디스플레이(200) 또는 AVN장치(300) 상에 장착된 차량 디스플레이(200)가 내비게이션 화면을 출력하도록 제어함으로써 수행될 수 있다.The route guidance can be performed by controlling the
도 10은 전면 유리(31) 상에 장착된 차량 디스플레이(200)가 내비게이션 화면을 출력하는 예시도이다.10 is an exemplary view showing the
도 10을 참조하면, 제어부(130)는, 선택된 객체(ob2)를 목적지로 하는 길 안내 영상을 생성하고, 길 안내 영상을 운전자에게 투영하도록 전면 유리(31) 상에 장착된 차량 디스플레이(200)를 제어할 수 있다.10, the
이 경우, 제어부(130)는 운전자에게 길 안내를 수행하기 위해, 길 안내 지시자(v) 및 그 외 지도 정보(미도시)를 길 안내 영상으로 생성할 수도 있다. In this case, the
또한, 길 안내 영상(예를 들어, 길 안내 지시자(v))도 3차원 가상 영상으로 생성될 수 있다.Also, the route guidance image (e.g., the route guidance indicator v) may be generated as a three-dimensional virtual image.
이외에도 제어부(130)는 전면 유리(31) 상에 장착된 차량 디스플레이(200)가 다양한 가상 영상을 전면 유리(31)에 투영하도록 제어함으로써 운전자에게 증강 현실을 제공할 수 있다.In addition, the
또한, 다시 도 9를 참조하면, 제어부(130)는 선택된 객체(ob2)를 목적지로 하는 길 안내 영상을 생성하고, 길 안내 영상을 운전자에게 출력하도록 AVN장치(300) 상에 장착된 차량 디스플레이(200)를 제어할 수 있다.9, the
이 경우, AVN장치(300) 상에 장착된 차량 디스플레이(200)는 길 안내를 수행하기 위해, 선택된 객체(ob2)를 목적지로 하는 길 안내 지시자(v) 및 지도 정보(inf)를 길 안내 영상으로서 운전자에게 출력할 수 있다.In this case, the
또한, 길 안내 영상(예를 들어, 길 안내 지시자(v))도 3차원 가상 영상으로 생성될 수 있다.Also, the route guidance image (e.g., the route guidance indicator v) may be generated as a three-dimensional virtual image.
이외에도 제어부(130)는 AVN장치(300) 상에 장착된 차량 디스플레이(200)가 다양한 가상 영상을 내비게이션 화면에 출력하도록 제어함으로써 운전자에게 증강 현실을 제공할 수 있다.In addition, the
다시 도 3을 참조하면, 제어부(130)는 프로세서(Processor, 131), 차량용 제어 장치(100)의 제어를 위한 제어 프로그램이 저장된 롬(ROM, 133) 및 차량용 제어 장치(100)의 외부에서부터 입력되는 신호 또는 데이터를 저장하거나, 차량용 제어 장치(100)에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 램(RAM, 132)을 포함할 수 있다.3, the
또한, 제어부(130)와 전기적으로 연결되는 별개인 회로 기판에 프로세서(131), 램(132) 또는 롬(133)을 포함하는 프로세싱 보드(graphic processing board, 도시되지 아니함)를 포함할 수 있다. In addition, a separate circuit board electrically connected to the
프로세서(131), 램(132) 및 롬(133)은 내부 버스(bus)를 통해 상호 연결될 수 있다. The
또한, 제어부(130)는 프로세서(131), 램(132) 및 롬(133)을 포함하는 구성 요소를 지칭하는 용어로 사용될 수 있다. The
또한, 제어부(130)는 프로세서(131), 램(132), 롬(133), 및 프로세싱 보드(도시하지 아니함)를 포함하는 구성 요소를 지칭하는 용어로 사용될 수도 있다.The
저장부(140)는 차량용 제어 장치(100)의 기능 동작에 대한 프로그램이 저장된 프로그램 영역(141) 및 사용에 따른 데이터가 저장된 데이터 영역(142)을 포함한다. 데이터 영역(142)에는 하나 이상의 객체(ob) 각각에 대응하는 가상 영상, 지도 정보, 음성 인식에 필요한 명령어 등이 저장된다.The
지도 정보는 객체의 상호명, 지리적 위치 등 객체와 관련된 일반적인 내비게이션 정보를 의미한다. 지도 정보는 지형 정보(예를 들어, 지하 또는 터널 여부), 경로 정보(예를 들어, 과속 카메라 위치, 분기점, 고속 도로 여부), 교통 정보(예를 들어, 실시간 교통 상황), 장소 정보(예를 들어, A식당, B주유소의 위치)를 포함한다.Map information refers to general navigation information related to an object such as an object's business name, geographical position, and the like. The map information may include location information (e.g., underground or tunnel), path information (e.g., speed camera location, bifurcation, highway), traffic information For example, the location of the A restaurant and the B gas station).
명령어는 운전자의 음성에 따라 제어부(130)가 제어를 수행할 때 사용하는 데이터의 한 단위를 의미한다. 예를 들어, 명령어는 "음성 인식 모드," "<서수>번째," "네/아니오", "경로 <숫자>," "<이름>에게 전화," 및 "이전 화면" "저기요" 등 다양한 문구에 대한 음성 파형을 포함한다. The term " command " means a unit of data used when the
한편, 도 3에서는 제어부(130)가 제어 프로그램이 저장된 롬(ROM, 133)과 차량용 제어 장치(100)의 외부에서부터 입력되는 신호 또는 데이터를 저장하거나, 차량용 제어 장치(100)에서 수행되는 다양한 작업에 대응되는 저장 영역으로 사용되는 램(RAM, 132)을 포함하는 것으로 도시하였으나, 저장부(140)가 램 및 롬을 포함하는 것도 가능하다.3, the
또한, 저장부(140)는 제어부(130)와 별도의 구성으로서 구현되는 것도 가능하나, 제어부(130) 내에서 구현되어 램 및 롬을 포함하는 것도 가능하다. 이 경우, 저장부(140)는 어느 한 기판 상에 또는 장치 내에서 제어부(130)를 이루는 다른 구성요소들과 함께 결합되어 구현될 수 있다.Also, the
한편, 다른 실시예에 따르면, 상술한 음성 수신부(110), 제스처 감지부(120), 제어부(130), 및 저장부(140)는 차량(10) 내에서 각각 모듈로서 구현되어, 상호 간 유무선 네트워크를 통해 연결될 수 있다.The
이 경우, 유무선 네트워크는 유선 통신망, 무선 통신망, 및 근거리 통신망을 포함하고, 유선 통신망, 무선 통신망, 및 근거리 통신망의 조합을 포함할 수 있다. In this case, the wired and wireless network includes a wired communication network, a wireless communication network, and a local area network, and may include a combination of a wired communication network, a wireless communication network, and a local area network.
유선 통신망은 유선 이더넷을 포함하고, 광역 통신망(Wide Area Network; WAN), 부가가치 통신망(Value Added Network; VAN), 및 캔 통신망(Controller Area Network; CAN)을 포함한다.The wired communication network includes wired Ethernet, and includes a wide area network (WAN), a value added network (VAN), and a CAN (Controller Area Network).
무선 통신망은AP(access point, 도시되지 아니함)가 설치된 장소에서 무선 네트워크에 접속하여 AP(access point)와 연결될 수 있다. 무선 통신망은 미국전기전자학회(IEEE)의 무선 랜 규격(IEEE802. 11x)을 지원한다. The wireless communication network may be connected to an access point (AP) by accessing a wireless network at a location where an access point (not shown) is installed. The wireless communication network supports the IEEE 802.11 standard of the Institute of Electrical and Electronics Engineers (IEEE).
근거리 통신망은 블루투스(bluetooth) 통신망, 블루투스 저 에너지(bluetooth low energy) , 적외선 통신망(IrDA, infrared data association), 와이파이(Wi-Fi) 통신망, UWB(Ultra Wideband) 및 NFC(Near Field Communication), 직비(Zigbee) 통신망 등을 포함한다.The local area network includes a bluetooth communication network, a bluetooth low energy, an infrared data association (IrDA), a Wi-Fi communication network, an ultra wideband (UWB) (Zigbee) communication network.
이하, 차량(10) 내에서 각각 구현되는 음성 수신부(110), 제스처 감지부(120), 제어부(130), 및 저장부(140)를 음성 수신부(210), 제스처 감지부(220), 제어부(230), 및 저장부(240)로서 설명한다.Hereinafter, the
도 11은 차량(10)의 제어 블록도이다.11 is a control block diagram of the
도 11을 참조하면, 차량(10)은 음성을 수신하는 음성 수신부(210), 운전자의 제스처를 감지하는 제스처 감지부(220), 차량(100)의 각 구성요소를 전반적으로 제어하는 제어부(230), 하나 이상의 객체에 대응하는 지도 정보가 저장된 저장부(240), 및 가상 영상을 출력하는 차량 디스플레이(200)를 포함한다.11, the
음성 수신부(210), 제스처 감지부(220), 제어부(230), 및 저장부(240)는 상술한 도 4의 음성 수신부(110), 제스처 감지부(120), 제어부(130), 및 저장부(140)와 동일한 역할을 수행하는바, 중복된 내용을 생략한다.The
차량 디스플레이(200)는 도 2에 도시된 바와 같이, 전면 유리(31) 상에 장착될 수 있고, 도 9에 도시된 바와 같이 AVN장치(300) 상에 장착될 수도 있다.The
전면 유리(31) 상에 장착된 차량 디스플레이(200)는 제어부(230)에서 출력된 제어 신호에 따라 선택된 객체에 대한 3차원 가상 영상을 전면 유리(31) 상에 투영한다.The
또한, 전면 유리(31) 상에 장착된 차량 디스플레이(200)는 3차원 가상 영상뿐만 아니라, 선택된 객체에 대한 지도 정보 또한 전면 유리(31) 상에 투영할 수 있다.In addition, the
또한, 전면 유리(31) 상에 장착된 차량 디스플레이(200)는 투명 박막 트랜지스터로 구현된 헤드업 디스플레이(Head-Up Display, HUD)일 수 있다.Also, the
AVN장치(300) 상에 장착된 차량 디스플레이(200)는 제어부(230)에서 생성된 제어 신호에 따라, 선택된 객체에 대한 3차원 가상 영상을 내비게이션 화면 상에 출력한다. The
이 경우, AVN장치(300) 상에 장착된 차량 디스플레이(200)는 내비게이션 화면 상에 선택된 객체(ob2)의 주위 영역에 대한 현실 영상 및 선택된 객체(ob2)에 대한 3차원 가상 영상을 함께 표시할 수 있다.In this case, the
현실 영상은 차량(10) 전면 유리(31) 또는 대시보드(32) 상에 장착된 카메라 모듈(미도시)로부터 획득된 바깥 영상일 수 있다.The real image may be an image obtained from a camera module (not shown) mounted on the
AVN장치(300) 상에 장착된 차량 디스플레이(200)는, 플라즈마 디스플레이 패널(PDP, plazma display panel), 발광 다이오드(LED, light emitting diode) 또는 액정 디스플레이(LCD, liquid crystal display) 등을 이용하여 구현된 것일 수 있다. The
이외에도 차량(10)은 후방 또는 측방의 장애물 내지 다른 차량을 감지하는 근접 센서, 강수 여부 및 강수량을 감지하는 레인 센서 등의 감지 장치를 포함할 수 있다.In addition, the
이하, 도 12를 참조하여, 차량(10)의 제어방법에 대해 설명한다. 도 12는 차량의 제어방법에 대한 순서도이다.Hereinafter, a control method of the
우선, 차량은 운전자로부터 음성을 수신하고, 운전자의 제스처를 감지한다(S1110).First, the vehicle receives voice from the driver and senses the driver's gesture (S1110).
이 경우, 차량은 운전자로부터 수신한 음성 및 운전자의 제스처에 대응하는 전기적 신호를 발생시킨다.In this case, the vehicle generates a voice received from the driver and an electrical signal corresponding to the gesture of the driver.
운전자의 제스처는 예를 들어, 운전자의 손의 제스처일 수 있다.The gesture of the driver may be, for example, a gesture of the driver's hand.
차량은 카메라, 적외선 센서, 초음파 센서, 립 모션 장치 등을 이용하여 운전자의 손을 촬영할 수 있고, 촬영된 손의 손목 방향선 또는 손의 끝점을 감지할 수 있다.The vehicle can photograph the driver's hand using a camera, an infrared sensor, an ultrasonic sensor, a lip motion device, etc., and can sense the wrist direction line of the hand or the end point of the hand.
이어서, 차량은 운전자에게 보여지는 하나 이상의 객체를 판단하고, 검출된 제스처 및 수신한 음성에 기초하여, 하나 이상의 객체 중 어느 한 객체가 선택되었는지 여부를 판단한다(S1120).Then, the vehicle determines one or more objects to be displayed to the driver, and determines whether any one of the at least one object is selected based on the detected gesture and the received voice (S1120).
구체적으로, 차량은 위성 항법 장치(GPS)로부터 수신한 차량의 현재 위치 정보에 기초하여, 현재 위치에서 운전자에게 보여지는 하나 이상의 객체를 추정할 수 있다.Specifically, the vehicle can estimate one or more objects to be displayed to the driver at the current position, based on the current position information of the vehicle received from the GPS.
또한, 차량은 전면 유리 상단 또는 하단에 장착된 카메라 모듈(미도시)로부터 수신한 바깥 영상에 기초하여, 운전자에게 보여지는 하나 이상의 객체를 추정할 수도 있다. In addition, the vehicle may estimate one or more objects to be displayed to the driver based on an outside image received from a camera module (not shown) mounted on the top or bottom of the windshield.
그러나, 운전자에게 보여지는 하나 이상의 객체는 반드시 이에 한정되지 아니하고, 다양한 방법으로 추정 또는 판단될 수 있다.However, one or more objects shown to the driver are not necessarily limited to these, but may be estimated or determined in various ways.
또한, 차량은 출력 신호에 기초하여 손의 제스처를 검출한다. Further, the vehicle detects the hand gesture based on the output signal.
예를 들어, 차량은 운전자 손목의 방향선 또는 손의 끝점을 검출한다. 또한, 차량은 손의 끝점이 움직이는 궤도를 추적함으로써 손의 끝점의 이동을 추적할 수도 있다.For example, the vehicle detects the direction line of the driver's wrist or the end point of the hand. The vehicle can also track the movement of the end point of the hand by tracking the trajectory along which the end point of the hand moves.
또한, 차량은 추정 또는 판단된 하나 이상의 객체 중 검출된 손의 제스처에 대응하는 어느 한 객체를 판단한다. 예를 들어, 차량은 검출된 손목 방향선 또는 손의 끝점에 대응하는 객체를 판단한다.Further, the vehicle determines an object corresponding to the detected hand gesture of one or more objects estimated or determined. For example, the vehicle determines an object corresponding to the detected wrist direction line or the end point of the hand.
그리고, 차량은 미리 설정된 명령어와 일치하는 음성을 수신한 경우, 손의 제스처에 대응하는 어느 한 객체가 "선택"되었다고 판단한다. 예를 들어, 차량(10)은 미리 설정된 명령어인 "저기요"와 동일한 음성을 수신한 경우, 상기 손목 방향선 또는 손의 끝점 위치에 존재하는 어느 한 객체가 선택되었다고 판단한다.When the vehicle receives a voice corresponding to a preset command, it determines that an object corresponding to the hand gesture is "selected ". For example, when the
이어서, 차랑은 선택된 객체의 증강 현실 및 지도 정보를 운전자에게 제공한다(S1130).Then, the elevator provides the augmented reality and map information of the selected object to the driver (S1130).
이 경우, 차량은 전면 유리 또는 AVN장치 상에 장착된 차량 디스플레이(200)를 통해 선택된 객체의 가상 영상 및 지도 정보를 출력할 수 있다.In this case, the vehicle can output the virtual image and map information of the selected object through the
또한, 차량은 가상 영상 출력 시, 현실 영상 위에 선택된 객체의 가상 영상을 겹쳐서 출력할 수도 있다.In addition, the vehicle may output a virtual image of a selected object on the real image when the virtual image is output.
현실 영상은 실제로 전면 유리를 통해 운전자에게 보여지는 바깥 영상일 수 있고, 차량의 전면 유리 또는 대시보드 상에 장착된 카메라 모듈로부터 획득된 바깥 영상일 수 있다.The real image may actually be the outer image seen through the windshield to the driver, or it may be the outer image obtained from a camera module mounted on the windshield or dashboard of the vehicle.
지도 정보는 객체의 상호명, 지리적 위치 등 객체와 관련된 일반적인 내비게이션 정보를 포함한다.The map information includes general navigation information related to the object such as an object's business name, geographical location, and the like.
지도 정보는 지형 정보(예를 들어, 지하 또는 터널 여부), 경로 정보(예를 들어, 과속 카메라 위치, 분기점, 고속 도로 여부), 교통 정보(예를 들어, 실시간 교통 상황), 장소 정보(예를 들어, A식당, B주유소의 위치)를 포함한다.The map information may include location information (e.g., underground or tunnel), path information (e.g., speed camera location, bifurcation, highway), traffic information For example, the location of the A restaurant and the B gas station).
이어서, 차랑은 선택된 객체를 목적지로 하는 길 안내를 수행한다(S1140).Subsequently, the vehicle performs a route guidance with the selected object as a destination (S1140).
길 안내는 전면 유리 상에 장착된 차량 디스플레이 또는 AVN장치 상에 장착된 디스플레이가 선택된 객체를 목적지로 하는 내비게이션 화면을 출력하도록 제어함으로써 수행될 수 있다.The route guidance can be performed by controlling the vehicle display mounted on the windshield or the display mounted on the AVN device to output a navigation screen that is the destination of the selected object.
전술한 실시 예에서 차량용 제어 장치(100) 및 차량(10)을 구성하는 구성요소들 중 일부 구성요소는 일종의 '모듈(module)'로 구현될 수 있다. 여기서, '모듈'은 소프트웨어 또는 Field Programmable Gate Array(FPGA) 또는 주문형 반도체(Application Specific Integrated Circuit, ASIC)과 같은 하드웨어 구성요소를 의미하며, 모듈은 어떤 역할들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. In the above-described embodiment, some of the components constituting the
따라서, 일 예로서 모듈은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 모듈들에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다. 게다가, 상기 구성요소들 및 모듈들은 디바이스 내에서 하나 또는 그 이상의 CPU를 실행할 수 있다.Thus, by way of example, a module may include components such as software components, object-oriented software components, class components and task components, and processes, functions, attributes, procedures, Microcode, circuitry, data, databases, data structures, tables, arrays, and variables, as will be appreciated by those skilled in the art. The functionality provided by the components and modules may be combined into a smaller number of components and modules or further separated into additional components and modules. In addition, the components and modules may execute one or more CPUs within the device.
한편, 상술한 차량의 제어방법은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다. Meanwhile, the vehicle control method described above can be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording media storing data that can be decoded by a computer system. For example, it may be a ROM (Read Only Memory), a RAM (Random Access Memory), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, or the like. In addition, the computer-readable recording medium may be distributed and executed in a computer system connected to a computer network, and may be stored and executed as a code readable in a distributed manner.
전술한 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the appended claims. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.
1: 본체
10: 차량
21: 운전석 22: 보조석
31: 전면 유리
32: 대시 보드
33: 센터페시아
51: 전륜
52: 후륜
60: 구동 장치
71, 72: 도어
81, 82: 사이드 미러
100: 차량용 제어 장치
110: 음성 수신부
120: 제스처 감지부
130: 제어부
131: 프로세서
132: 램 132: 롬
140: 저장부
141: 프로그램 영역 142: 데이터 영역
200: 차량 디스플레이
210: 음성 수신부
220: 제스처 감지부
230: 제어부
231: 프로세서
232: 램 233: 롬
240: 저장부
241: 프로그램 영역 242: 데이터 영역
300: 에이브이엔 장치1: Body
10: Vehicle
21: driver's seat 22:
31: front glass
32: Dashboard
33: Center Fesia
51: front wheel
52: rear wheel
60: Driving device
71, 72: Door
81, 82: side mirror
100: vehicle control device
110:
120: Gesture detection unit
130:
131: Processor
132: Ram 132: Rom
140:
141: program area 142: data area
200: Vehicle display
210:
220: Gesture detection unit
230:
231: Processor
232: Ram 233: Rom
240:
241: program area 242: data area
300: Abe Lee's device
Claims (22)
운전자의 손을 감지하는 제스처 감지부;
차량의 전면 유리 또는 대시보드 상에 장착된 카메라 모듈; 및
상기 제스처 감지부의 감지 결과에 기초하여 상기 손의 끝점 및 손목의 방향선 중 적어도 어느 하나를 검출하고, 상기 손의 끝점 및 상기 손목의 방향선 중 적어도 어느 하나와, 상기 음성에 기초하여 하나 이상의 객체 중 어느 하나가 선택되었는지 여부를 판단하고, 판단 결과에 기초하여 차량 디스플레이가 선택된 객체의 증강 현실을 제공하도록 제어 신호를 생성하는 제어부를 포함하되,
상기 차량 디스플레이는, 상기 전면 유리 상에 장착되어 상기 선택된 객체에 대응하는 가상 영상 및 지도 정보를 출력하고,
상기 지도 정보는 상기 선택된 객체를 목적지로 하는 길 안내 지시자를 포함하고,
상기 제어부는, 상기 카메라 모듈로부터 수신한 영상에 기초하여 상기 선택된 객체를 판단하고, 선택된 객체를 목적지로 하는 길 안내를 수행하고,
상기 객체는 상기 길 안내 수행 시 목적지가 될 수 있는 차량 외부의 건물 또는 장소인 차량용 제어 장치.A voice receiving unit for receiving a voice of a driver;
A gesture sensing unit for sensing a driver's hand;
A camera module mounted on a windshield or a dashboard of the vehicle; And
Detecting at least one of an end point of the hand and a direction line of the wrist based on the detection result of the gesture detection unit and detecting at least one of an end point of the hand and a direction line of the wrist, And a control unit for generating a control signal so that the vehicle display provides the augmented reality of the selected object based on the determination result,
Wherein the vehicle display is mounted on the front glass and outputs a virtual image and map information corresponding to the selected object,
Wherein the map information includes a route guidance indicator with the selected object as a destination,
Wherein the control unit judges the selected object based on an image received from the camera module, performs a route guidance using the selected object as a destination,
Wherein the object is a building or a place outside the vehicle that can be a destination when performing the route guidance.
상기 차량 디스플레이는, AVN(Audio Video Navigation) 장치 상에 장착되는 차량용 제어 장치.The method according to claim 1,
Wherein the vehicle display is mounted on an AVN (Audio Video Navigation) apparatus.
상기 제어부는, 상기 음성이 미리 설정된 명령어와 일치하는 경우, 상기 객체 중 어느 하나가 선택되었는지 여부를 판단하는 차량용 제어 장치.The method according to claim 1,
Wherein the control unit determines whether one of the objects is selected when the voice coincides with a predetermined command.
상기 제어부가 어느 한 객체를 목적지로 하는 길 안내를 수행하고 있는 상태에서, 상기 음성 및 상기 제스처에 의해 다른 객체가 선택된 경우, 상기 제어부는 선택된 객체를 목적지로 하는 길 안내를 수행하는 차량용 제어 장치.The method according to claim 1,
Wherein the control unit performs a route guidance using the selected object as a destination when the voice and the gesture select another object in a state that the control unit is performing a route guidance to an object.
상기 제어부는, 3차원 가상 영상을 생성하는 차량용 제어 장치.The method according to claim 1,
Wherein the control unit generates a three-dimensional virtual image.
운전자의 손을 감지하는 제스처 감지부;
차량의 전면 유리 또는 대시보드 상에 장착된 카메라 모듈;
상기 제스처 감지부의 감지 결과에 기초하여 상기 손의 끝점 및 손목의 방향선 중 적어도 어느 하나를 검출하고, 상기 손의 끝점 및 상기 손목의 방향선 중 적어도 어느 하나와, 상기 음성에 기초하여 하나 이상의 객체 중 어느 하나가 선택되었는지 여부를 판단하는 제어부; 및
선택된 객체의 증강 현실을 제공하는 차량 디스플레이를 포함하되,
상기 차량 디스플레이는, 차량의 전면 유리 상에 장착되어 상기 선택된 객체에 대응하는 가상 영상 및 지도 정보를 출력하고,
상기 지도 정보는 상기 선택된 객체를 목적지로 하는 길 안내 지시자를 포함하고,
상기 제어부는, 상기 카메라 모듈로부터 수신한 영상에 기초하여 상기 선택된 객체를 판단하고, 선택된 객체를 목적지로 하는 길 안내를 수행하고,
상기 객체는 상기 길 안내 수행 시 목적지가 될 수 있는 차량 외부의 건물 또는 장소인 차량.A voice receiving unit for receiving a voice of a driver;
A gesture sensing unit for sensing a driver's hand;
A camera module mounted on a windshield or a dashboard of the vehicle;
Detecting at least one of an end point of the hand and a direction line of the wrist based on the detection result of the gesture detection unit and detecting at least one of an end point of the hand and a direction line of the wrist, A control unit for determining whether or not any one of them is selected; And
A vehicle display providing an augmented reality of a selected object,
Wherein the vehicle display is mounted on a windshield of a vehicle and outputs a virtual image and map information corresponding to the selected object,
Wherein the map information includes a route guidance indicator with the selected object as a destination,
Wherein the control unit judges the selected object based on an image received from the camera module, performs a route guidance using the selected object as a destination,
Wherein the object is a building or a place outside the vehicle that can be the destination in the course guidance.
상기 차량 디스플레이는, AVN(Audio Video Navigation) 장치 상에 장착되는 차량.11. The method of claim 10,
The vehicle display is mounted on an AVN (Audio Video Navigation) device.
상기 제어부는, 상기 음성이 미리 설정된 명령어와 일치하는 경우, 상기 객체 중 어느 하나가 선택되었는지 여부를 판단하는 차량.11. The method of claim 10,
Wherein the control unit judges whether one of the objects is selected when the voice coincides with a preset command.
상기 제어부가 어느 한 객체를 목적지로 하는 길 안내를 수행하고 있는 상태에서, 상기 음성 및 상기 제스처에 의해 다른 객체가 선택된 경우, 상기 제어부는 선택된 객체를 목적지로 하는 길 안내를 수행하는 차량.11. The method of claim 10,
Wherein, when the control unit is performing a route guidance to an object, the control unit performs the route guidance with the selected object as a destination, when another object is selected by the voice and the gesture.
상기 차량 디스플레이는, 3차원 가상 영상을 표시하는 차량.11. The method of claim 10,
Wherein the vehicle display displays a three-dimensional virtual image.
상기 감지하는 단계의 감지 결과에 기초하여 상기 손의 끝점 및 손목의 방향선 중 적어도 어느 하나를 검출하고, 상기 손의 끝점 및 상기 손목의 방향선 중 적어도 어느 하나와, 상기 음성에 기초하여 하나 이상의 객체 중 어느 하나가 선택되었는지 여부를 판단하는 단계;
선택된 객체의 증강 현실을 제공하는 단계; 및
선택된 객체를 목적지로 하는 길 안내를 수행하는 단계를 포함하되,
상기 길 안내를 수행하는 단계는 차량의 전면 유리 상에서 상기 선택된 객체에 대응하는 가상 영상 및 지도 정보를 출력하는 단계를 포함하고,
상기 지도 정보는 상기 선택된 객체를 목적지로 하는 길 안내 지시자를 포함하고,
상기 판단하는 단계는 차량의 전면 유리 또는 대시보드 상에 장착된 카메라 모듈로부터 수신한 영상에 기초하여 상기 선택된 객체를 판단하는 단계를 포함하고,
상기 객체는 상기 길 안내 수행 시 목적지가 될 수 있는 차량 외부의 건물 또는 장소인 차량의 제어방법.Receiving a driver's voice and sensing a driver's hand;
Detecting at least one of an end point of the hand and a direction line of the wrist based on the detection result of the sensing step and detecting at least one of an end point of the hand and a direction line of the wrist, Determining whether one of the objects is selected;
Providing an augmented reality of the selected object; And
Performing a route guidance with the selected object as a destination,
Wherein the step of performing the route guidance includes outputting virtual image and map information corresponding to the selected object on the windshield of the vehicle,
Wherein the map information includes a route guidance indicator with the selected object as a destination,
Wherein the determining comprises determining the selected object based on an image received from a camera module mounted on a windshield or dashboard of the vehicle,
Wherein the object is a building or a place outside the vehicle that can be a destination when performing the route guidance.
상기 감지하는 단계는, 상기 음성이 미리 설정된 명령어와 일치하는 경우, 상기 객체 중 어느 하나가 선택되었는지 여부를 판단하는 단계를 포함하는 차량의 제어방법.18. The method of claim 17,
Wherein the sensing includes determining whether one of the objects has been selected when the voice matches a predetermined command.
상기 증강 현실을 제공하는 단계는, 3차원 가상 영상을 표시하는 단계를 포함하는 차량의 제어방법.18. The method of claim 17,
Wherein the step of providing the augmented reality includes displaying a three-dimensional virtual image.
상기 제스처 감지부는 광원 및 광센서를 포함하고, 상기 광원은 x축, y축, 및 z축에 대한 3차원 공간을 형성하고, 상기 광센서는 상기 운전자의 손에 의해 흡수 또는 반사된 빛을 감지하고,
상기 제어부는 상기 광센서의 감지 결과에 기초하여 상기 손의 끝점 및 손목의 방향선 중 적어도 어느 하나를 검출하는 차량용 제어 장치.The method according to claim 1,
The gesture sensing unit includes a light source and an optical sensor, and the light source forms a three-dimensional space with respect to x-axis, y-axis, and z-axis, and the optical sensor senses light absorbed or reflected by the hands of the driver and,
Wherein the controller detects at least one of an end point of the hand and a direction line of the wrist based on the detection result of the optical sensor.
상기 제스처 감지부는 광원 및 광센서를 포함하고, 상기 광원은 x축, y축, 및 z축에 대한 3차원 공간을 형성하고, 상기 광센서는 상기 운전자의 손에 의해 흡수 또는 반사된 빛을 감지하고,
상기 제어부는 상기 광센서의 감지 결과에 기초하여 상기 손의 끝점 및 손목의 방향선 중 적어도 어느 하나를 검출하는 차량.11. The method of claim 10,
The gesture sensing unit includes a light source and an optical sensor, and the light source forms a three-dimensional space with respect to x-axis, y-axis, and z-axis, and the optical sensor senses light absorbed or reflected by the hands of the driver and,
Wherein the control unit detects at least one of an end point of the hand and a direction line of the wrist based on the detection result of the optical sensor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140143161A KR101588184B1 (en) | 2014-10-22 | 2014-10-22 | Control apparatus for vechicle, vehicle, and controlling method for vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140143161A KR101588184B1 (en) | 2014-10-22 | 2014-10-22 | Control apparatus for vechicle, vehicle, and controlling method for vehicle |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101588184B1 true KR101588184B1 (en) | 2016-01-25 |
Family
ID=55307004
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140143161A KR101588184B1 (en) | 2014-10-22 | 2014-10-22 | Control apparatus for vechicle, vehicle, and controlling method for vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101588184B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018044098A1 (en) * | 2016-09-02 | 2018-03-08 | Lg Electronics Inc. | Vehicle user interface apparatus and vehicle |
KR20210005759A (en) * | 2019-07-04 | 2021-01-15 | 한양대학교 에리카산학협력단 | Object selection navigation system for autonomous vehicle, autonomous vehicle apparatus thereof |
KR20210005766A (en) * | 2019-07-04 | 2021-01-15 | 한양대학교 에리카산학협력단 | Passing priority offering system based on autonomous vehicle, and autonomous vehicle apparatus thereof |
KR20210072112A (en) * | 2018-12-14 | 2021-06-16 | 프로덕티브 어플리케이션 솔루션스 인코포레이티드 | Systems and methods for targeting distribution of media from mobile platforms |
US11167771B2 (en) | 2018-01-05 | 2021-11-09 | Magna Mirrors Of America, Inc. | Vehicular gesture monitoring system |
US11866063B2 (en) | 2020-01-10 | 2024-01-09 | Magna Electronics Inc. | Communication system and method |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110117966A (en) * | 2010-04-22 | 2011-10-28 | 한국전자통신연구원 | Apparatus and method of user interface for manipulating multimedia contents in vehicle |
KR20130012629A (en) * | 2011-07-26 | 2013-02-05 | 한국과학기술원 | Augmented reality system for head-up display |
KR20130027367A (en) * | 2011-09-07 | 2013-03-15 | 동국대학교 산학협력단 | A navigation apparatus and method for displaying course thereof |
KR20140070861A (en) * | 2012-11-28 | 2014-06-11 | 한국전자통신연구원 | Apparatus and method for controlling multi modal human-machine interface |
-
2014
- 2014-10-22 KR KR1020140143161A patent/KR101588184B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110117966A (en) * | 2010-04-22 | 2011-10-28 | 한국전자통신연구원 | Apparatus and method of user interface for manipulating multimedia contents in vehicle |
KR20130012629A (en) * | 2011-07-26 | 2013-02-05 | 한국과학기술원 | Augmented reality system for head-up display |
KR20130027367A (en) * | 2011-09-07 | 2013-03-15 | 동국대학교 산학협력단 | A navigation apparatus and method for displaying course thereof |
KR20140070861A (en) * | 2012-11-28 | 2014-06-11 | 한국전자통신연구원 | Apparatus and method for controlling multi modal human-machine interface |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018044098A1 (en) * | 2016-09-02 | 2018-03-08 | Lg Electronics Inc. | Vehicle user interface apparatus and vehicle |
US10488218B2 (en) | 2016-09-02 | 2019-11-26 | Lg Electronics Inc. | Vehicle user interface apparatus and vehicle |
US11167771B2 (en) | 2018-01-05 | 2021-11-09 | Magna Mirrors Of America, Inc. | Vehicular gesture monitoring system |
US11648956B2 (en) | 2018-01-05 | 2023-05-16 | Magna Mirrors Of America, Inc. | Vehicular cabin monitoring system |
KR20210072112A (en) * | 2018-12-14 | 2021-06-16 | 프로덕티브 어플리케이션 솔루션스 인코포레이티드 | Systems and methods for targeting distribution of media from mobile platforms |
KR102427460B1 (en) | 2018-12-14 | 2022-07-29 | 프로덕티브 어플리케이션 솔루션스 인코포레이티드 | Systems and methods for targeting distribution of media from mobile platforms |
KR20210005759A (en) * | 2019-07-04 | 2021-01-15 | 한양대학교 에리카산학협력단 | Object selection navigation system for autonomous vehicle, autonomous vehicle apparatus thereof |
KR20210005766A (en) * | 2019-07-04 | 2021-01-15 | 한양대학교 에리카산학협력단 | Passing priority offering system based on autonomous vehicle, and autonomous vehicle apparatus thereof |
KR102235274B1 (en) | 2019-07-04 | 2021-04-07 | 한양대학교 에리카산학협력단 | Passing priority offering system based on autonomous vehicle, and autonomous vehicle apparatus thereof |
KR102303419B1 (en) * | 2019-07-04 | 2021-09-27 | 한양대학교 에리카산학협력단 | Autonomous vehicle apparatus |
US11866063B2 (en) | 2020-01-10 | 2024-01-09 | Magna Electronics Inc. | Communication system and method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101588184B1 (en) | Control apparatus for vechicle, vehicle, and controlling method for vehicle | |
CN109725634B (en) | 3D LIDAR system using dichroic mirrors for autonomous vehicles | |
US10488218B2 (en) | Vehicle user interface apparatus and vehicle | |
CN105989749B (en) | System and method for prioritizing driver alerts | |
US10460184B2 (en) | Image information acquiring apparatus, vehicle, and control method thereof | |
US20190193738A1 (en) | Vehicle and Control Method Thereof | |
US10191493B2 (en) | Vehicle position point forwarding method for autonomous vehicles | |
KR101623856B1 (en) | Audio video navigation, vehicle and controlling method of the audio video navigation | |
US11525694B2 (en) | Superimposed-image display device and computer program | |
CN110869901A (en) | User interface device for vehicle and vehicle | |
KR20190098818A (en) | Autonomous parking system and vehicle | |
CN112750206A (en) | Augmented reality wearable system for vehicle occupants | |
KR20190033975A (en) | Method for controlling the driving system of a vehicle | |
KR20190029192A (en) | Automatic Driving control apparatus, vehicle having the same and method for controlling the same | |
KR101977092B1 (en) | Vehicle control device mounted on vehicle and method for controlling the vehicle | |
CN108263287B (en) | Vehicle and control method thereof | |
EP3428033B1 (en) | Vehicle control device provided in vehicle | |
US10922976B2 (en) | Display control device configured to control projection device, display control method for controlling projection device, and vehicle | |
EP4083930A1 (en) | Digital signage platform providing device, operating method thereof, and system including digital signage platform providing device | |
KR20180051977A (en) | User Interface Apparatus for vehicle and method | |
KR20160032452A (en) | Drive assist device, and controlling method thereof | |
JP2015172548A (en) | Display control device, control method, program, and recording medium | |
JP5795386B2 (en) | Display device and control method | |
WO2011135660A1 (en) | Navigation system, navigation method, navigation program, and storage medium | |
US20230012932A1 (en) | Vehicle control device and control method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AMND | Amendment | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20181213 Year of fee payment: 4 |