KR102213632B1 - Driver assistance apparatus and Vehicle including the same - Google Patents

Driver assistance apparatus and Vehicle including the same Download PDF

Info

Publication number
KR102213632B1
KR102213632B1 KR1020140177579A KR20140177579A KR102213632B1 KR 102213632 B1 KR102213632 B1 KR 102213632B1 KR 1020140177579 A KR1020140177579 A KR 1020140177579A KR 20140177579 A KR20140177579 A KR 20140177579A KR 102213632 B1 KR102213632 B1 KR 102213632B1
Authority
KR
South Korea
Prior art keywords
vehicle
image
light blocking
unit
processor
Prior art date
Application number
KR1020140177579A
Other languages
Korean (ko)
Other versions
KR20160070525A (en
Inventor
엄진우
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140177579A priority Critical patent/KR102213632B1/en
Publication of KR20160070525A publication Critical patent/KR20160070525A/en
Application granted granted Critical
Publication of KR102213632B1 publication Critical patent/KR102213632B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60JWINDOWS, WINDSCREENS, NON-FIXED ROOFS, DOORS, OR SIMILAR DEVICES FOR VEHICLES; REMOVABLE EXTERNAL PROTECTIVE COVERINGS SPECIALLY ADAPTED FOR VEHICLES
    • B60J3/00Antiglare equipment associated with windows or windscreens; Sun visors for vehicles
    • B60J3/04Antiglare equipment associated with windows or windscreens; Sun visors for vehicles adjustable in transparency
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/80Technologies aiming to reduce greenhouse gasses emissions common to all road transportation technologies
    • Y02T10/88Optimized components or subsystems, e.g. lighting, actively controlled glasses

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Traffic Control Systems (AREA)

Abstract

본 발명은 차량 내부에 구비되고, 반투명한 재질로 형성되어 상기 차량 내부에 유입되는 광을 차단하는 광 차단부, 상기 광 차단부를 향해 빔(beam)을 투사하는 투사부 및 영상 정보를 상기 투사부에 제공하고, 상기 빔을 통해 상기 광 차단부에 영상을 표시하여 차량 관련 정보를 제공하도록 상기 투사부를 제어하는 프로세서를 포함하는 차량 운전 보조 장치에 관한 것이다.The present invention is provided inside a vehicle, is formed of a translucent material to block light entering the vehicle interior, a projection unit for projecting a beam toward the light blocking unit, and the projection unit And a processor for controlling the projection unit to provide vehicle-related information by displaying an image on the light blocking unit through the beam.

Figure R1020140177579
Figure R1020140177579

Description

차량 운전 보조 장치 및 이를 구비한 차량{Driver assistance apparatus and Vehicle including the same}Driver assistance apparatus and vehicle including the same

본 발명은 차량 운전 보조 장치 및 이를 구비한 차량에 관한 것이다. The present invention relates to a vehicle driving assistance device and a vehicle having the same.

차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다.A vehicle is a device that moves in a direction desired by a boarding user. A typical example is a car.

한편, 차량을 이용하는 사용자의 편의를 위해, 각 종 센서와 전자 장치 등이 구비되고 있는 추세이다. 특히, 사용자의 운전 편의를 위한 다양한 장치 등이 개발되고 있다.On the other hand, for the convenience of a user using a vehicle, various types of sensors and electronic devices are being provided. In particular, various devices have been developed for the convenience of the user's driving.

한편, 운전 편의를 위한 장치 중 하나로 탑승자의 눈을 태양의 직사광선으로부터 보호하기 위한 선바이저를 들수 있다. 차량의 윈드 쉴드 또는 윈도우를 통해 유입되는 광이 직접적으로 탑승자의 눈을 부시게 하거나, 차량 내 설치되는 디스플레이 장치에 반사되어 디스플레이 장치의 가독성을 감소시키므로, 탑승자는 선바이저를 조작하여, 광의 유입을 차단한다.On the other hand, one of the devices for driving convenience is a sun visor for protecting the occupant's eyes from direct sunlight. Since the light entering the vehicle's windshield or window directly dazzles the occupant or is reflected on the display device installed in the vehicle to reduce the readability of the display device, the occupant manipulates the sun visor to block the inflow of light. do.

그러나 종래의 기술에 따른 선바이저는 탑승자의 전방 시야도 함께 가리는 문제점이 있다. 이러한 탑승자의 시야를 가리는 문제로 인해, 교통 사고 확률이 높아질 수 있다. 따라서, 탑승자의 눈을 태양의 직사광선으로부터 보호함과 동시에, 탑승자의 시야를 가리지 않는 차량 운전 보조 장치에 대한 연구가 요구된다. However, the sun visor according to the prior art has a problem that also covers the front view of the occupant. Due to the problem of obstructing the occupant's view, the probability of a traffic accident may increase. Accordingly, there is a need for research on a vehicle driving assistance device that protects the occupant's eyes from direct sunlight and does not block the occupant's view.

본 발명은 상기한 문제점을 해결하기 위하여, 광 차단이 가능하고, 반투명한 재질로 형성되어, 빔을 통해 투사된 영상을 표시할 수 있는 광 차단부를 포함하는 차량 운전 보조 장치에 관한 것이다.In order to solve the above problems, the present invention relates to a vehicle driving assistance apparatus including a light blocking unit capable of blocking light, formed of a translucent material, and capable of displaying an image projected through a beam.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 차량 운전 보조 장치는 차량 내부에 구비되고, 반투명한 재질로 형성되어 상기 차량 내부에 유입되는 광을 차단하는 광 차단부, 상기 광 차단부를 향해 빔(beam)을 투사하는 투사부 및 영상 정보를 상기 투사부에 제공하고, 상기 빔을 통해 상기 광 차단부에 영상을 표시하여 차량 관련 정보를 제공하도록 상기 투사부를 제어하는 프로세서를 포함한다.In order to achieve the above object, the vehicle driving assistance device according to the embodiment of the present invention is provided inside the vehicle, is formed of a translucent material, and is formed of a light blocking unit that blocks light entering the vehicle, and toward the light blocking unit. And a processor that provides a projection unit for projecting a beam and image information to the projection unit, and controls the projection unit to provide vehicle-related information by displaying an image on the light blocking unit through the beam.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Details of other embodiments are included in the detailed description and drawings.

본 발명의 실시예에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to an embodiment of the present invention, one or more of the following effects are provided.

첫째, 광 차단부에 반투명 재질을 사용함으로써, 탑승자의 시야 가림을 방지하는 효과가 있다.First, by using a translucent material for the light blocking portion, there is an effect of preventing the occupant's view from being obscured.

둘째, 조도, 태양의 위치 또는 탑승자의 시선을 고려하여 광 차단 영역의 길이를 조절하므로 적응적으로 탑승자의 눈부심을 방지하는 효과가 있다.Second, since the length of the light-blocking area is adjusted in consideration of the illuminance, the position of the sun, or the occupant's gaze, there is an effect of adaptively preventing the occupant's glare.

셋째, 필요에 따라, 영상 표시 영역에 운전을 보조하는 영상을 표시하여 탑승자로하여금 안전 운전이 가능하게 하는 효과가 있다.Third, if necessary, there is an effect of enabling safe driving for occupants by displaying an image that assists driving in the image display area.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects that are not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 차량 운전 보조 장치의 블럭도이다.
도 3 내지 도 4는 본 발명의 실시예에 따라, 복수의 광차단부를 포함하는 경우, 차량 운전 보조 장치를 설명하는데 참조되는 도면이다.
도 5 내지 도 6은 본 발명의 실시예에 따라, 광차단부가 복수의 단으로 구성되는 경우, 차량 운전 보조 장치를 설명하는데 참조되는 도면이다.
도 7은 본 발명의 실시예에 따른 사용자 입력부(125)를 설명하는데 참조되는 도면이다.
도 8은 도 1의 차량 내부의 전자 제어 장치의 내부 블록도의 일예이다.
도 9 내지 도 10은 본 발명의 실시예에 따른 차량 운전 보조 장치를 설명하는데 참조되는 예시도이다.
도 11a 내지 도 11c는 본 발명의 실시예에 따라, 광차단부에 표시되는 화면을 설명하는데 참조되는 도면이다.
도 12는 본 발명의 실시예에 따라, 이동 단말기를 통해, 영상 표시 영역을 제어하는 동작을 설명하는데 참조되는 도면이다.
도 13은 본 발명의 실시예에 따라 차량 정보를 음성으로 출력하는 동작을 설명하는데 참조되는 도면이다.
도 14는 본 발명의 실시예에 따라, 음성 명령 수신 동작을 설명하는데 참조되는 도면이다.
도 15는 본 발명의 실시예에 따라, 탑승자 시선을 감지하여 영상 표시 영역을 제어하는 동작을 설명하는데 참조되는 도면이다.
도 16은 본 발명의 실시예에 따라, 탑승자의 제스쳐를 감지하는 동작을 설명하는데 참조되는 도면이다.
도 17은 본 발명의 실시예에 따라, 문자 메시지 수신 정보 및 호(call)수신 정보를 표시하는 동작을 설명하는데 참조되는 도면이다.
1 is a view showing the exterior of a vehicle according to an embodiment of the present invention.
2 is a block diagram of a vehicle driving assistance apparatus according to an embodiment of the present invention.
3 to 4 are diagrams referred to for describing a vehicle driving assistance apparatus when a plurality of light blocking units are included according to an exemplary embodiment of the present invention.
5 to 6 are diagrams referred to for describing a vehicle driving assistance apparatus when the light blocking unit is configured with a plurality of stages according to an embodiment of the present invention.
7 is a diagram referenced to describe the user input unit 125 according to an embodiment of the present invention.
8 is an example of an internal block diagram of the electronic control device inside the vehicle of FIG. 1.
9 to 10 are exemplary diagrams referenced for describing a vehicle driving assistance apparatus according to an embodiment of the present invention.
11A to 11C are views referenced to explain a screen displayed on a light blocking unit according to an exemplary embodiment of the present invention.
12 is a diagram referenced for describing an operation of controlling an image display area through a mobile terminal according to an embodiment of the present invention.
13 is a diagram referenced for describing an operation of outputting vehicle information as a voice according to an embodiment of the present invention.
14 is a diagram referenced for explaining an operation of receiving a voice command according to an embodiment of the present invention.
15 is a diagram referenced for explaining an operation of controlling an image display area by detecting a passenger's gaze according to an embodiment of the present invention.
16 is a diagram referenced for describing an operation of detecting a gesture of a passenger according to an embodiment of the present invention.
17 is a diagram referenced for explaining an operation of displaying text message reception information and call reception information according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but identical or similar elements are denoted by the same reference numerals regardless of reference numerals, and redundant descriptions thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used interchangeably in consideration of only the ease of preparation of the specification, and do not have meanings or roles that are distinguished from each other by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that a detailed description of related known technologies may obscure the subject matter of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are for easy understanding of the embodiments disclosed in the present specification, and the technical idea disclosed in the present specification is not limited by the accompanying drawings, and all modifications included in the spirit and scope of the present invention It should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various elements, but the elements are not limited by the terms. These terms are used only for the purpose of distinguishing one component from another component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. Should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly indicates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as "comprises" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

본 명세서에서 기술되는 차량은, 자동차, 오토바이를 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.Vehicles described herein may be concepts including automobiles and motorcycles. Hereinafter, the vehicle will be mainly described.

본 명세서에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량 등을 모두 포함하는 개념일 수 있다. The vehicle described herein may be a concept including both an internal combustion engine vehicle having an engine as a power source, a hybrid vehicle including an engine and an electric motor as a power source, an electric vehicle including an electric motor as a power source, and the like.

이하의 설명에서 차량의 좌측은 차량의 주행 방향의 좌측, 즉, 운전석측을 의미하고, 차량의 우측은 차량의 주행 방향의 우측, 즉, 보조석측을 의미한다.In the following description, the left side of the vehicle means the left side in the driving direction of the vehicle, that is, the driver's seat side, and the right side of the vehicle means the right side in the driving direction of the vehicle, that is, the side of the assistant seat.

도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다.1 is a view showing the exterior of a vehicle according to an embodiment of the present invention.

도 1을 참조하면, 차량(10)은, 동력원에 의해 회전하는 바퀴(103FR,103FL,103RL,..), 차량(10)의 진행 방향을 조절하기 위한 스티어링 휠, 차량 운전 보조 장치(100)를 포함할 수 있다.Referring to FIG. 1, the vehicle 10 includes a wheel (103FR, 103FL, 103RL, ...) that rotates by a power source, a steering wheel for adjusting the traveling direction of the vehicle 10, and a vehicle driving assistance device 100 It may include.

본 발명의 실시예에 따른, 차량 운전 보조 장치(100)는 차량 내부에 구비될 수 있다. 차량 운전 보조 장치(100)는 운전석측 차량 내부 천장에 부착되는 것이 바람직하다. According to an embodiment of the present invention, the vehicle driving assistance device 100 may be provided inside a vehicle. It is preferable that the vehicle driving assistance device 100 is attached to the ceiling inside the vehicle on the driver's seat side.

도 2는 본 발명의 실시예에 따른 차량 운전 보조 장치의 블럭도이다.2 is a block diagram of a vehicle driving assistance apparatus according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시예에 따른 차량 운전 보조 장치(100)는 통신부(110), 입력부(120), 센싱부(140), 인터페이스부(160), 메모리(170), 프로세서(180), 전원 공급부(190), 음향 출력부(220), 투사부(230), 광차단부(240) 및 구동부(245)를 포함한다.Referring to FIG. 2, a vehicle driving assistance apparatus 100 according to an embodiment of the present invention includes a communication unit 110, an input unit 120, a sensing unit 140, an interface unit 160, a memory 170, and a processor ( 180), a power supply unit 190, an audio output unit 220, a projection unit 230, a light blocking unit 240, and a driving unit 245.

통신부(110)는, 이동 단말기(245) 또는 서버(260)와 무선(wireless) 방식으로, 데이터를 교환할 수 있다. 특히, 통신부(110)는, 차량 탑승자의 이동 단말기와, 무선으로 데이터를 교환할 수 있다. 무선 데이터 통신 방식으로는, 블루투스(Bluetooth), WiFi Direct, WiFi, APiX 등 다양한 데이터 통신 방식이 가능하다.The communication unit 110 may exchange data with the mobile terminal 245 or the server 260 in a wireless manner. In particular, the communication unit 110 may exchange data wirelessly with a mobile terminal of a vehicle occupant. As a wireless data communication method, various data communication methods such as Bluetooth, WiFi Direct, WiFi, and APiX are possible.

통신부(110)는, 이동 단말기(245) 또는 서버(260)로부터, 날씨 정보, 도로의 교통 상황 정보, 예를 들어, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다. The communication unit 110 may receive weather information, road traffic condition information, for example, Transport Protocol Expert Group (TPEG) information from the mobile terminal 245 or the server 260.

한편, 사용자가 차량에 탑승한 경우, 사용자의 이동 단말기(245)와 차량 운전 보조 장치(100)는, 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링(pairing)을 수행할 수 있다. Meanwhile, when a user boards a vehicle, the user's mobile terminal 245 and the vehicle driving assistance device 100 may perform pairing with each other automatically or by executing an application by the user.

한편, 통신부(110)는 차량 탑승자의 이동 단말기로부터 제어 신호를 수신할 수 있다. 예를 들면, 이동 단말기는 사용자로부터 수신되는 입력 신호에 대응하는 제어 신호 생성하여, 차량 운전 보조 장치(100)에 전송한다. 이경우, 통신부(110)는 상기 제어 신호를 수신하여, 프로세서(180)에 전달할 수 있다.Meanwhile, the communication unit 110 may receive a control signal from a mobile terminal of a vehicle occupant. For example, the mobile terminal generates a control signal corresponding to an input signal received from a user and transmits it to the vehicle driving assistance apparatus 100. In this case, the communication unit 110 may receive the control signal and transmit it to the processor 180.

입력부(120)는, 영상 신호 입력을 위한 카메라 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 123), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(125, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 includes a camera or video input unit for inputting an image signal, a microphone 123 for inputting an audio signal, or an audio input unit, and a user input unit 125 for receiving information from a user (for example, a touch key). (touch key), push key (mechanical key, etc.). The voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.

입력부(120)는 비전모듈(121), 마이크로폰(123), 사용자 입력부(125)를 포함할 수 있다. The input unit 120 may include a vision module 121, a microphone 123, and a user input unit 125.

비전 모듈(121)은 차량 주변 영상 또는 차량 내부 영상을 획득한다.The vision module 121 acquires an image around the vehicle or an image inside the vehicle.

비전모듈(121)은 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 투사부(230)에서 투사되는 빔(beam)을 통해, 광차단부(240)에 표시되거나 메모리(170)에 저장될 수 있다. 한편, 비전모듈(121)에 구비되는 복수의 카메라는 매트릭스 구조를 이루도록 배치될 수 있으며, 이와 같이 매트릭스 구조를 이루는 카메라를 통하여, 차량 운전 보조 장치(100)에는 다양한 각도 또는 초점을 갖는 복수의 영상정보가 입력될 수 있다. 또한, 복수의 카메라(121)는 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 스트레오 구조로 배치될 수 있다.The vision module 121 processes image frames such as still images or moving images obtained by an image sensor. The processed image frame may be displayed on the light blocking unit 240 or stored in the memory 170 through a beam projected from the projection unit 230. Meanwhile, a plurality of cameras provided in the vision module 121 may be arranged to form a matrix structure, and through the camera forming a matrix structure as described above, a plurality of images having various angles or focuses to the vehicle driving assistance device 100 Information can be entered. In addition, the plurality of cameras 121 may be arranged in a stereo structure to obtain a left image and a right image for implementing a stereoscopic image.

한편, 비전모듈(121)은 복수의 카메라를 포함할 수 있다.Meanwhile, the vision module 121 may include a plurality of cameras.

예를 들어, 비전모듈(121)은 차량 후방 영상을 획득하는 적어도 하나의 카메라를 포함할 수 있다. 여기서, 상기 적어도 하나의 카메라는, 제1 카메라, 제2 카메라 및 제3 카메라를 포함할 수 있다. 제1 카메라는 차량 후미에 구비되어 제1 영상을 획득할 수 있다. 이때, 제1 영상은 차량 후방 영상일 수 있다. 제2 카메라는 차량 좌측에 구비되어 제2 영상을 획득할 수 있다. 이때, 제2 영상은 차량 좌측 후방 영상일 수 있다. 제3 카메라는 차량 우측에 구비되어 제3 영상을 획득할 수 있다. 이때, 제3 영상은 차량 우측 후방 영상일 수 있다.For example, the vision module 121 may include at least one camera that acquires a rear image of the vehicle. Here, the at least one camera may include a first camera, a second camera, and a third camera. The first camera may be provided at the rear of the vehicle to obtain a first image. In this case, the first image may be an image behind the vehicle. The second camera may be provided on the left side of the vehicle to obtain a second image. In this case, the second image may be an image behind the left side of the vehicle. The third camera may be provided on the right side of the vehicle to obtain a third image. In this case, the third image may be an image behind the right side of the vehicle.

예를 들어, 비전모듈(121)은 차량 내부에 구비되어, 차량 내부 영상을 획득하는 적어도 하나의 카메라를 포함할 수 있다. For example, the vision module 121 may include at least one camera provided inside the vehicle to obtain an image inside the vehicle.

예를 들어, 비전모듈(121)은 차량 내부 또는 외부에 구비되어, 차량 전방 영상을 획득하는 적어도 하나의 카메라를 포함할 수 있다. 여기서, 상기 적어도 하나의 카메라는 스테레오 카메라일 수 있다. 스테레오 카메라는 차량 전방의 스테레오 영상을 획득할 수 있다. For example, the vision module 121 may include at least one camera provided inside or outside the vehicle to obtain an image in front of the vehicle. Here, the at least one camera may be a stereo camera. The stereo camera may acquire a stereo image in front of the vehicle.

예를 들어, 비전모듈(121)은 차량 내부에 구비되어, 탑승자의 시선을 감지하는 적어도 하나의 카메라를 포함할 수 있다. 여기서, 상기 적어도 하나의 카메라는 차량에 탑승한 탑승자의 눈에 대한 이미지를 획득할 수 있다. For example, the vision module 121 may include at least one camera that is provided inside the vehicle and senses a passenger's gaze. Here, the at least one camera may acquire an image of the eyes of a passenger in the vehicle.

마이크로폰(123)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 차량 운전 보조 장치(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(123)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone 123 processes an external sound signal into electrical voice data. The processed voice data may be used in various ways according to a function (or an application program being executed) being executed by the vehicle driving assistance apparatus 100. Meanwhile, the microphone 123 may be implemented with various noise removal algorithms for removing noise generated in the process of receiving an external sound signal.

한편, 마이크로폰(123)은 탑승자의 음성 입력을 수신할 수 있다. 마이크로폰(123)은 수신된 음성 입력을 전기적 신호로 전환할 수 있다. Meanwhile, the microphone 123 may receive a voice input of a passenger. The microphone 123 may convert the received voice input into an electrical signal.

사용자 입력부(125)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(125)를 통해 정보가 입력되면, 프로세서(180)는 입력된 정보에 대응되도록 차량 운전 보조 장치(100)의 동작을 제어할 수 있다. 이러한, 사용자 입력부(125)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. The user input unit 125 is for receiving information from a user, and when information is input through the user input unit 125, the processor 180 controls the operation of the vehicle driving assistance device 100 to correspond to the input information. I can. The user input unit 125 may include a mechanical input means (or a mechanical key, for example, a button, a dome switch, a jog wheel, a jog switch, etc.) and a touch input means. .

사용자 입력부(125)는, 투사부(230) 또는 광차단부(240)를 제어하는 입력을 탑승자로부터 수신할 수 있다. 차량 탑승자는 사용자 입력부(125)를 통해, 투사부(230)를 제어하여, 광차단부에 표시되는 영상을 제어할 수 있다. 또한, 차량 탑승자는 사용자 입력부(125)를 통해, 구동부(241)를 제어하여, 광차단부(240)의 크기를 조절할 수 있다.The user input unit 125 may receive an input for controlling the projection unit 230 or the light blocking unit 240 from a passenger. The vehicle occupant may control the projection unit 230 through the user input unit 125 to control an image displayed on the light blocking unit. In addition, the vehicle occupant may control the driving unit 241 through the user input unit 125 to adjust the size of the light blocking unit 240.

센싱부(140)는, 차량 운전 보조 장치(100) 내의 정보, 차량 운전 보조 장치(100)를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 태양 센서(141), 광량 센서(142)를 포함할 수 있다.The sensing unit 140 may include one or more sensors for sensing at least one of information in the vehicle driving assistance device 100, surrounding environment information surrounding the vehicle driving assistance device 100, and user information. For example, the sensing unit 140 may include a solar sensor 141 and a light amount sensor 142.

태양 센서(141)는 태양의 위치를 추적한다. 예를 들면, 태양 센서(141)는 태양의 방위각과 고도각 추적을 수행한다. 태양 센서(141)는 태양의 위치를 추적하기 위해 하나 이상의 포토 다이오드를 포함할 수 있다.The sun sensor 141 tracks the position of the sun. For example, the sun sensor 141 tracks the azimuth and elevation angles of the sun. The solar sensor 141 may include one or more photodiodes to track the position of the sun.

광량 센서(142)는 차량 내부로 유입되는 광의 양을 감지한다. 구체적으로, 광량 센서(142)는 태양광량을 감지한다. 광량 센서(142)는 CdS 광전도 셀(CdS photoconductive cell) 또는 CdS셀 등의 광전도 소자를 포함할 수 있다.The light amount sensor 142 detects the amount of light flowing into the vehicle. Specifically, the light amount sensor 142 detects the amount of sunlight. The light quantity sensor 142 may include a photoconductive device such as a CdS photoconductive cell or a CdS cell.

인터페이스부(160)는, AVN 장치(400)와의 데이터 통신에 의해, 차량 주행과 관련한, 맵(map) 정보를 수신할 수 있다. 예를 들어, AVN 장치(400)는 네비게이션을 포함하고, 인터페이스부(160)는 상기 네비게이션으로부터 지도(map) 및 지도 상에서의 차량의 위치에 대한 정보를 수신하여, 프로세서(180)에 전달할 수 있다.The interface unit 160 may receive map information related to vehicle driving through data communication with the AVN device 400. For example, the AVN device 400 may include a navigation system, and the interface unit 160 may receive a map and information on the location of the vehicle on the map from the navigation and transmit it to the processor 180. .

한편, 인터페이스부(160)는, ECU(770) 또는 차량 센서부(760)로부터, 센서 정보를 수신할 수 있다.Meanwhile, the interface unit 160 may receive sensor information from the ECU 770 or the vehicle sensor unit 760.

여기서, 센서 정보는, 차량의 슬립 정도, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보 중 적어도 하나를 포함할 수 있다. Here, the sensor information includes vehicle slip degree, vehicle direction information, vehicle position information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward/reverse information, battery information, and fuel information. , Tire information, vehicle ramp information, vehicle interior temperature information, and vehicle interior humidity information.

이러한 센서 정보는, 휠 속도 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 휠 센서(wheel sensor), 차량 속도 센서, 차체 경사 감지센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서 등으로부터 획득될 수 있다. 한편, 포지션 모듈은, GPS 정보 수신을 위한 GPS 모듈을 포함할 수 있다.Such sensor information includes wheel speed sensor, heading sensor, yaw sensor, gyro sensor, position module, vehicle forward/reverse sensor, wheel sensor, It may be obtained from a vehicle speed sensor, a vehicle body tilt sensor, a battery sensor, a fuel sensor, a tire sensor, a steering sensor by steering wheel rotation, a temperature sensor inside a vehicle, a humidity sensor inside a vehicle, and the like. Meanwhile, the position module may include a GPS module for receiving GPS information.

한편, 센서 정보 중, 차량 주행과 관련한, 차량 방향 정보, 차량 위치 정보, 차량 각도 정보, 차량 속도 정보, 차량 기울기 정보 등을 차량 주행 정보라 명명할 수 있다.Meanwhile, among the sensor information, vehicle direction information, vehicle position information, vehicle angle information, vehicle speed information, vehicle inclination information, and the like related to vehicle driving may be referred to as vehicle driving information.

인터페이스부(160)는, 차량 자세 감지부(771)에서 생성된, 차량 자세 정보를 수신할 수 있다.The interface unit 160 may receive vehicle attitude information generated by the vehicle attitude detection unit 771.

메모리(170)는, 프로세서(180)의 처리 또는 제어를 위한 프로그램 등, 차량 운전 보조 장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리(170)는 ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다.The memory 170 may store various data for the overall operation of the vehicle driving assistance apparatus 100, such as a program for processing or controlling the processor 180. The memory 170 may be various storage devices such as ROM, RAM, EPROM, flash drive, and hard drive.

프로세서(180)는, 차량 운전 보조 장치(100) 내의 각 유닛의 전반적인 동작을 제어한다. The processor 180 controls the overall operation of each unit in the vehicle driving assistance apparatus 100.

프로세서(180)는 영상 정보를 투사부(230)에 제공한다. 프로세서(180)는 투사부(230)에서 투사되는 빔을 통해, 광 차단부(240)에 영상을 표시할 수 있다. 프로세서(180)는 상기 영상을 통해, 차량 관련 정보를 제공하도록, 투사부(230)를 제어할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보 또는 차량 탑승자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다. 차량 관련 정보는, 입력부(120)를 통해 수신된 정보일 수 있다. 또는, 차량 관련 정보는, 인터페이스부(160)를 통해, 차량 센서부(760)로부터 수신된 정보일 수 있다. 또는, 차량 정보는, 인터페이스부(160)를 통해, ECU(770)로부터 수신된 정보일 수 있다. 또는, 차량 정보는, 통신부(110)를 통해, 이동 단말기(245) 또는 서버(260)로부터 수신된 정보일 수 있다. The processor 180 provides image information to the projection unit 230. The processor 180 may display an image on the light blocking unit 240 through a beam projected from the projection unit 230. The processor 180 may control the projection unit 230 to provide vehicle-related information through the image. Here, the vehicle-related information may include vehicle control information for direct control of a vehicle or vehicle driving assistance information for a driving guide to a vehicle occupant. The vehicle related information may be information received through the input unit 120. Alternatively, the vehicle-related information may be information received from the vehicle sensor unit 760 through the interface unit 160. Alternatively, the vehicle information may be information received from the ECU 770 through the interface unit 160. Alternatively, the vehicle information may be information received from the mobile terminal 245 or the server 260 through the communication unit 110.

프로세서(180)는 광량 센서(142)로부터 차량 내부로 유입되는 광의 양에 대한 정보를 수신할 수 있다. 광차단부(240)가 투명 디스플레이로 구성된 경우, 프로세서(180)는 상기 광의 양을 바탕으로 투명 디스플레이의 투명도를 조절할 수 있다.The processor 180 may receive information on the amount of light flowing into the vehicle from the light amount sensor 142. When the light blocking unit 240 is configured as a transparent display, the processor 180 may adjust the transparency of the transparent display based on the amount of light.

프로세서(180)는 비전모듈(121)로부터 획득된 영상 데이터를 수신한다. 프로세서(180)는 영상 데이터를 기초로 투사부(230)를 제어할 수 있다. The processor 180 receives image data obtained from the vision module 121. The processor 180 may control the projection unit 230 based on the image data.

예를 들어, 비전모듈(121)이 차량 후방 영상을 획득하는 적어도 하나의 카메라를 포함하는 경우, 프로세서(180)는, 상기 차량 후방 영상을 수신하여, 상기 차량 후방 영상이 광 차단부(240)에 표시되도록 투사부(230)를 제어할 수 있다. For example, when the vision module 121 includes at least one camera for acquiring a rear image of a vehicle, the processor 180 receives the rear image of the vehicle, and the rear image of the vehicle is converted to the light blocking unit 240 It is possible to control the projection unit 230 to be displayed on.

차량 후방 영상을 획득하는 카메라는 제1 카메라, 제2 카메라, 제3 카메라를 포함할 수 있다. 제1 카메라는 차량 후미에 구비되어 제1 영상을 획득할 수 있다. 이때, 제1 영상은 차량 후방 영상일 수 있다. 제2 카메라는 차량 좌측에 구비되어 제2 영상을 획득할 수 있다. 이때, 제2 영상은 차량 좌측 후방 영상일 수 있다. 제3 카메라는 차량 우측에 구비되어 제3 영상을 획득할 수 있다. 이때, 제3 영상은 차량 우측 후방 영상일 수 있다. Cameras that acquire the rear image of the vehicle may include a first camera, a second camera, and a third camera. The first camera may be provided at the rear of the vehicle to obtain a first image. In this case, the first image may be an image behind the vehicle. The second camera may be provided on the left side of the vehicle to obtain a second image. In this case, the second image may be an image behind the left side of the vehicle. The third camera may be provided on the right side of the vehicle to obtain a third image. In this case, the third image may be an image behind the right side of the vehicle.

프로세서(180)는 제1 내지 제3 영상을 수신하고, 제1 내지 제3 영상을 합성하여, 합성 영상을 생성할 수 있다. 프로세서(180)는 광차단부(240)에 합성 영상이 표시되도록 투사부(230)를 제어할 수 있다.The processor 180 may generate a synthesized image by receiving the first to third images and synthesizing the first to third images. The processor 180 may control the projection unit 230 to display a composite image on the light blocking unit 240.

합성 영상을 생성하는 경우, 프로세서(180)는, 위에서 바라볼때, 차량의 좌측 바디라인의 연장선(이하, 제1 선)을 기준으로 제1 영상 및 제2 영상을 합성할 수 있다. 구체적으로, 프로세서(180)는 제1 선을 기준으로 제1 선의 우측은 제1 영상에 기초하고, 제1 선의 좌측은 제2 영상에 기초하여 합성할 수 있다. 예를 들어, 제2 영상에서 차체 영역(1171b)은 제외한 후, 제1 선을 기준으로 제1 영상과 제2 영상을 합성할 수 있다.When generating a synthesized image, the processor 180 may synthesize the first image and the second image based on an extension line (hereinafter, referred to as a first line) of the left body line of the vehicle when viewed from above. Specifically, the processor 180 may synthesize the right side of the first line based on the first image and the left side of the first line based on the second image based on the first line. For example, after excluding the vehicle body region 1171b from the second image, the first image and the second image may be synthesized based on the first line.

또한, 프로세서(180)는, 위에서 바라볼때, 차량의 우측 바디라인의 연장선(이하, 제2 선)을 기준으로 제1 영상 및 제3 영상을 합성할 수 있다. 구체적으로, 프로세서(180)는 제2 선을 기준으로, 제2 선의 좌측은 제1 영상에 기초하고, 제2 선의 우측은 제3 영상에 기초하여 합성할 수 있다. 예를 들어, 제3 영상에서 차체 영역(1171c)은 제외한 후, 제2 선을 기준으로 제1 영상과 제3 영상을 합성할 수 있다.Also, when viewed from above, the processor 180 may synthesize the first image and the third image based on an extension line (hereinafter, referred to as a second line) of the right body line of the vehicle. Specifically, the processor 180 may synthesize the second line based on the second line, the left side of the second line based on the first image, and the right side of the second line based on the third image. For example, after excluding the vehicle body region 1171c from the third image, the first image and the third image may be synthesized based on the second line.

이와 같이, 제1 내지 제3 영상을 합성함으로써, 탑승자에게 차량 후방에 대한 넓은 시야의 영상을 제공할 수 있다.In this way, by synthesizing the first to third images, an image of a wide field of view toward the rear of the vehicle may be provided to the occupant.

합성 영상을 생성하는 경우, 프로세서(180)는 제1 카메라 위치를 기준으로, 제2 및 제3 영상에 대한 거리 조절을 하여, 제1 내지 제3 영상을 합성할 수 있다. 예를 들어, 제2 및 제3 카메라는 제1 카메라와 동일한 평면에 배치되지 않을 수 있다. 제1 카메라는 차량 후미 번호판 상측 또는 하측에 배치될 수 있고, 제2 카메라는 좌측 사이드 미러 모듈에 배치될 수 있고, 제3 카메라는 우측 사이드 미러 모듈에 배치될 수 있다. 이경우, 제2 및 제3 카메라가 영상을 획득하는 지점은 제1 카메라가 영상을 획득하는 지점과 달라진다. 그에 따라, 제2 및 제3 영상과 제1 영상 사이에는, 제2 및 제3 카메라와 제1 카메라 사이의 거리에 따른 거리감이 발생한다. 프로세서(180)는 스케일링을 통해, 제1 내지 제3 영상이 동일 평면에서 촬영된 것과 같이, 거리 조절을 할 수 있다.When generating a synthesized image, the processor 180 may synthesize the first to third images by adjusting distances for the second and third images based on the position of the first camera. For example, the second and third cameras may not be disposed on the same plane as the first camera. The first camera may be disposed above or below the vehicle rear license plate, the second camera may be disposed on the left side mirror module, and the third camera may be disposed on the right side mirror module. In this case, a point at which the second and third cameras acquire an image is different from a point at which the first camera acquires an image. Accordingly, a sense of distance occurs between the second and third images and the first image according to the distance between the second and third cameras and the first camera. The processor 180 may adjust the distance through scaling as if the first to third images were captured on the same plane.

예를 들어, 비전모듈(121)이 차량 내부 영상을 획득하는 적어도 하나의 카메라를 포함하는 경우, 프로세서(180)는, 상기 차량 내부 영상을 수신하여, 상기 차량 내부 영상이 광 차단부(240)에 표시되도록 투사부(230)를 제어할 수 있다. 가령, 카메라가 차량 뒷자리 영상을 획득하는 경우, 프로세서(180)는 상기 뒷자리 영상이 광 차단부(240)에 표시되도록 투사부(230)를 제어할 수 있다. 이경우, 광 차단부(240)는 룸미러 기능을 수행할 수 있다.For example, when the vision module 121 includes at least one camera that acquires an image inside the vehicle, the processor 180 receives the image inside the vehicle, and the image inside the vehicle is converted to the light blocking unit 240 It is possible to control the projection unit 230 to be displayed on. For example, when the camera acquires an image of a rear seat of the vehicle, the processor 180 may control the projection unit 230 so that the rear seat image is displayed on the light blocking unit 240. In this case, the light blocking unit 240 may perform a room mirror function.

예를 들어, 비전모듈(121)이 차량 전방 영상을 획득하는 적어도 하나의 카메라를 포함하는 경우, 프로세서(180)는 상기 차량 전방 영상을 수신하여, 상기 차량 전방 영상에 기초하는 정보가 광차단부(240)에 표시되도록 투사부를 제어할 수 있다. For example, when the vision module 121 includes at least one camera for acquiring an image in front of the vehicle, the processor 180 receives the image in front of the vehicle, and information based on the image in front of the vehicle is The projection unit can be controlled to be displayed at 240.

한편, 차량 전방 영상을 획득하는 카메라가 스테레오 카메라로 구성되는 경우, 프로세서(180)는, 제1 카메라(121a)로부터 차량 전방에 대한 스테레오 영상을 획득하고, 스테레오 영상에 기초하여, 차량 전방에 대한 디스패러티 연산을 수행하고, 연산된 디스패러티 정보에 기초하여, 스테레오 영상 중 적어도 하나에 대한, 오브젝트 검출을 수행하며, 오브젝트 검출 이후, 계속적으로, 오브젝트의 움직임을 트래킹할 수 있다. On the other hand, when the camera for obtaining the front image of the vehicle is configured as a stereo camera, the processor 180 obtains a stereo image of the front of the vehicle from the first camera 121a, and based on the stereo image, A disparity operation may be performed, object detection may be performed on at least one of the stereo images based on the calculated disparity information, and movement of the object may be continuously tracked after object detection.

특히, 프로세서(180)는, 오브젝트 검출시, 차선 검출(Lane Detection, LD), 주변 차량 검출(Vehicle Detection, VD), 보행자 검출(Pedestrian Detection,PD), 불빛 검출(Brightspot Detection, BD), 교통 표지판 검출(Traffic Sign Recognition, TSR), 도로면 검출 등을 수행할 수 있다.In particular, the processor 180, when detecting an object, lane detection (LD), vehicle detection (VD), pedestrian detection (PD), light detection (Brightspot Detection, BD), traffic Traffic Sign Recognition (TSR), road surface detection, and the like can be performed.

그리고, 프로세서(180)는, 검출된 주변 차량에 대한 거리 연산, 검출된 주변 차량의 속도 연산, 검출된 주변 차량과의 속도 차이 연산 등을 수행할 수 있다.In addition, the processor 180 may calculate a distance with respect to the detected surrounding vehicle, calculate a speed of the detected surrounding vehicle, and calculate a speed difference with the detected surrounding vehicle.

예를 들어, 비전모듈(121)이 탑승자의 시선을 감지하는 적어도 하나의 카메라를 포함하는 경우, 프로세서(180)는 탑승자 시선을 바탕으로, 빔이 투사되는 영역을 조절할 수 있다. 탑승자의 시선을 감지하는 카메라는 탑승자의 눈을 촬영할 수 있다. 이경우, 프로세서(180)는 눈에 대한 이미지를 수신한다. 프로세서(180)는 수신된 눈에 대한 이미지에서 동공(pupil)을 추출한다. 프로세서(180)는 추출된 동공을 트래킹한다. 프로세서(180)는 트래킹되는 동공의 움직임에 대응하여, 동공이 향하는 궤적을 연산한다. 프로세서(180)는 상기 궤적을 바탕으로, 광차단부(240)에서, 동공이 향하는 영역에서, 투사부(230)에서 투사되는 빔을 받을 수 있도록 투사부(230)를 제어할 수 있다.For example, when the vision module 121 includes at least one camera that detects the occupant's gaze, the processor 180 may adjust a region in which the beam is projected based on the occupant's gaze. A camera that detects the occupant's gaze can photograph the occupant's eyes. In this case, the processor 180 receives an image of the eye. The processor 180 extracts a pupil from the received image of the eye. The processor 180 tracks the extracted pupil. The processor 180 calculates a trajectory toward the pupil in response to the tracked pupil movement. Based on the trajectory, the processor 180 may control the projection unit 230 to receive a beam projected from the projection unit 230 in a region where the pupil is directed at the light blocking unit 240.

한편, 광차단부(240)가 복수의 단으로 구성되는 경우, 프로세서(180)는 사용자 입력부(125)를 통한 사용자 입력에 대응하여, 광차단부(240)의 단을 조절할 수 있다. 또는, 프로세서(180)는 태양 센서(141)로부터 추적되는 태양의 위치를 기초로, 광차단부(240)의 단을 조절할 수 있다.Meanwhile, when the light blocking unit 240 is configured with a plurality of stages, the processor 180 may adjust the end of the light blocking unit 240 in response to a user input through the user input unit 125. Alternatively, the processor 180 may adjust the end of the light blocking unit 240 based on the position of the sun tracked by the sun sensor 141.

한편, 광차단부(240)는 복수개로 구성될 수 있다. 예를 들어, 광차단부(240)가 제1 광차단부(240a) 및 상기 제1 광차단부(240a)보다 큰 제2 광차단부(240b)로 구성되는 경우, 프로세서(180)는 사용자 입력부(125)를 통한 사용자 입력에 대응하여, 제1 광차단부(240a) 또는 제2 광차단부(240b)가 선택적으로 펼치거나 접을 수 있다. 또는, 프로세서(180)는 태양 센서(141)로부터 추적되는 태양의 위치를 기초로, 제1 광차단부(240a) 또는 제2 광차단부(240b)가 선택적으로 펼치거나 접을 수 있다.Meanwhile, the light blocking unit 240 may be formed in plural. For example, when the light blocking part 240 is composed of a first light blocking part 240a and a second light blocking part 240b larger than the first light blocking part 240a, the processor 180 In response to a user input through the input unit 125, the first light blocking unit 240a or the second light blocking unit 240b may be selectively opened or folded. Alternatively, the processor 180 may selectively open or fold the first light blocking part 240a or the second light blocking part 240b based on the position of the sun tracked by the solar sensor 141.

프로세서(180)는 차량의 자세에 대응하여, 광차단부(240)에 표시되는 영상이 흔들리지 않도록 빔의 출력을 보정할 수 있다. 예를 들어, 차량이 상하로 움직이는 경우, 투사부(230)에서 투사되는 빔이 상하로 흔들려, 광차단부(240)에 ?셜榻? 영상이 흔들릴 수 있다. 이경우, 프로세서(180)는 상하로 움직이는 차량의 자세에 대응하여, 투사부(231)에서 투사되는 빔의 출력을 상하로 보정할 수 있다.The processor 180 may correct the output of the beam so that the image displayed on the light blocking unit 240 does not shake in response to the attitude of the vehicle. For example, when the vehicle moves up and down, the beam projected from the projection unit 230 is shaken up and down, so that the light shielding unit 240 shakes up and down. The picture may be shaken. In this case, the processor 180 may vertically correct the output of the beam projected from the projection unit 231 corresponding to the posture of the vehicle moving up and down.

프로세서(180)는 차량 관련 정보를 생성할 수 있다. 프로세서(180)는 투사부(230)에서 투사되는 빔을 통해, 광차단부(240)에, 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보 또는 차량 탑승자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다.The processor 180 may generate vehicle related information. The processor 180 may display vehicle-related information on the light blocking unit 240 through a beam projected from the projection unit 230. Here, the vehicle-related information may include vehicle control information for direct control of a vehicle or vehicle driving assistance information for a driving guide to a vehicle occupant.

프로세서(180)는 DSP(digital signal processor), ASIC(application specific integrated circuit), 마이크로 컨트롤러(microcontroller), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 기타 기능 수행을 위한 전기적 유닛으로 형성되어, 소정의 회로 보드 일면에 실장될 수 있다.The processor 180 is formed as an electrical unit for performing digital signal processor (DSP), application specific integrated circuit (ASIC), microcontroller, programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and other functions. Thus, it can be mounted on one surface of a predetermined circuit board.

전원 공급부(190)는, 프로세서(180)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리 등으로부터 전원을 공급받을 수 있다. The power supply unit 190 may supply power required for operation of each component under the control of the processor 180. In particular, the power supply unit 190 may receive power from a battery inside a vehicle.

음향 출력부(220)는, 음향 출력부(220)는, 프로세서(180)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 스피커 등을 구비할 수 있다. 음향 출력부(220)는, 사용자 입력부(125), 즉 버튼의 동작에 대응하는, 사운드를 출력하는 것도 가능하다.The sound output unit 220, the sound output unit 220, converts the electrical signal from the processor 180 into an audio signal and outputs it. To this end, a speaker or the like may be provided. The sound output unit 220 may output a sound corresponding to the user input unit 125, that is, an operation of a button.

투사부(230)는, 광 차단부를 향해 빔(beam)을 투사한다. 투사부(230)는 광원, 투사 렌즈를 포함할 수 있다. 투사부(230)는 프로세서(180)에서 처리되는 정보에 대응하는 영상을 구현한다. 투사부(230)는 광원에서 발생한 광을 이용하여 영상을 구현하고, 구현된 영상을 광 차단부에 투사한다. 광원은 LED, 레이저 등을 이용하는 것이 바람직하다. The projection unit 230 projects a beam toward the light blocking unit. The projection unit 230 may include a light source and a projection lens. The projection unit 230 implements an image corresponding to information processed by the processor 180. The projection unit 230 implements an image using light generated from a light source, and projects the implemented image to the light blocking unit. It is preferable to use an LED, a laser, etc. as a light source.

광차단부(240)는 차량 내부에 구비된다. 광차단부(240)는 반투명한 재질로 형성되어, 차량 내부로 유입되는 광을 차단한다. 또한, 광차단부(240)는 투사부(230)로부터 투사되는 빔을 받아 상이 맺히는 영역을 포함한다. 이때, 상기 상이 맺히는 영역은 가변될 수 있다.The light blocking part 240 is provided inside the vehicle. The light blocking part 240 is formed of a translucent material to block light entering the vehicle. In addition, the light blocking unit 240 includes a region where an image is formed by receiving a beam projected from the projection unit 230. In this case, the area where the image is formed may be varied.

한편, 반투명한 재질은 광을 차단하면서 동시에 소정의 투명도를 가지는 재질이다. 예를 들면, 광차단부(240)는 반투명한 재질의 합성 수지재로 형성될 수 있다.On the other hand, the translucent material is a material having a predetermined transparency while blocking light. For example, the light blocking part 240 may be formed of a synthetic resin material made of a translucent material.

한편, 실시예에 따라, 광차단부(240)는 투명 디스플레이로 형성될 수 있다. 한편, 투명 디스플레이는 소정의 투명도를 가질 수 있다. 이러한 투명도를 가지기 위해, 투명 디스플레이는 투명 TFEL(Thin Film Elecroluminescent), 투명 OLED(Organic Light-Emitting Diode), 투명 LCD(Liquid Crystal Display), 투과형 투명디스플레이, 투명 LED(Light Emitting Diode) 디스플레이 중 적어도 하나를 포함할 수 있다. 투명 디스플레이의 투명도는 프로세서(180)의 제어에 따라 조절될 수 있다. 광 차단부(240)는, 투명 디스플레이의 투명도를 조절하여, 태양으로부터 입사되는 광이 탑승자에게 직접적으로 조사되는 것을 방지한다. 광 차단부(240)는, 태양 센서(141) 또는 광량 센서(142)에서 감지된 데이터를 기초로, 크기 또는 투명도의 정도가 조절될 수 있다.Meanwhile, according to the embodiment, the light blocking unit 240 may be formed as a transparent display. Meanwhile, the transparent display may have a predetermined transparency. In order to have such transparency, the transparent display is at least one of a transparent TFEL (Thin Film Elecroluminescent), a transparent OLED (Organic Light-Emitting Diode), a transparent LCD (Liquid Crystal Display), a transmissive transparent display, and a transparent LED (Light Emitting Diode) display. It may include. The transparency of the transparent display may be adjusted according to the control of the processor 180. The light blocking unit 240 prevents direct irradiation of light incident from the sun to the occupant by adjusting the transparency of the transparent display. The light blocking unit 240 may have a size or a degree of transparency adjusted based on data sensed by the solar sensor 141 or the light amount sensor 142.

한편, 광차단부(240)는 복수의 단(段)으로 구성되어, 각각의 단이 접힐수 있다. 태양의 위치에 대응하여, 광차단부(240)의 단이 조절될 수 있다. 또한, 사용자 입력부(125)를 통해, 수신되는 사용자 입력에 따라, 광차단부(240)의 단이 조절될 수도 있다.On the other hand, the light blocking portion 240 is composed of a plurality of steps (段), each end can be folded. Corresponding to the position of the sun, the end of the light blocking unit 240 may be adjusted. In addition, the end of the light blocking unit 240 may be adjusted according to a user input received through the user input unit 125.

한편, 광차단부(240)는 복수로 구성될 수 있다. 예를 들어, 광차단부(240)는 제1 광차단부(240a) 및 상기 제1 광차단부(240a)보다 큰 제2 광차단부(240b)를 포함할 수 있다. 태양의 위치에 따라, 제1 광차단부(240a) 또는 제2 광차단부(240b)가 선택적으로 이용될 수 있다. 또는, 광차단부(240)에 투사되는 영상에 따라 제1 광차단부(240a) 또는 제2 광차단부(240b)가 선택적으로 이용될 수 있다. 또는, 사용자 입력부(125)를 통한 사용자 입력에 따라, 제1 광차단부(240a) 또는 제2 광차단부(240b)가 선택적으로 이용될 수 있다.Meanwhile, the light blocking unit 240 may be configured in plural. For example, the light blocking part 240 may include a first light blocking part 240a and a second light blocking part 240b that is larger than the first light blocking part 240a. Depending on the position of the sun, the first light blocking portion 240a or the second light blocking portion 240b may be selectively used. Alternatively, the first light blocking unit 240a or the second light blocking unit 240b may be selectively used according to the image projected onto the light blocking unit 240. Alternatively, according to a user input through the user input unit 125, the first light blocking unit 240a or the second light blocking unit 240b may be selectively used.

구동부(245)는, 프로세서(180)의 제어에 따라, 광차단부(245)가 움직일수 있게하는 구동력을 제공한다. 예를 들면, 구동부(245)는 모터를 포함할 수 있다. The driving unit 245 provides a driving force that enables the light blocking unit 245 to move under the control of the processor 180. For example, the driving unit 245 may include a motor.

예를 들면, 광차단부(240)가 복수로 구성되는 경우, 각각의 광차단부(240)가 접히거나 펴지도록 구동력을 제공할 수 있다. 예를 들면, 광차단부(240)가 복수의 단으로 구성되는 경우, 구동부(245)는 각각의 단이 접히거나 펴지도록 구동력을 제공할 수 있다. For example, when a plurality of light blocking units 240 are formed, driving force may be provided so that each light blocking unit 240 is folded or unfolded. For example, when the light blocking unit 240 is composed of a plurality of stages, the driving unit 245 may provide a driving force so that each stage is folded or unfolded.

도 3 내지 도 4는 본 발명의 실시예에 따라, 복수의 광차단부를 포함하는 경우, 차량 운전 보조 장치를 설명하는데 참조되는 도면이다.3 to 4 are diagrams referred to for describing a vehicle driving assistance apparatus when a plurality of light blocking units are included according to an exemplary embodiment of the present invention.

도 3 내지 도 4를 참조하면, 투사부(230)는 차량 실내 천장에 부착될 수 있다. 투사부(230)는, 광 차단부를 향해 빔(beam)을 투사한다. 3 to 4, the projection unit 230 may be attached to the vehicle interior ceiling. The projection unit 230 projects a beam toward the light blocking unit.

광차단부(240)는 투사부(230)와 윈드 쉴드(300)사이에 배치될 수 있다. 광차단부(240)는 복수로 구성될 수 있다. 예를 들어, 광차단부(240)는 제1 광차단부(240a) 및 상기 제1 광차단부(240a)보다 큰 제2 광차단부(240b)를 포함할 수 있다. 태양의 위치에 따라, 제1 광차단부(240a) 또는 제2 광차단부(240b)가 선택적으로 이용될 수 있다. 또는, 광차단부(240)에 투사되는 영상에 따라 제1 광차단부(240a) 또는 제2 광차단부(240b)가 선택적으로 이용될 수 있다. 또는, 사용자 입력부(125)를 통한 사용자 입력에 따라, 제1 광차단부(240a) 또는 제2 광차단부(240b)가 선택적으로 이용될 수 있다.The light blocking unit 240 may be disposed between the projection unit 230 and the windshield 300. The light blocking unit 240 may be configured in plural. For example, the light blocking part 240 may include a first light blocking part 240a and a second light blocking part 240b that is larger than the first light blocking part 240a. Depending on the position of the sun, the first light blocking portion 240a or the second light blocking portion 240b may be selectively used. Alternatively, the first light blocking unit 240a or the second light blocking unit 240b may be selectively used according to the image projected onto the light blocking unit 240. Alternatively, according to a user input through the user input unit 125, the first light blocking unit 240a or the second light blocking unit 240b may be selectively used.

제1 광차단부(240a)가 선택되는 경우, 프로세서(180)는 구동부(245, 도2 참조)를 통해, 광차단부(240)에 구동력을 전달한다. 이경우, 도 4 (a)에 도시된 바와 같이, 제1 광차단부(240a)는, 구동력에 의해, 힌지부(310)를 기준으로 하향으로 회동할 수 있다. 즉, 프로세서(170)는 제1 광차단부(240a)가 힌지부(310)를 기준으로 하향으로 회동되도록 제어할 수 있다. 제1 광차단부(240a)는 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 또한, 제1 광차단부(240a)는 투사부(230)로부터 투사되는 빔을 받아, 빔을 기초로 영상을 표시할 수 있다.When the first light blocking unit 240a is selected, the processor 180 transmits the driving force to the light blocking unit 240 through the driving unit 245 (see FIG. 2 ). In this case, as shown in FIG. 4 (a), the first light blocking portion 240a may rotate downward with respect to the hinge portion 310 by a driving force. That is, the processor 170 may control the first light blocking part 240a to rotate downward with respect to the hinge part 310. The first light blocking part 240a may block sunlight directly irradiated to the occupant's eyes. In addition, the first light blocking unit 240a may receive a beam projected from the projection unit 230 and display an image based on the beam.

제2 광차단부(240b)가 선택되는 경우, 프로세서(180)는 구동부(245, 도2 참조)를 통해, 광차단부(240)에 구동력을 전달한다. 이경우, 도 4 (b)에 도시된 바와 같이, 제2 광차단부(240b)는, 구동력에 의해, 힌지부(310)를 기준으로 하향으로 회동할 수 있다. 즉, 프로세서(170)는 제2 광차단부(240b)가 힌지부(310)를 기준으로 하향으로 회동되도록 제어할 수 있다. 제2 광차단부(240b)는 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 또한, 제2 광차단부(240b)는 투사부(230)로부터 투사되는 빔을 받아, 빔을 기초로 영상을 표시할 수 있다.When the second light blocking unit 240b is selected, the processor 180 transmits a driving force to the light blocking unit 240 through the driving unit 245 (see FIG. 2 ). In this case, as shown in FIG. 4B, the second light blocking portion 240b may rotate downward with respect to the hinge portion 310 by a driving force. That is, the processor 170 may control the second light blocking part 240b to rotate downward with respect to the hinge part 310. The second light blocking unit 240b may block sunlight directly irradiated to the occupant's eyes. In addition, the second light blocking unit 240b may receive a beam projected from the projection unit 230 and display an image based on the beam.

한편, 실시예에 따라, 투사부(230) 케이스 외부에, 상술한 마이크로폰(123)이 배치될 수 있다. 실시예에 따라, 투사부(230) 케이스 외부에, 상술한 비전모듈(121)에 구비되는 탑승자 시선을 감지하는 적어도 하나의 카메라가 배치될 수 있다.Meanwhile, according to an embodiment, the microphone 123 described above may be disposed outside the case of the projection unit 230. According to an embodiment, at least one camera may be disposed outside the case of the projection unit 230 to detect a passenger's gaze provided in the vision module 121 described above.

도 5 내지 도 6은 본 발명의 실시예에 따라, 광차단부가 복수의 단으로 구성되는 경우, 차량 운전 보조 장치를 설명하는데 참조되는 도면이다.5 to 6 are diagrams referred to for describing a vehicle driving assistance apparatus when the light blocking unit is configured with a plurality of stages according to an embodiment of the present invention.

도 5 내지 도 6을 참조하면, 투사부(230)는 차량 실내 천장에 부착될 수 있다. 투사부(230)는, 광 차단부(240)를 향해 빔(beam)을 투사한다. 5 to 6, the projection unit 230 may be attached to the vehicle interior ceiling. The projection unit 230 projects a beam toward the light blocking unit 240.

광차단부(240)는 투사부(230)와 윈드 쉴드(300)사이에 배치될 수 있다. 광차단부(240)는 복수의 단으로 구성될 수 있다. 본 실시예에서 광차단부(240)는 제1 단 및 제2 단으로 구성되는 것으로 설명하나, 이에 한정되지 아니한다. The light blocking unit 240 may be disposed between the projection unit 230 and the windshield 300. The light blocking unit 240 may be configured with a plurality of stages. In the present embodiment, the light blocking unit 240 is described as having a first stage and a second stage, but is not limited thereto.

광차단부(240)가 제1 단 및 제2 단으로 구성되는 경우, 광차단부(240)는 제1 광차단부(530), 제2 광차단부(540), 제1 힌지부(510) 및 제2 힌지부(520)을 포함할 수 있다. 제1 힌지부(520)는 차량 실내 천장과 제1 광차단부(530)를 회동가능하게 연결한다. 제2 힌지부(520)는 제1 광차단부(530)와 제2 광차단부(540)를 회동가능하게 연결한다.When the light blocking part 240 is composed of a first end and a second end, the light blocking part 240 includes a first light blocking part 530, a second light blocking part 540, and a first hinge part 510. ) And a second hinge part 520. The first hinge part 520 rotatably connects the vehicle interior ceiling and the first light blocking part 530. The second hinge part 520 connects the first light blocking part 530 and the second light blocking part 540 to be rotatable.

제1 단이 선택되는 경우, 프로세서(180)는 구동부(245, 도2 참조)를 통해, 광차단부(240)에 구동력을 전달한다. 이경우, 도 5 (b)에 도시된 바와 같이, 제1 광차단부(530) 및 제2 광차단부(540)는, 구동력에 의해, 제1 힌지부(510)를 기준으로 하향으로 회동할 수 있다. 프로세서(180)는 제1 및 제2 광차단부(530, 540)가 제1 힌지부(510)를 기준으로 하향으로 회동되도록 제어할 수 있다. 제1 광차단부(530) 및 제2 광차단부(540)는 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 즉, 제1 광차단부(530) 및 제2 광차단부(540)는 겹쳐진 상태로, 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 또한, 제1 광차단부(530)는 투사부(230)로부터 투사되는 빔을 받아, 빔을 기초로 영상을 표시할 수 있다.When the first stage is selected, the processor 180 transmits the driving force to the light blocking unit 240 through the driving unit 245 (see FIG. 2 ). In this case, as shown in FIG. 5 (b), the first light blocking unit 530 and the second light blocking unit 540 rotate downward with respect to the first hinge unit 510 by a driving force. I can. The processor 180 may control the first and second light blocking portions 530 and 540 to rotate downward based on the first hinge portion 510. The first light blocking unit 530 and the second light blocking unit 540 may block sunlight directly irradiated to the occupant's eyes. That is, the first light blocking unit 530 and the second light blocking unit 540 may be overlapped and block sunlight directly irradiated to the occupant's eyes. In addition, the first light blocking unit 530 may receive a beam projected from the projection unit 230 and display an image based on the beam.

제2 단이 선택되는 경우, 프로세서(180)는 구동부(245, 도2 참조)를 통해, 광차단부(240)에 구동력을 전달한다. 이경우, 도 6 (a) 및 도 6 (b)에 도시된 바와 같이, 제2 광차단부(540)는, 구동력에 의해, 제2 힌지부(520)를 기준으로, 하향으로 회동할 수 있다. 프로세서(180)는 제2 광차단부(540)가 제2 힌지부(520)를 기준으로, 하향으로 회동되도록 제어할 수 있다. 제1 광차단부(530) 및 제2 광차단부(540)는 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 즉, 제1 광차단부(530) 및 제2 광차단부(540)는 펼쳐진 상태로, 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 또한, 제1 광차단부(530) 및 제2 광차단부(540)는 투사부(230)로부터 투사되는 빔을 받아, 빔을 기초로 영상을 표시할 수 있다.When the second stage is selected, the processor 180 transmits the driving force to the light blocking unit 240 through the driving unit 245 (see FIG. 2 ). In this case, as shown in Figs. 6 (a) and 6 (b), the second light blocking unit 540 may rotate downward based on the second hinge unit 520 by a driving force. . The processor 180 may control the second light blocking unit 540 to rotate downward based on the second hinge unit 520. The first light blocking unit 530 and the second light blocking unit 540 may block sunlight directly irradiated to the occupant's eyes. That is, the first light blocking unit 530 and the second light blocking unit 540 are in an unfolded state, and may block sunlight directly irradiated to the occupant's eyes. Further, the first light blocking unit 530 and the second light blocking unit 540 may receive a beam projected from the projection unit 230 and display an image based on the beam.

한편, 실시예에 따라, 도 6 (a) 예시된 바와 같이, 제1 광차단부(530)가 하향으로 회동되어 펼쳐진 상태에서, 제2 광차단부(540)는 제1 광차단부(530)와 소정의 각도(610)를 이루며 위치할 수 있다. 여기서, 상기 각도(610)는 90° 내지 180° 일 수 있다. On the other hand, according to an embodiment, as illustrated in FIG. 6 (a), in a state in which the first light blocking part 530 is rotated downward and unfolded, the second light blocking part 540 is ) And may be positioned at a predetermined angle 610. Here, the angle 610 may be 90° to 180°.

도 7은 본 발명의 실시예에 따른 사용자 입력부(125)를 설명하는데 참조되는 도면이다.7 is a diagram referenced to describe the user input unit 125 according to an embodiment of the present invention.

도 7을 참조하면, 사용자 입력부(125)는 스티어링 휠(710)에 부착될 수 있다. 사용자 입력부(125)는 탑승자가 스티어링 휠(710)을 잡은 상태에서, 엄지 손가락으로 입력을 수행하도록 구성될 수 있다.Referring to FIG. 7, the user input unit 125 may be attached to the steering wheel 710. The user input unit 125 may be configured to perform an input with a thumb while the occupant holds the steering wheel 710.

도 7의 (a)에 도시된 바와 같이, 사용자 입력부(125)는 제1 버튼(711) 및 제2 버튼(712)을 포함할 수 있다. 여기서, 각각의 버튼(711, 712)은 물리적 버튼 또는 소프트 키일 수 있다.7A, the user input unit 125 may include a first button 711 and a second button 712. Here, each of the buttons 711 and 712 may be a physical button or a soft key.

광차단부(240)가 복수의 광차단부(240a, 204b)로 구성될 때, 제1 버튼(711)에 입력이 수신되는 경우, 프로세서(180)는 제1 광차단부(240a)가 힌지부(310, 도 4 참조)를 기준으로 하향으로 회동되도록 제어할 수 있다. 제2 버튼(712)에 입력이 수신되는 경우, 프로세서(180)는 제2 광차단부(240b)가 힌지부(310, 도 4 참조)를 기준으로 하향으로 회동되도록 제어할 수 있다.When the light blocking unit 240 is composed of a plurality of light blocking units 240a and 204b, when an input is received from the first button 711, the processor 180 is configured with the first light blocking unit 240a. It can be controlled to rotate downward based on the branch 310 (see FIG. 4). When an input is received from the second button 712, the processor 180 may control the second light blocking unit 240b to rotate downward with respect to the hinge unit 310 (see FIG. 4 ).

광차단부(240)가 복수의 단으로 구성될 때, 제1 버튼(711)에 입력이 수신되는 경우, 프로세서(180)는 제1 및 제2 광차단부(530, 540)가 제1 힌지부(510, 도 5 참조)를 기준으로 하향으로 회동되도록 제어할 수 있다. 제2 버튼(712)에 입력이 수신되는 경우, 프로세서(180)는 제2 광차단부(540)가 제2 힌지부(520, 도 5 및 도 6 참조)를 기준으로, 하향으로 회동되도록 제어할 수 있다.When the light blocking unit 240 is composed of a plurality of stages, when an input is received through the first button 711, the processor 180 is configured with the first and second light blocking units 530 and 540 It can be controlled to rotate downward based on the branch 510 (see FIG. 5). When an input is received from the second button 712, the processor 180 controls the second light blocking unit 540 to rotate downward based on the second hinge unit 520 (see FIGS. 5 and 6). can do.

도 7의 (b)에 도시된 바와 같이, 사용자 입력부(125)는 볼 타입(720)(ball type)으로 구성될 수 있다. 볼 타입의 사용자 입력부는 상,하,좌,우의 롤링 입력을 수신할 수 있다.As shown in (b) of FIG. 7, the user input unit 125 may be configured as a ball type 720 (ball type). The ball-type user input unit may receive up, down, left, and right rolling inputs.

예를 들어, 광차단부(240)가 복수의 광차단부(240a, 204b)로 구성될 때, 제1 방향으로 롤링 입력이 수신되는 경우, 프로세서(180)는 제1 광차단부(240a)가 힌지부(310, 도 4 참조)를 기준으로 하향으로 회동되도록 제어할 수 있다. 제2 방향으로 롤링 입력이 수신되는 경우, 프로세서(180)는 제2 광차단부(240b)가 힌지부(310, 도 4 참조)를 기준으로 하향으로 회동되도록 제어할 수 있다.For example, when the light blocking unit 240 is composed of a plurality of light blocking units 240a and 204b, and when a rolling input is received in the first direction, the processor 180 may use the first light blocking unit 240a May be controlled to rotate downward based on the hinge part 310 (see FIG. 4). When a rolling input is received in the second direction, the processor 180 may control the second light blocking unit 240b to rotate downward with respect to the hinge unit 310 (refer to FIG. 4 ).

예를 들어, 광차단부(240)가 복수의 단으로 구성될 때, 제1 방향으로 롤링 입력이 수신되는 경우, 프로세서(180)는 제1 및 제2 광차단부(530, 540)가 제1 힌지부(510, 도 5 참조)를 기준으로 하향으로 회동되도록 제어할 수 있다. 제2 방향으로 롤링 입력이 수신되는 경우, 프로세서(180)는 제2 광차단부(540)가 제2 힌지부(520, 도 5 및 도 6 참조)를 기준으로, 하향으로 회동되도록 제어할 수 있다.For example, when the light blocking unit 240 is composed of a plurality of stages, and a rolling input is received in the first direction, the processor 180 includes the first and second light blocking units 530 and 540 1 It can be controlled to rotate downward based on the hinge part 510 (refer to FIG. 5). When a rolling input is received in the second direction, the processor 180 may control the second light blocking unit 540 to rotate downward based on the second hinge unit 520 (see FIGS. 5 and 6). have.

한편, 상술한 롤링 방향에 대응하는 프로세서(180)의 제어 동작은 실시예에 불과함을 명시한다. 롤링 방향에 대응하는 프로세서(180)의 제어 동작은 매칭 조합에 따라, 다양한 실시예가 가능하고, 각 실시예는 본 발명의 범위에 포함될 수 있다.Meanwhile, it is specified that the control operation of the processor 180 corresponding to the above-described rolling direction is only an embodiment. The control operation of the processor 180 corresponding to the rolling direction may be various embodiments according to the matching combination, and each embodiment may be included in the scope of the present invention.

도 8은 도 1의 차량 내부의 전자 제어 장치의 내부 블록도의 일예이다.8 is an example of an internal block diagram of the electronic control device inside the vehicle of FIG. 1.

도 8을 참조하면, 차량(200)은 차량 제어를 위한 전자 제어 장치(700)를 구비할 수 있다. 전자 제어 장치(700)는, 상술한 차량 운전 보조 장치(100), 및 AVN 장치(400)와 데이터를 교환할 수 있다.Referring to FIG. 8, the vehicle 200 may include an electronic control device 700 for vehicle control. The electronic control device 700 may exchange data with the vehicle driving assistance device 100 and the AVN device 400 described above.

전자 제어 장치(700)는, 입력부(710), 통신부(720), 차량 메모리(740), 램프 구동부(751), 조향 구동부(752), 브레이크 구동부(753), 동력원 구동부(754), 썬루프 구동부(755), 서스펜션 구동부(756), 공조 구동부(757), 윈도우 구동부(758), 에어백 구동부(759), 차량 센서부(760), ECU(770), 표시부(780), 오디오 출력부(785), 전원 공급부(790)를 구비할 수 있다. The electronic control device 700 includes an input unit 710, a communication unit 720, a vehicle memory 740, a lamp drive unit 751, a steering drive unit 752, a brake drive unit 753, a power source drive unit 754, and a sunroof. Driving unit 755, suspension driving unit 756, air conditioning driving unit 757, window driving unit 758, airbag driving unit 759, vehicle sensor unit 760, ECU 770, display unit 780, audio output unit ( 785) and a power supply unit 790 may be provided.

입력부(710)는, 차량(200) 내부에 배치되는 복수의 버튼 또는 터치 스크린을 구비할 수 있다. 복수의 버튼 또는 터치 스크린을 통해, 다양한 입력 동작을 수행하는 것이 가능하다.The input unit 710 may include a plurality of buttons or a touch screen disposed inside the vehicle 200. It is possible to perform various input operations through a plurality of buttons or a touch screen.

통신부(720)는, 이동 단말기(245) 또는 서버(260)와 무선(wireless) 방식으로, 데이터를 교환할 수 있다. 특히, 통신부(720)는, 차량 탑승자의 이동 단말기와, 무선으로 데이터를 교환할 수 있다. 무선 데이터 통신 방식으로는, 블루투스(Bluetooth), WiFi Direct, WiFi, APiX 등 다양한 데이터 통신 방식이 가능하다.The communication unit 720 may exchange data with the mobile terminal 245 or the server 260 in a wireless manner. In particular, the communication unit 720 may wirelessly exchange data with a mobile terminal of a vehicle occupant. As a wireless data communication method, various data communication methods such as Bluetooth, WiFi Direct, WiFi, and APiX are possible.

통신부(720)는, 이동 단말기(245) 또는 서버(260)로부터, 날씨 정보, 도로의 교통 상황 정보, 예를 들어, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다. The communication unit 720 may receive weather information, road traffic condition information, for example, Transport Protocol Expert Group (TPEG) information from the mobile terminal 245 or the server 260.

한편, 사용자가 차량에 탑승한 경우, 사용자의 이동 단말기(245)와 전자 제어 장치(700)는, 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링을 수행할 수 있다. Meanwhile, when the user boards the vehicle, the user's mobile terminal 245 and the electronic control device 700 may perform pairing with each other automatically or by executing an application by the user.

차량 메모리(740)는, ECU(770)의 처리 또는 제어를 위한 프로그램 등, 전자 제어 장치(700) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. The vehicle memory 740 may store various data for overall operation of the electronic control device 700, such as a program for processing or controlling the ECU 770.

램프 구동부(751)는, 차량 내,외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들어, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.The lamp driving unit 751 may control turn on/off of lamps disposed inside and outside the vehicle. In addition, it is possible to control the light intensity and direction of the lamp. For example, it is possible to control a direction indicator lamp, a brake lamp, and the like.

조향 구동부(752)는, 차량(200) 내의 조향 장치(steering apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 차량의 진행 방향을 변경할 수 있다.The steering drive unit 752 may perform electronic control on a steering apparatus (not shown) in the vehicle 200. Thereby, the traveling direction of the vehicle can be changed.

브레이크 구동부(753)는, 차량(200) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(200)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(200)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.The brake driving unit 753 may perform electronic control on a brake apparatus (not shown) in the vehicle 200. For example, by controlling the operation of a brake disposed on a wheel, the speed of the vehicle 200 may be reduced. As another example, the moving direction of the vehicle 200 may be adjusted to the left or to the right by different operations of the brakes disposed on the left and right wheels.

동력원 구동부(754)는, 차량(200) 내의 동력원에 대한 전자식 제어를 수행할 수 있다. The power source driving unit 754 may perform electronic control on a power source in the vehicle 200.

예를 들어, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부(754)는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부(754)가 엔진인 경우, ECU(770)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.For example, when a fossil fuel-based engine (not shown) is a power source, the power source driving unit 754 may perform electronic control on the engine. Thereby, it is possible to control the output torque of the engine and the like. When the power source driving unit 754 is an engine, the speed of the vehicle may be limited by limiting the engine output torque according to the control of the ECU 770.

다른 예로, 전기 기반의 모터(미도시)가 동력원인 경우, 동력원 구동부(754)는, 모터에 대한 제어를 수행할 수 있다. 이에 의해, 모터의 회전 속도, 토크 등을 제어할 수 있다.As another example, when an electricity-based motor (not shown) is a power source, the power source driver 754 may control the motor. Thereby, it is possible to control the rotational speed and torque of the motor.

썬루프 구동부(755)는, 차량(200) 내의 썬루프 장치(sunroof apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 썬루프의 개방 또는 폐쇄를 제어할 수 있다.The sunroof driving unit 755 may perform electronic control of a sunroof apparatus (not shown) in the vehicle 200. For example, it is possible to control the opening or closing of the sunroof.

서스펜션 구동부(756)는, 차량(200) 내의 서스펜션 장치(suspension apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량(200)의 진동이 저감되도록 제어할 수 있다.The suspension driving unit 756 may perform electronic control on a suspension apparatus (not shown) in the vehicle 200. For example, if there is a curve on the road surface, the suspension device may be controlled to reduce vibration of the vehicle 200.

공조 구동부(757)는, 차량(200) 내의 공조 장치(air cinditioner)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 차량 내부의 온도가 높은 경우, 공조 장치가 동작하여, 냉기가 차량 내부로 공급되도록 제어할 수 있다. The air conditioning driver 757 may perform electronic control on an air cinditioner (not shown) in the vehicle 200. For example, when the temperature inside the vehicle is high, the air conditioning device is operated to control the supply of cold air into the vehicle.

윈도우 구동부(758)는, 차량(200) 내의 서스펜션 장치(window apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 차량의 측면의 좌,우 윈도우들에 대한 개방 또는 폐쇄를 제어할 수 있다. The window driving unit 758 may perform electronic control on a suspension apparatus (not shown) in the vehicle 200. For example, it is possible to control the opening or closing of the left and right windows on the side of the vehicle.

에어백 구동부(759)는, 차량(200) 내의 서스펜션 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 위험시, 에어백이 터지도록 제어할 수 있다.The airbag driver 759 may perform electronic control of an airbag apparatus in the vehicle 200. For example, in case of danger, the airbag can be controlled to fire.

차량 센서부(760)는, 차량(100)의 주행 등과 관련한 신호를 센싱한다. 이를 위해, 차량 센서부(760)는, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 휠 센서(wheel sensor), 차량 속도 센서, 차체 경사 감지센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서 등을 구비할 수 있다.The vehicle sensor unit 760 senses a signal related to driving of the vehicle 100 or the like. To this end, the vehicle sensor unit 760 includes a heading sensor, a yaw sensor, a gyro sensor, a position module, a vehicle forward/reverse sensor, and a wheel sensor. ), vehicle speed sensor, vehicle body tilt detection sensor, battery sensor, fuel sensor, tire sensor, steering sensor by steering wheel rotation, vehicle interior temperature sensor, vehicle interior humidity sensor, and the like.

이에 의해, 차량 센서부(760)는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보 등에 대한 센싱 신호를 획득할 수 있다. Accordingly, the vehicle sensor unit 760 includes vehicle direction information, vehicle position information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward/reverse information, battery information, and fuel information. , Tire information, vehicle ramp information, vehicle internal temperature information, vehicle internal humidity information, and the like may be acquired.

한편, 차량 센서부(760)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 구비할 수 있다.Meanwhile, the vehicle sensor unit 760 includes, in addition, an accelerator pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor (AFS), an intake air temperature sensor (ATS), a water temperature sensor (WTS), A throttle position sensor (TPS), a TDC sensor, a crank angle sensor (CAS), and the like may be further provided.

ECU(770)는, 전자 제어 장치(700) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. The ECU 770 may control the overall operation of each unit in the electronic control device 700.

입력부(710)에 의한 입력에 의해, 특정 동작을 수행하거나, 차량 센서부(760)에서 센싱된 신호를 수신하여, 차량 운전 보조 장치(100)로 전송할 수 있으며, AVN 장치(400)로부터 맵 정보를 수신할 수 있으며, 각 종 구동부(751,752, 753,754,756)의 동작을 제어할 수 있다.By inputting by the input unit 710, a specific operation may be performed, or a signal sensed by the vehicle sensor unit 760 may be received and transmitted to the vehicle driving assistance device 100, and map information from the AVN device 400 Can receive and control the operation of each type of driving unit (751,752, 753,754,756).

또한, ECU(770)는, 통신부(720)로부터 날씨 정보, 도로의 교통 상황 정보, 예를 들어, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다. In addition, the ECU 770 may receive weather information, road traffic condition information, for example, Transport Protocol Expert Group (TPEG) information from the communication unit 720.

한편, ECU(770)는 차량 자세 감지부(771)를 포함할 수 있다. 실시예에 따라, 차량 자세 감지부(771)는 ECU(770)와 별도의 모듈로 구성될 수도 있다. 차량 자세 감지부(771)는, 차량 센서부(760)에 구비된 복수의 센서에서 센싱되는 정보를 기초로 차량 자세를 감지하고, 차량 자세 정보를 생성한다. 예를 들면, 차량 자세 감지부(771)는 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 휠 센서(wheel sensor), 차체 경사 감지센서, 스티어링 센서 등에서 감지되는 신호를 바탕으로, 차량의 자세를 감지할 수 있다.Meanwhile, the ECU 770 may include a vehicle attitude detecting unit 771. Depending on the embodiment, the vehicle attitude detecting unit 771 may be configured as a separate module from the ECU 770. The vehicle attitude detecting unit 771 detects a vehicle attitude based on information sensed by a plurality of sensors provided in the vehicle sensor unit 760 and generates vehicle attitude information. For example, the vehicle attitude detecting unit 771 is a heading sensor, a yaw sensor, a gyro sensor, a position module, a wheel sensor, and a vehicle body tilt detection. Based on signals detected by sensors, steering sensors, etc., the attitude of the vehicle can be detected.

표시부(780)는, 차량 운전 보조 장치의 동작과 관련한 이미지를 표시할 수 있다. 이러한 이미지 표시를 위해, 표시부(780)는, 차량 내부 전면의 클러스터(cluster) 또는 HUD(Head Up Display)를 포함할 수 있다. 한편, 표시부(780)가 HUD 인 경우, 차량(200)의 전면 유리에 이미지를 투사하는 투사 모듈을 포함할 수 있다. 한편, 표시부(780)는, 입력이 가능한, 터치 스크린을 포함할 수 있다.The display unit 780 may display an image related to an operation of the vehicle driving assistance device. To display such an image, the display unit 780 may include a cluster or a head up display (HUD) in the front of the vehicle interior. Meanwhile, when the display unit 780 is a HUD, it may include a projection module that projects an image onto the windshield of the vehicle 200. Meanwhile, the display unit 780 may include a touch screen capable of inputting.

오디오 출력부(785)는, ECU(770)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 스피커 등을 구비할 수 있다. 오디오 출력부(785)는, 입력부(710), 즉 버튼의 동작에 대응하는, 사운드를 출력하는 것도 가능하다.The audio output unit 785 converts the electrical signal from the ECU 770 into an audio signal and outputs it. To this end, a speaker or the like may be provided. The audio output unit 785 may also output a sound corresponding to an operation of the input unit 710, that is, a button.

전원 공급부(790)는, ECU(770)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(790)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.The power supply unit 790 may supply power required for the operation of each component under the control of the ECU 770. In particular, the power supply unit 790 may receive power from a battery (not shown) inside the vehicle.

도 9 내지 도 10은 본 발명의 실시예에 따른 차량 운전 보조 장치를 설명하는데 참조되는 예시도이다.9 to 10 are exemplary diagrams referenced for describing a vehicle driving assistance apparatus according to an embodiment of the present invention.

도 9를 참조하면, 투사부(230)는, 광 차단부를 향해 빔(beam)을 투사한다. 광차단부(240)는 차량 내부에 구비된다. 광차단부(240)는 반투명한 재질로 형성되어, 차량 내부로 유입되는 광을 차단한다. 또한, 광차단부(240)는 투사부(230)로부터 투사되는 빔을 받아 상이 맺히는 영역을 포함한다. 이때, 상기 상이 맺히는 영역은 가변될 수 있다.Referring to FIG. 9, the projection unit 230 projects a beam toward the light blocking unit. The light blocking part 240 is provided inside the vehicle. The light blocking part 240 is formed of a translucent material to block light entering the vehicle. In addition, the light blocking unit 240 includes a region where an image is formed by receiving a beam projected from the projection unit 230. In this case, the area where the image is formed may be varied.

한편, 실시예에 따라, 광차단부(240)는 투명 디스플레이로 형성될 수 있다. 한편, 투명 디스플레이는 소정의 투명도를 가질 수 있다. 광 차단부(240)는, 태양 센서(141) 또는 광량 센서(142)에서 감지된 데이터를 기초로, 크기 또는 투명도의 정도가 조절될 수 있다.Meanwhile, according to the embodiment, the light blocking unit 240 may be formed as a transparent display. Meanwhile, the transparent display may have a predetermined transparency. The light blocking unit 240 may have a size or a degree of transparency adjusted based on data sensed by the solar sensor 141 or the light amount sensor 142.

광차단부(240)가 복수개로 구성되는 경우, 태양 센서(141)가 감지한 태양의 위치, 사용자 입력부(124)로부터 수신된 사용자 입력에 따라, 제1 광차단부(240a) 또는 제2 광차단부(240b)가 선택될 수 있다.When the light blocking unit 240 is composed of a plurality, the first light blocking unit 240a or the second light according to the position of the sun detected by the sun sensor 141 and a user input received from the user input unit 124 The blocking part 240b may be selected.

광차단부(240)가 복수의 광차단부(240a, 204b)로 구성될 때, 제1 광차단부(240a)가 선택되는 경우, 프로세서(180)는 구동부(245, 도2 참조)를 통해, 광차단부(240)에 구동력을 전달한다. 제1 광차단부(240a)는, 구동력에 의해, 힌지부(310)를 기준으로 하향으로 회동할 수 있다. 즉, 프로세서(170)는 제1 광차단부(240a)가 힌지부(310)를 기준으로 하향으로 회동되도록 제어할 수 있다.When the light blocking unit 240 is composed of a plurality of light blocking units 240a and 204b, when the first light blocking unit 240a is selected, the processor 180 is operated through the driving unit 245 (see Fig. 2). , Transmits the driving force to the light blocking unit 240. The first light blocking portion 240a may rotate downward with respect to the hinge portion 310 by a driving force. That is, the processor 170 may control the first light blocking part 240a to rotate downward with respect to the hinge part 310.

이경우, 도 9의 (a)에 도시된 바와 같이, 제1 광차단부(240a)는 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 또한, 제1 광차단부(240a)는 투사부(230)로부터 투사되는 빔을 받아, 빔을 기초로 영상을 표시할 수 있다.In this case, as shown in (a) of FIG. 9, the first light blocking unit 240a may block sunlight directly irradiated to the occupant's eyes. In addition, the first light blocking unit 240a may receive a beam projected from the projection unit 230 and display an image based on the beam.

광차단부(240)가 복수의 광차단부(240a, 204b)로 구성될 때, 제2 광차단부(240b)가 선택되는 경우, 프로세서(180)는 구동부(245, 도2 참조)를 통해, 광차단부(240)에 구동력을 전달한다. 제2 광차단부(240b)는, 구동력에 의해, 힌지부(310)를 기준으로 하향으로 회동할 수 있다. 즉, 프로세서(170)는 제2 광차단부(240b)가 힌지부(310)를 기준으로 하향으로 회동되도록 제어할 수 있다.When the light blocking unit 240 is composed of a plurality of light blocking units 240a and 204b, when the second light blocking unit 240b is selected, the processor 180 is operated through the driving unit 245 (see Fig. 2). , Transmits the driving force to the light blocking unit 240. The second light blocking part 240b may rotate downward with respect to the hinge part 310 by a driving force. That is, the processor 170 may control the second light blocking part 240b to rotate downward with respect to the hinge part 310.

이경우, 도 9의 (b)에 도시된 바와 같이, 제2 광차단부(240b)는 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 또한, 제2 광차단부(240b)는 투사부(230)로부터 투사되는 빔을 받아, 빔을 기초로 영상을 표시할 수 있다.In this case, as shown in (b) of FIG. 9, the second light blocking unit 240b may block sunlight directly irradiated to the occupant's eyes. In addition, the second light blocking unit 240b may receive a beam projected from the projection unit 230 and display an image based on the beam.

도 10를 참조하면, 광차단부(240)가 복수의 단으로 구성되는 경우, 태양 센서(141)가 감지한 태양의 위치, 사용자 입력부(124)로부터 수신된 사용자 입력에 따라, 제1 단 또는 제2 단이 선택될 수 있다.Referring to FIG. 10, when the light blocking unit 240 is composed of a plurality of stages, the first stage or the first stage or the second stage according to the user input received from the user input unit 124 and the position of the sun detected by the sun sensor 141 The second stage can be selected.

광차단부(240)가 제1 단 및 제2 단으로 구성될 때, 제1 단이 선택되는 경우, 프로세서(180)는 구동부(245, 도2 참조)를 통해, 광차단부(240)에 구동력을 전달한다. 제1 및 제2 광차단부(530, 540)는, 구동력에 의해, 제1 힌지부(510)를 기준으로 하향으로 회동할 수 있다. 프로세서(180)는 제1 및 제2 광차단부(530, 540)가 제1 힌지부(510)를 기준으로 하향으로 회동되도록 제어할 수 있다.When the light blocking unit 240 is composed of a first stage and a second stage, when the first stage is selected, the processor 180 is connected to the light blocking unit 240 through the driving unit 245 (refer to FIG. 2). It transmits the driving force. The first and second light blocking portions 530 and 540 may rotate downward with respect to the first hinge portion 510 by a driving force. The processor 180 may control the first and second light blocking portions 530 and 540 to rotate downward based on the first hinge portion 510.

이경우, 도 10의 (a)에 도시된 바와 같이, 제1 광차단부(530) 및 제2 광차단부(540)는 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 즉, 제1 광차단부(530) 및 제2 광차단부(540)는 겹쳐진 상태로, 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 또한, 제1 광차단부(530)는 투사부(230)로부터 투사되는 빔을 받아, 빔을 기초로 영상을 표시할 수 있다.In this case, as shown in (a) of FIG. 10, the first light blocking unit 530 and the second light blocking unit 540 may block sunlight directly irradiated to the occupant's eyes. That is, the first light blocking unit 530 and the second light blocking unit 540 may be overlapped and block sunlight directly irradiated to the occupant's eyes. In addition, the first light blocking unit 530 may receive a beam projected from the projection unit 230 and display an image based on the beam.

광차단부(240)가 제1 단 및 제2 단으로 구성될 때, 제2 단이 선택되는 경우, 프로세서(180)는 구동부(245, 도2 참조)를 통해, 광차단부(240)에 구동력을 전달한다. 제2 광차단부(540)는, 구동력에 의해, 제2 힌지부(520)를 기준으로, 하향으로 회동할 수 있다. 프로세서(180)는 제2 광차단부(540)가 제2 힌지부(520)를 기준으로, 하향으로 회동되도록 제어할 수 있다.When the light blocking unit 240 is composed of a first stage and a second stage, when the second stage is selected, the processor 180 passes through the driving unit 245 (see FIG. 2) to the light blocking unit 240. It transmits the driving force. The second light blocking part 540 may rotate downward based on the second hinge part 520 by a driving force. The processor 180 may control the second light blocking unit 540 to rotate downward based on the second hinge unit 520.

이경우, 도 10의 (b)에 도시된 바와 같이, 제1 광차단부(530) 및 제2 광차단부(540)는 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 즉, 제1 광차단부(530) 및 제2 광차단부(540)는 펼쳐진 상태로, 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 또한, 제1 광차단부(530) 및 제2 광차단부(540)는 투사부(230)로부터 투사되는 빔을 받아, 빔을 기초로 영상을 표시할 수 있다.In this case, as shown in (b) of FIG. 10, the first light blocking unit 530 and the second light blocking unit 540 may block sunlight directly irradiated to the occupant's eyes. That is, the first light blocking unit 530 and the second light blocking unit 540 are in an unfolded state, and may block sunlight directly irradiated to the occupant's eyes. Further, the first light blocking unit 530 and the second light blocking unit 540 may receive a beam projected from the projection unit 230 and display an image based on the beam.

도 11a 내지 도 11c는 본 발명의 실시예에 따라, 광차단부에 표시되는 화면을 설명하는데 참조되는 도면이다.11A to 11C are views referenced to explain a screen displayed on a light blocking unit according to an exemplary embodiment of the present invention.

도 11a를 참조하면, 프로세서(180)는 영상 정보를 투사부(230)에 제공한다. 프로세서(180)는 투사부(230)에서 투사되는 빔을 통해, 광 차단부(240)에 영상을 표시할 수 있다. 광 차단부(240)는 투사부(230)에서 투사되는 빔을 받아 상이 맺히는 영역을 포함한다. 여기서, 상기 상이 맺히는 영역을 영상 표시 영역으로 명명할 수 있다.Referring to FIG. 11A, the processor 180 provides image information to the projection unit 230. The processor 180 may display an image on the light blocking unit 240 through a beam projected from the projection unit 230. The light blocking unit 240 includes a region where an image is formed by receiving a beam projected from the projection unit 230. Here, the area where the image is formed may be referred to as an image display area.

프로세서(180)는 비전모듈(121)로부터 획득된 영상 데이터를 수신한다. 프로세서(180)는 영상 데이터를 기초로 투사부(230)를 제어할 수 있다. The processor 180 receives image data obtained from the vision module 121. The processor 180 may control the projection unit 230 based on the image data.

예를 들어, 비전모듈(121)이 차량 후방 영상을 획득하는 적어도 하나의 카메라를 포함하는 경우, 프로세서(180)는, 상기 차량 후방 영상을 수신하여, 상기 차량 후방 영상이 광 차단부(240)에 표시되도록 투사부(230)를 제어할 수 있다. For example, when the vision module 121 includes at least one camera for acquiring a rear image of a vehicle, the processor 180 receives the rear image of the vehicle, and the rear image of the vehicle is converted to the light blocking unit 240 It is possible to control the projection unit 230 to be displayed on.

도 11b는, 차량 후방 영상을 수신하여, 상기 차량 후방 영상이 광 차단부(240)에 표시되도록 투사부(230)를 제어하는 일 실시예를 도시한다.FIG. 11B shows an embodiment of controlling the projection unit 230 so that the vehicle rear image is received and the vehicle rear image is displayed on the light blocking unit 240.

차량 후방 영상을 획득하는 카메라는 제1 카메라(1160a), 제2 카메라(1160b) 및 제3 카메라(1160c)를 포함할 수 있다. 제1 카메라(1160a)는 차량 후미, (예를 들면, 후미 번호판 상측 또는 하측)에 구비될 수 있다. 제1 카메라(1160a)는 제1 영상(1170a)을 획득할 수 있다. 이때, 제1 영상(1170a)은 차량 후방 영상일 수 있다. 제2 카메라(1160b)는 차량 좌측, (예를 들면, 좌측 사이드 미러 모듈)에 구비될 수 있다. 제2 카메라(1160b)는 제2 영상(1170b)을 획득할 수 있다. 이때, 제2 영상(1170b)은 차량 좌측 후방 영상일 수 있다. 제3 카메라(1160c)는 차량 우측, (예를 들면, 우측 사이드 미러 모듈)에 구비될 수 있다. 제3 카메라(1160c)는 제3 영상(1170c)을 획득할 수 있다. 이때, 제3 영상(1170c)은 차량 우측 후방 영상일 수 있다. The camera that acquires the rear image of the vehicle may include a first camera 1160a, a second camera 1160b, and a third camera 1160c. The first camera 1160a may be provided at the rear of the vehicle (eg, above or below the rear license plate). The first camera 1160a may acquire a first image 1170a. In this case, the first image 1170a may be an image behind the vehicle. The second camera 1160b may be provided on the left side of the vehicle (eg, a left side mirror module). The second camera 1160b may acquire a second image 1170b. In this case, the second image 1170b may be an image behind the left side of the vehicle. The third camera 1160c may be provided on the right side of the vehicle (eg, a right side mirror module). The third camera 1160c may acquire a third image 1170c. In this case, the third image 1170c may be an image behind the right side of the vehicle.

프로세서(180)는 제1 내지 제3 영상(1170a, 1170b, 1170c)을 수신하고, 제1 내지 제3 영상(1170a, 1170b, 1170c)을 합성하여, 합성 영상(1180)을 생성할 수 있다. 프로세서(180)는 광차단부(240)에 합성 영상(1180)이 표시되도록 투사부(230)를 제어할 수 있다.The processor 180 may generate a synthesized image 1180 by receiving the first to third images 1170a, 1170b, and 1170c, and synthesizing the first to third images 1170a, 1170b, and 1170c. The processor 180 may control the projection unit 230 so that the composite image 1180 is displayed on the light blocking unit 240.

한편, 제1 내지 제3 카메라(1160a, 1160b, 1160c)가 획득한 각각의 영상에 중첩되는 영역이 발생될 수 있다. 합성 영상(1180) 생성시, 중첩되는 영역의 처리가 필요하다.Meanwhile, a region overlapping each image acquired by the first to third cameras 1160a, 1160b, and 1160c may be generated. When generating the composite image 1180, it is necessary to process overlapping regions.

중첩되는 영역의 처리는 다음과 같은 방식으로 처리될 수 있다. 합성 영상(1180)을 생성하는 경우, 프로세서(180)는 차량의 좌측 바디라인의 연장선(1162a)(이하, 제1 선)을 기준으로 제1 영상(1170a) 및 제2 영상(1170b)을 합성할 수 있다. 구체적으로, 프로세서(180)는 제1 선(1162a)을 기준으로 제1 선(1162a)의 우측은 제1 영상(1170a)에 기초하고, 제1 선(1162a)의 좌측은 제2 영상(1170b)에 기초하여 합성할 수 있다. 또한, 프로세서(180)는 차량의 우측 바디라인의 연장선(1162b)(이하, 제2 선)을 기준으로 제1 영상(1170a) 및 제3 영상(1170c)을 합성할 수 있다. 구체적으로, 프로세서(180)는 제2 선(1162b)을 기준으로, 제2 선(1162b)의 좌측은 제1 영상(1170a)에 기초하고, 제2 선(1162b)의 우측은 제3 영상(1170c)에 기초하여 합성할 수 있다. 이와 같이, 제1 내지 제3 영상을 합성함으로써, 탑승자에게 차량 후방에 대한 넓은 시야의 영상을 제공할 수 있다.The processing of overlapping areas can be processed in the following manner. When generating the synthesized image 1180, the processor 180 synthesizes the first image 1170a and the second image 1170b based on the extension line 1162a (hereinafter, referred to as the first line) of the left body line of the vehicle. can do. Specifically, the processor 180 is based on the first line 1162a, the right side of the first line 1162a is based on the first image 1170a, the left side of the first line 1162a is the second image 1170b. ) Can be synthesized. Also, the processor 180 may synthesize the first image 1170a and the third image 1170c based on the extension line 1162b (hereinafter, referred to as the second line) of the right body line of the vehicle. Specifically, the processor 180 is based on the second line 1162b, the left side of the second line 1162b is based on the first image 1170a, and the right side of the second line 1162b is the third image ( 1170c) can be synthesized. In this way, by synthesizing the first to third images, an image of a wide field of view toward the rear of the vehicle may be provided to the occupant.

한편, 제1 내지 제3 카메라(1160a, 1160b, 1160c)는 각각 차량에서 구비되는 위치가 상이하다. 그에 따라, 각각의 카메라에서 획득된느 영상에는 거리감이 발생될 수 있다. 합성 영상(1180) 생성시, 거리감 보정이 요구된다.Meanwhile, the positions of the first to third cameras 1160a, 1160b, and 1160c are different from each other. Accordingly, a sense of distance may be generated in an image acquired from each camera. When generating the composite image 1180, a sense of distance correction is required.

거리감 보정은 다음과 같은 방식으로 처리될 수 있다. 합성 영상을 생성하는 경우, 프로세서(180)는 제1 카메라 위치를 기준으로, 제2 및 제3 영상에 대한 거리 조절을 하여, 제1 내지 제3 영상을 합성할 수 있다. 예를 들어, 제2 및 제3 카메라는 제1 카메라와 동일한 평면에 배치되지 않을 수 있다. 제1 카메라는 차량 후미 번호판 상측 또는 하측에 구비될 수 있고, 제2 카메라는 좌측 사이드 미러 모듈에 구비될 수 있고, 제3 카메라는 우측 사이드 미러 모듈에 구비될 수 있다. 이경우, 제2 및 제3 카메라가 영상을 획득하는 지점은 제1 카메라가 영상을 획득하는 지점과 달라진다. 그에 따라, 제2 및 제3 영상과 제1 영상 사이에는, 제2 및 제3 카메라와 제1 카메라 사이의 거리에 따른 거리감이 발생한다. 프로세서(180)는 스케일링을 통해, 제1 내지 제3 영상이 동일 평면에서 촬영된 것과 같이, 거리 조절을 할 수 있다.Distance correction can be processed in the following way. When generating a synthesized image, the processor 180 may synthesize the first to third images by adjusting distances for the second and third images based on the position of the first camera. For example, the second and third cameras may not be disposed on the same plane as the first camera. The first camera may be provided above or below the vehicle rear license plate, the second camera may be provided in the left side mirror module, and the third camera may be provided in the right side mirror module. In this case, a point at which the second and third cameras acquire an image is different from a point at which the first camera acquires an image. Accordingly, a sense of distance occurs between the second and third images and the first image according to the distance between the second and third cameras and the first camera. The processor 180 may adjust the distance through scaling as if the first to third images were captured on the same plane.

도 11c 는 표시되는 영상의 실시예를 도시한다. 비전모듈(121)이 차량 내부 영상을 획득하는 적어도 하나의 카메라를 포함하는 경우, 도 11c의 (a)에 도시된 바와 같이, 프로세서(180)는, 상기 차량 내부 영상을 수신하여, 상기 차량 내부 영상(1150)이 광 차단부(240)에 표시되도록 투사부(230)를 제어할 수 있다. 가령, 카메라가 차량 뒷자리 영상을 획득하는 경우, 프로세서(180)는 상기 뒷자리 영상이 광 차단부(240)에 표시되도록 투사부(230)를 제어할 수 있다. 이경우, 광 차단부(240)는 룸미러 기능을 수행할 수 있다.11C shows an embodiment of a displayed image. When the vision module 121 includes at least one camera that acquires an image inside the vehicle, as shown in (a) of FIG. 11C, the processor 180 receives the image inside the vehicle and The projection unit 230 may be controlled so that the image 1150 is displayed on the light blocking unit 240. For example, when the camera acquires an image of a rear seat of the vehicle, the processor 180 may control the projection unit 230 so that the rear seat image is displayed on the light blocking unit 240. In this case, the light blocking unit 240 may perform a room mirror function.

프로세서(180)는 영상 표시 영역에 차량 정보가 표시되도록 투사부(230)를 제어할 수 있다. 여기서, 차량 정보는, 인터페이스부(160)를 통해, 차량 센서부(760)로부터 수신된 정보일 수 있다. 또는, 차량 정보는, 인터페이스부(160)를 통해, ECU(770)로부터 수신된 정보일 수 있다. 또는, 차량 정보는, 통신부(110)를 통해, 이동 단말기(245) 또는 서버(260)로부터 수신된 정보일 수 있다. 또는, 차량 정보는, 입력부(120)를 통해, 수신된 정보일 수 있다.The processor 180 may control the projection unit 230 to display vehicle information on the image display area. Here, the vehicle information may be information received from the vehicle sensor unit 760 through the interface unit 160. Alternatively, the vehicle information may be information received from the ECU 770 through the interface unit 160. Alternatively, the vehicle information may be information received from the mobile terminal 245 or the server 260 through the communication unit 110. Alternatively, the vehicle information may be information received through the input unit 120.

예를 들면, 프로세서(180)는 영상 표시 영역에 차속 정보(1151), 교통 표지판 정보, 내비게이션 정보, 연료 잔량 정보(1152), 차량 고장 정보, 교통 정보 등이 영상 표시 영역에 표시되도록 투사부(230)를 제어할 수 있다.For example, the processor 180 may display the vehicle speed information 1151, traffic sign information, navigation information, fuel remaining amount information 1152, vehicle failure information, traffic information, etc. on the image display area. 230) can be controlled.

특히, 프로세서(180)는 내비게이션 정보를 표시할 때, 차량 주행 방향 정보를, 화살표, 좌측으로 꺽인 화살표, 우측으로 꺽인 화살표, U자형 화살표 중 적어도 어느 하나로 표시할 수 있다. 즉, 프로세서(180)는 TBT(Turn by turn) 형식으로 표시할 수 있다.In particular, when displaying navigation information, the processor 180 may display vehicle driving direction information by at least one of an arrow, a left-handed arrow, a right-handed arrow, and a U-shaped arrow. That is, the processor 180 may display the TBT (Turn by Turn) format.

예를 들면, 비전모듈(121)이 차량 전방 영상을 획득하는 적어도 하나의 카메라를 포함하는 경우, 프로세서(180)는 상기 차량 전방 영상을 수신하여, 상기 차량 전방 영상에 기초하는 정보가 영상 표시 영역에 표시되도록 투사부(230)를 제어할 수 있다. 예를 들어, 차량 전방 영상에 기초하는 정보는, 전방 오브젝트와의 거리, 전방 오브젝트와의 예상 충돌 시간(TTC : Time To Collision), 검출된 장애물 또는 교통 표지판, 추출된 도로의 노면 정보를 포함할 수 있다.For example, when the vision module 121 includes at least one camera for obtaining an image in front of the vehicle, the processor 180 receives the image in front of the vehicle, and information based on the image in front of the vehicle is displayed in an image display area. It is possible to control the projection unit 230 to be displayed on. For example, the information based on the image in front of the vehicle may include a distance to an object in front, an estimated time to collision with an object in front (TTC: Time To Collision), detected obstacles or traffic signs, and extracted road surface information. I can.

도 11d를 참조하면, 프로세서(180)는 통신부(110)를 통해, 서버(260)와 데이터를 교환할 수 있다. 이때, 서버(260)는 홈서버(home server)일 수 있다. 예를 들면, 집에 설치된 카메라로부터 촬영된 영상은 홈서버에 전달될 수 있다. 프로세서(180)는, 통신부(110)를 통해, 상기 촬영된 영상(1153)을 수신하여, 상기 촬영된 영상(1153)이 영상 표시 영역에 표시되도록, 투사부(230)를 제어할 수 있다.Referring to FIG. 11D, the processor 180 may exchange data with the server 260 through the communication unit 110. In this case, the server 260 may be a home server. For example, an image captured from a camera installed at home may be transmitted to a home server. The processor 180 may receive the captured image 1153 through the communication unit 110 and control the projection unit 230 so that the captured image 1153 is displayed on an image display area.

도 12는 본 발명의 실시예에 따라, 이동 단말기를 통해, 영상 표시 영역을 제어하는 동작을 설명하는데 참조되는 도면이다.12 is a diagram referenced for describing an operation of controlling an image display area through a mobile terminal according to an embodiment of the present invention.

도 12를 참조하면, 이동 단말기(245)와 차량 운전 보조 장치(100)가 페어링된 상태에서, 프로세서(180)는 이동 단말기(245)의 제어 신호를 수신하여, 투사부(230)를 제어할 수 있다.Referring to FIG. 12, in a state in which the mobile terminal 245 and the vehicle driving assistance device 100 are paired, the processor 180 receives a control signal from the mobile terminal 245 to control the projection unit 230. I can.

예를 들어, 이동 단말기(245)와 차량 운전 보조 장치(100)가 페어링된 상태에서, 이동 단말기(245)의 디스플레이부에 핀치 인(pinch in)입력이 수신되는 경우, 프로세서(180)는 상기 핀치 인 입력에 따라 투사부(230)를 제어하여, 광차단부(240)에 표시되는 영상 표시 영역(1210)의 크기를 줄일 수 있다.For example, in a state in which the mobile terminal 245 and the vehicle driving assistance device 100 are paired, when a pinch in input is received on the display unit of the mobile terminal 245, the processor 180 By controlling the projection unit 230 according to the pinch-in input, the size of the image display area 1210 displayed on the light blocking unit 240 may be reduced.

예를 들어, 이동 단말기(245)와 차량 운전 보조 장치(100)가 페어링된 상태에서, 이동 단말기(245)의 디스플레이부에 핀치 아웃(pinch out)입력이 수신되는 경우, 프로세서(180)는 상기 핀치 아웃 입력에 따라 투사부(230)를 제어하여, 광차단부(240)에 표시되는 영상 표시 영역(1210)의 크기를 키울 수 있다.For example, in a state in which the mobile terminal 245 and the vehicle driving assistance device 100 are paired, when a pinch out input is received on the display unit of the mobile terminal 245, the processor 180 By controlling the projection unit 230 according to a pinch-out input, the size of the image display area 1210 displayed on the light blocking unit 240 may be increased.

예를 들어, 이동 단말기(245)와 차량 운전 보조 장치(100)가 페어링된 상태에서, 이동 단말기(245)의 디스플레이부에 터치 앤 드래그 입력이 수신되는 경우, 프로세서(180)는 드래그 방향에 따라, 투사부(230)를 제어하여, 광차단부(240)에 표시되는 영상 표시 영역(1210)의 위치를 변경할 수 있다.For example, in a state in which the mobile terminal 245 and the vehicle driving assistance device 100 are paired, when a touch and drag input is received on the display unit of the mobile terminal 245, the processor 180 , By controlling the projection unit 230, the position of the image display area 1210 displayed on the light blocking unit 240 may be changed.

도 13은 본 발명의 실시예에 따라 차량 정보를 음성으로 출력하는 동작을 설명하는데 참조되는 도면이다.13 is a diagram referenced for describing an operation of outputting vehicle information as a voice according to an embodiment of the present invention.

도 13을 참조하면, 프로세서(180)는 음향 출력부(220)를 통해, 차량 정보를 음성으로 출력할 수 있다. Referring to FIG. 13, the processor 180 may output vehicle information as voice through the sound output unit 220.

예를 들면, 도시된 바와 같이, 프로세서(180)는 잔여 연료량의 상태를 음성으로 출력(1310)할 수 있다. 만약, 잔여 연료량이 부족한 경우, 주변 주유소 검색 여부를 음성(1310)으로 물을 수 있다. 이경우, 프로세서(180)는 마이크로폰(123)을 통해, 음성 명령을 수신할 수 있다.For example, as shown, the processor 180 may output 1310 a state of the remaining fuel amount as a voice. If the amount of remaining fuel is insufficient, a voice 1310 may ask whether to search for a nearby gas station. In this case, the processor 180 may receive a voice command through the microphone 123.

한편, 프로세서(180)는 캘린더 기능을 제공할 수도 있다. 여기서, 캘린더 기능은 차량(10) 내에 구비된 애플리케이션을 통해 제공될 수 있다. 또는, 이동 단말기(245)의 캘린더 기능을 페어링을 통해 제공할 수 있다. 예를 들면, 도시된 바와 같이, 프로세서(180)는 기 설정된 일정에 해당하는 경우, 프로세서(180)는 음향 출력부(220)를 통해, 기 설정된 일정을 음성으로 출력(1320)할 수 있다. 또한, 프로세서(180)는 기 설정된 일정에 대응하는 내비게이션 정보를 음성(1320)으로 출력할 수 있다.Meanwhile, the processor 180 may provide a calendar function. Here, the calendar function may be provided through an application provided in the vehicle 10. Alternatively, the calendar function of the mobile terminal 245 may be provided through pairing. For example, as illustrated, when the processor 180 corresponds to a preset schedule, the processor 180 may output 1320 a preset schedule as a voice through the sound output unit 220. Also, the processor 180 may output navigation information corresponding to a preset schedule as a voice 1320.

도 14는 본 발명의 실시예에 따라, 음성 명령 수신 동작을 설명하는데 참조되는 도면이다.14 is a diagram referenced to explain an operation of receiving a voice command according to an embodiment of the present invention.

도 14를 참조하면, 프로세서(180)는 마이크로폰(123)을 통해, 사용자 음성 명령을 수신할 수 있다. 예를 들면, 도시된 바와 같이, 탑승자가 도로 정체 구간에서 도로 정체 이유를 음성(1410)으로 물을 수 있다. 이경우, 프로세서(180)는 통신부(110)를 통해, 서버(260)에서 정보를 제공받을 수 있다. 여기서, 서버(260)는 교통 정보를 제공하는 서버일 수 있다. 프로세서(180)는 수신한 정보를 음향 출력부(220)를 통해, 음성(1420)으로 출력할 수 있다. 또는, 프로세서(180)는 수신한 정보를 투사부(230) 제어를 통해, 광차단부(240)에 표시할 수 있다.Referring to FIG. 14, the processor 180 may receive a user voice command through the microphone 123. For example, as shown, the occupant may ask the reason for the road congestion in the road congestion section through the voice 1410. In this case, the processor 180 may receive information from the server 260 through the communication unit 110. Here, the server 260 may be a server that provides traffic information. The processor 180 may output the received information as a voice 1420 through the sound output unit 220. Alternatively, the processor 180 may display the received information on the light blocking unit 240 through the control of the projection unit 230.

도 15는 본 발명의 실시예에 따라, 탑승자 시선을 감지하여 영상 표시 영역을 제어하는 동작을 설명하는데 참조되는 도면이다.15 is a diagram referenced for explaining an operation of controlling an image display area by detecting a passenger's gaze according to an embodiment of the present invention.

도 15를 참조하면, 비전모듈에 포함된 카메라는 탑승자의 시선을 촬영할 수 있다. 예를 들면, 카메라는 탑승자의 눈을 촬영할 수 있다. 이경우, 프로세서(180)는 카메라로부터 이미지를 수신한다. 프로세서(180)는 수신된 이미지에서 동공(pupil)을 추출한다. 프로세서(180)는 추출된 동공을 트래킹한다.Referring to FIG. 15, a camera included in the vision module may photograph a passenger's gaze. For example, the camera can photograph the occupant's eyes. In this case, the processor 180 receives an image from the camera. The processor 180 extracts a pupil from the received image. The processor 180 tracks the extracted pupil.

만약, 동공이 기 설정된 위치보다 위쪽에 위치하는 경우, 프로세서(180)는 영상 표시 영역(1510)을 활성화 시킬 수 있다. 즉, 탑승자의 시선이 차량 전방을 향하는 경우, 광차단부(240)는 외부에서 유입되는 광을 차단하는 역할만 수행한다. 탑승자의 시선(1520)이 광차단부(240)로 향하는 경우, 프로세서(180)는 투사부(230)를 제어하여, 영상 표시 영역에 상이 ?셜宕돈? 제어하고, 광차단부(240)는 표시 수단으로 역할을 수행할 수 있다.If the pupil is located above the preset position, the processor 180 may activate the image display area 1510. That is, when the occupant's gaze is directed toward the front of the vehicle, the light blocking unit 240 serves only to block light from the outside. When the occupant's line of sight 1520 is directed to the light blocking unit 240, the processor 180 controls the projection unit 230, so that a difference in the image display area? Control, and the light blocking unit 240 may serve as a display means.

한편, 영상 표시 영역(1510)에는 도 11a 내지 도 11d를 참조하여 설명한 영상이 표시될 수 있다. Meanwhile, the image described with reference to FIGS. 11A to 11D may be displayed in the image display area 1510.

도 16은 본 발명의 실시예에 따라, 탑승자의 제스쳐를 감지하는 동작을 설명하는데 참조되는 도면이다.16 is a diagram referenced for describing an operation of detecting a gesture of a passenger according to an embodiment of the present invention.

도 16을 참조하면, 이동 단말기(245)와 페어링된 상태에서, 이동 단말기(245)에 호(call)수신되는 경우, 프로세서(180)는 디스플레이부(210) 또는 음향 출력부(220)를 통해, 호 수신 정보를 출력할 수 있다.Referring to FIG. 16, when a call is received to the mobile terminal 245 in a state of being paired with the mobile terminal 245, the processor 180 may use the display unit 210 or the sound output unit 220. , Call reception information can be output.

이경우, 탑승자가 기 설정된 제스쳐를 취하는 경우, 프로세서(180)는 제2 카메라(121b)를 통해, 상기 제스쳐 입력을 수신한다. 제스쳐 입력이 전화 수신 동작과 대응되는 제스쳐인 경우, 프로세서(180)는 이동 단말기(245)에 전화 수신 명령을 전송한다. 그에 따라, 이동 단말기(245)는 통화 연결할 수 있다. 이때, 프로세서(180)는 마이크로폰(123)을 통해, 사용자 음성을 수신하고, 음향 출력부(220)를 통해, 수신된 음성을 출력할 수 있다.In this case, when a passenger makes a preset gesture, the processor 180 receives the gesture input through the second camera 121b. When the gesture input is a gesture corresponding to a call reception operation, the processor 180 transmits a call reception command to the mobile terminal 245. Accordingly, the mobile terminal 245 can make a call. In this case, the processor 180 may receive a user voice through the microphone 123 and may output the received voice through the sound output unit 220.

도 17은 본 발명의 실시예에 따라, 문자 메시지 수신 정보 및 호(call)수신 정보를 표시하는 동작을 설명하는데 참조되는 도면이다.17 is a diagram referenced for explaining an operation of displaying text message reception information and call reception information according to an embodiment of the present invention.

도 17의 (a)에 도시된 바와 같이, 이동 단말기(245)와 페어링 된 상태에서, 이동 단말기(245)에 문자 메세지가 수신되는 경우, 프로세서(180)는 통신부(110)를 통해, 문자 메시지를 수신하여, 투사부(230)를 제어하여, 광차단부(240)에 표시한다. 구체적으로, 프로세서(180)는 문자 메시지를 광차단부(240)에 포함된 영상 표시 영역(1710)에 표시한다.As shown in (a) of FIG. 17, when a text message is received from the mobile terminal 245 in a paired state with the mobile terminal 245, the processor 180 transmits a text message through the communication unit 110. Is received, the projection unit 230 is controlled and displayed on the light blocking unit 240. Specifically, the processor 180 displays a text message on the image display area 1710 included in the light blocking unit 240.

도 17의 (b)에 도시된 바와 같이, 이동 단말기(245)와 페어링 된 상태에서, 이동 단말기(245)에 호(call) 신호가 수신되는 경우, 프로세서(180)는 통신부(110)를 통해, 호신호를 수신하여, 투사부(230)를 제어하여, 광차단부(240)에 표시한다. 구체적으로 프로세서(180)는 호수신 이벤트를 광차단부(240)에 포함된 영상 표시 영역(1720)에 표시한다.As shown in (b) of FIG. 17, when a call signal is received from the mobile terminal 245 in a state of being paired with the mobile terminal 245, the processor 180 is transmitted through the communication unit 110. , The call signal is received, the projection unit 230 is controlled, and displayed on the light blocking unit 240. Specifically, the processor 180 displays a call signal event on the image display area 1720 included in the light blocking unit 240.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서(170) 또는 ECU(770)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above-described present invention can be implemented as a computer-readable code on a medium on which a program is recorded. The computer-readable medium includes all types of recording devices storing data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is also a carrier wave (eg, transmission over the Internet). Further, the computer may include a processor 170 or an ECU 770. Therefore, the detailed description above should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

10 : 차량
100 : 차량 운전 보조 장치
110 : 통신부
110 : 입력부
140 : 센서부
170 : 메모리
180 : 프로세서
190 : 전원 공급부
220 : 음향 출력부
230 : 투사부
240 : 광차단부
10: vehicle
100: vehicle driving assistance device
110: communication department
110: input unit
140: sensor unit
170: memory
180: processor
190: power supply
220: sound output unit
230: projection part
240: light blocking part

Claims (18)

차량 내부에 구비되고, 반투명한 재질로 형성되어 상기 차량 내부에 유입되는 광을 차단하는 광 차단부;
상기 광 차단부를 향해 빔(beam)을 투사하는 투사부;
운전자의 시선을 감지하는 적어도 하나의 카메라를 포함하고, 차량 주변 영상 또는 차량 내부 영상을 획득하는 비전 모듈; 및
상기 비전 모듈로부터 영상 정보를 수신하여 상기 투사부에 제공하고, 상기 비전 모듈로부터 수신되는 영상 정보을 기초로, 상기 빔을 통해 상기 광 차단부에 영상을 표시하여 차량 관련 정보를 제공하도록 상기 투사부를 제어하는 프로세서;를 포함하고,
상기 프로세서는,
상기 운전자의 시선을 바탕으로, 상기 빔이 투사되는 영역을 조절하는 차량 운전 보조 장치.
A light blocking unit provided inside the vehicle and formed of a translucent material to block light flowing into the vehicle;
A projection unit for projecting a beam toward the light blocking unit;
A vision module including at least one camera detecting a driver's gaze, and obtaining an image around the vehicle or an image inside the vehicle; And
Controls the projection unit to receive image information from the vision module and provide it to the projection unit, and display an image to the light blocking unit through the beam based on the image information received from the vision module to provide vehicle-related information Including;
The processor,
A vehicle driving assistance device that adjusts an area to which the beam is projected based on the driver's gaze.
제 1항에 있어서,
상기 광 차단부는, 상기 빔을 받아 상이 맺히는 영역;을 포함하고,
상기 영역의 크기는 가변되는 차량 운전 보조 장치.
The method of claim 1,
The light blocking unit includes; an area where an image is formed by receiving the beam,
A vehicle driving assistance device in which the size of the area is variable.
제 1항에 있어서,
상기 광 차단부는, 영상 출력이 가능한 투명 디스플레이로 형성되는 차량 운전 보조 장치.
The method of claim 1,
The light blocking unit is a vehicle driving assistance device formed of a transparent display capable of outputting an image.
제 3항에 있어서,
상기 차량 내부로 유입되는 광의 양을 감지하는 광량 센서;를 더 포함하고,
상기 프로세서는, 상기 광의 양을 바탕으로 상기 투명 디스플레이의 투명도를 조절하는 차량 운전 보조 장치.
The method of claim 3,
Further comprising a; a light amount sensor for sensing the amount of light introduced into the vehicle interior,
The processor is a vehicle driving assistance device that adjusts the transparency of the transparent display based on the amount of light.
제 1항에 있어서,
상기 비전 모듈은,
차량 후방 영상을 획득하는 적어도 하나의 카메라;를 포함하고,
상기 프로세서는, 상기 후방 영상이 상기 광 차단부에 표시되도록 상기 투사부를 제어하는 차량 운전 보조 장치.
The method of claim 1,
The vision module,
Including; at least one camera for obtaining a vehicle rear image,
The processor is a vehicle driving assistance device that controls the projection unit so that the rear image is displayed on the light blocking unit.
제 5항에 있어서,
상기 적어도 하나의 카메라는,
상기 차량의 후미에 구비되어 상기 차량의 후방 영상을 획득하는 제1 카메라;
상기 차량의 좌측에 구비되어 상기 차량의 좌측 후방 영상을 획득하는 제2 카메라; 및
상기 차량의 우측에 구비되어 상기 차량의 우측 후방 영상을 획득하는 제3 카메라;를 포함하고,
상기 프로세서는, 상기 제1 카메라로부터 수신되는 제1 영상, 상기 제2 카메라로부터 수신되는 제2 영상 및 상기 제3 카메라로부터 수신되는 제3 영상을 합성하여 합성 영상을 생성하고, 상기 광 차단부에 상기 합성 영상이 표시되도록 상기 투사부를 제어하는 차량 운전 보조 장치.
The method of claim 5,
The at least one camera,
A first camera provided at the rear of the vehicle to obtain a rear image of the vehicle;
A second camera provided on the left side of the vehicle to obtain a left rear image of the vehicle; And
Includes; a third camera provided on the right side of the vehicle to obtain a right rear image of the vehicle,
The processor generates a composite image by synthesizing a first image received from the first camera, a second image received from the second camera, and a third image received from the third camera, and the light blocking unit A vehicle driving assistance device that controls the projection unit to display the synthesized image.
제 6항에 있어서,
상기 프로세서는, 위에서 바라볼때, 상기 차량의 좌측 바디라인의 연장선(이하, 제1 선)을 기준으로, 상기 제1 선의 우측은 상기 제1 영상에 기초하고, 상기 제1 선의 좌측은 상기 제2 영상에 기초하여 합성하고,
위에서 바라볼때, 상기 차량의 우측 바디라인의 연장선(이하, 제2 선)을 기준으로, 상기 제2 선의 좌측은 상기 제1 영상에 기초하고, 상기 제2 선의 우측은 상기 제3 영상에 기초하여 합성하는 차량 운전 보조 장치.
The method of claim 6,
The processor, when viewed from above, is based on an extension line (hereinafter, referred to as the first line) of the left body line of the vehicle, the right side of the first line is based on the first image, and the left side of the first line is the second Composite based on the image,
When viewed from above, based on the extension line (hereinafter, referred to as the second line) of the right body line of the vehicle, the left side of the second line is based on the first image, and the right side of the second line is based on the third image Synthesizing vehicle driving aids.
제 6항에 있어서,
상기 프로세서는, 상기 제1 카메라 위치를 기준으로, 상기 제2 및 제3 영상에 대한 거리 조절을 하여, 상기 제1 내지 제3 영상을 합성하는 차량 운전 보조 장치.
The method of claim 6,
The processor, based on the location of the first camera, adjusts distances for the second and third images, and synthesizes the first to third images.
제 1항에 있어서,
상기 비전 모듈은,
차량 내부에 구비되어, 차량 내부 영상을 획득하는 적어도 하나의 카메라;를 포함하고,
상기 프로세서는, 상기 차량 내부 영상이 상기 광 차단부에 표시되도록 상기 투사부를 제어하는 차량 운전 보조 장치.
The method of claim 1,
The vision module,
Including; at least one camera provided inside the vehicle to obtain an image inside the vehicle,
The processor is a vehicle driving assistance device that controls the projection unit so that the vehicle interior image is displayed on the light blocking unit.
제 1항에 있어서,
상기 비전 모듈은,
차량 전방 영상을 획득하는 적어도 하나의 카메라;를 포함하고,
상기 프로세서는, 상기 전방 영상에 기초하는 정보가 상기 광 차단부에 표시되도록 상기 투사부를 제어하는 차량 운전 보조 장치.
The method of claim 1,
The vision module,
Includes; at least one camera for obtaining an image in front of the vehicle,
The processor is a vehicle driving assistance device that controls the projection unit so that information based on the front image is displayed on the light blocking unit.
제 1항에 있어서,
상기 광 차단부는 복수의 단(段)으로 접히는(foldable) 차량 운전 보조 장치.
The method of claim 1,
The light blocking unit is a vehicle driving assistance device that is folded into a plurality of stages.
제 11항에 있어서,
사용자 입력을 수신하는 사용자 입력부;를 더 포함하고,
상기 프로세서는,
상기 사용자 입력에 따라 상기 광 차단부의 단을 조절하는 차량 운전 보조 장치.
The method of claim 11,
Further comprising a; user input unit for receiving a user input,
The processor,
A vehicle driving assistance device that adjusts an end of the light blocking unit according to the user input.
제 12항에 있어서,
태양의 위치를 감지하는 태양 센서;를 더 포함하고,
상기 프로세서는,
상기 태양의 위치를 기초로, 상기 광 차단부의 단을 조절하는 차량 운전 보조 장치.
The method of claim 12,
A solar sensor for sensing the position of the sun; further comprising,
The processor,
A vehicle driving assistance device that adjusts the stage of the light blocking unit based on the position of the sun.
제 1항에 있어서,
상기 광 차단부는, 제1 광 차단부 및 상기 제1 광 차단부보다 큰 제2 광차단부를 포함하는 차량 운전 보조 장치.
The method of claim 1,
The vehicle driving assistance device includes a first light blocking unit and a second light blocking unit larger than the first light blocking unit.
제 1항에 있어서,
차량 자세 정보를 수신하는 인터페이스부;를 더 포함하고,
상기 프로세서는, 상기 차량의 자세에 대응하여, 상기 광 차단부에 표시되는 영상이 흔들리지 않도록 상기 빔의 출력을 보정하는 차량 운전 보조 장치.
The method of claim 1,
Further comprising; an interface unit for receiving vehicle attitude information,
The processor, in response to the attitude of the vehicle, corrects the output of the beam so that the image displayed on the light blocking unit does not shake.
제 1항 내지 제 15항 중 어느 하나의 항에 기재된 차량 운전 보조 장치를 포함하는 차량.


A vehicle comprising the vehicle driving assistance device according to any one of claims 1 to 15.


삭제delete 삭제delete
KR1020140177579A 2014-12-10 2014-12-10 Driver assistance apparatus and Vehicle including the same KR102213632B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140177579A KR102213632B1 (en) 2014-12-10 2014-12-10 Driver assistance apparatus and Vehicle including the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140177579A KR102213632B1 (en) 2014-12-10 2014-12-10 Driver assistance apparatus and Vehicle including the same

Publications (2)

Publication Number Publication Date
KR20160070525A KR20160070525A (en) 2016-06-20
KR102213632B1 true KR102213632B1 (en) 2021-02-05

Family

ID=56354351

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140177579A KR102213632B1 (en) 2014-12-10 2014-12-10 Driver assistance apparatus and Vehicle including the same

Country Status (1)

Country Link
KR (1) KR102213632B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014133441A (en) * 2013-01-09 2014-07-24 Koito Mfg Co Ltd Anti-dazzle device of vehicle

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100579980B1 (en) * 2004-07-01 2006-05-12 현대자동차주식회사 System for preventing glaring for vehicle
KR20140136128A (en) * 2013-05-20 2014-11-28 주식회사 용산 Sunvisor having transparent display for vehicles

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014133441A (en) * 2013-01-09 2014-07-24 Koito Mfg Co Ltd Anti-dazzle device of vehicle

Also Published As

Publication number Publication date
KR20160070525A (en) 2016-06-20

Similar Documents

Publication Publication Date Title
US10086762B2 (en) Vehicle display device and vehicle comprising same
KR101819000B1 (en) Lamp for vehicle and Vehicle including the same
CN108216032B (en) Vehicle around-the-eye monitoring device, vehicle operation control device, and vehicle
KR101732983B1 (en) Rear combination lamp for vehicle and Vehicle including the same
KR101859047B1 (en) Headlamp, Adaptive Driver Assistance System and Vehicle
KR102130800B1 (en) Vehicle control device and vehicle comprising the same
KR102012776B1 (en) Around view monitoring apparatus for vehicle and vehicle
EP3229458A1 (en) Driver assistance apparatus
KR101965881B1 (en) Driver assistance apparatus and Vehicle including the same
EP3456576B1 (en) Vehicle control device and vehicle including the same
KR101809924B1 (en) Display apparatus for vehicle and Vehicle including the same
KR101924059B1 (en) Display apparatus for vehicle and Vehicle including the same
CN107021017A (en) Vehicle provides device and vehicle with looking around
CN107364390A (en) Located at the control device, vehicle and its control method of vehicle
KR101994699B1 (en) Driver assistance apparatus and vehicle
KR101916728B1 (en) Vehicle control device mounted at vehicle and method for controlling the vehicle
US10703374B2 (en) Vehicle driving assisting apparatus and vehicle comprising same
KR20200095318A (en) Image output device
KR101995489B1 (en) Vehicle control system and method for controlling the same
KR102043954B1 (en) Robot for vehicle mounted on the vehcile and method for controlling the robot for vehicle
KR102213632B1 (en) Driver assistance apparatus and Vehicle including the same
KR20230091870A (en) Camera module, information processing system, information processing method and information processing device
KR102089955B1 (en) Robot for vehicle mounted on the vehcile and method for controlling the robot for vehicle
KR101955984B1 (en) Vehicle control device mounted on vehicle
KR102289421B1 (en) Vehicle controlling device mounted at vehicle and method for controlling the vehicle

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant