KR102213632B1 - Driver assistance apparatus and Vehicle including the same - Google Patents
Driver assistance apparatus and Vehicle including the same Download PDFInfo
- Publication number
- KR102213632B1 KR102213632B1 KR1020140177579A KR20140177579A KR102213632B1 KR 102213632 B1 KR102213632 B1 KR 102213632B1 KR 1020140177579 A KR1020140177579 A KR 1020140177579A KR 20140177579 A KR20140177579 A KR 20140177579A KR 102213632 B1 KR102213632 B1 KR 102213632B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- image
- light blocking
- unit
- processor
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60J—WINDOWS, WINDSCREENS, NON-FIXED ROOFS, DOORS, OR SIMILAR DEVICES FOR VEHICLES; REMOVABLE EXTERNAL PROTECTIVE COVERINGS SPECIALLY ADAPTED FOR VEHICLES
- B60J3/00—Antiglare equipment associated with windows or windscreens; Sun visors for vehicles
- B60J3/04—Antiglare equipment associated with windows or windscreens; Sun visors for vehicles adjustable in transparency
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/80—Technologies aiming to reduce greenhouse gasses emissions common to all road transportation technologies
- Y02T10/88—Optimized components or subsystems, e.g. lighting, actively controlled glasses
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은 차량 내부에 구비되고, 반투명한 재질로 형성되어 상기 차량 내부에 유입되는 광을 차단하는 광 차단부, 상기 광 차단부를 향해 빔(beam)을 투사하는 투사부 및 영상 정보를 상기 투사부에 제공하고, 상기 빔을 통해 상기 광 차단부에 영상을 표시하여 차량 관련 정보를 제공하도록 상기 투사부를 제어하는 프로세서를 포함하는 차량 운전 보조 장치에 관한 것이다.The present invention is provided inside a vehicle, is formed of a translucent material to block light entering the vehicle interior, a projection unit for projecting a beam toward the light blocking unit, and the projection unit And a processor for controlling the projection unit to provide vehicle-related information by displaying an image on the light blocking unit through the beam.
Description
본 발명은 차량 운전 보조 장치 및 이를 구비한 차량에 관한 것이다. The present invention relates to a vehicle driving assistance device and a vehicle having the same.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다.A vehicle is a device that moves in a direction desired by a boarding user. A typical example is a car.
한편, 차량을 이용하는 사용자의 편의를 위해, 각 종 센서와 전자 장치 등이 구비되고 있는 추세이다. 특히, 사용자의 운전 편의를 위한 다양한 장치 등이 개발되고 있다.On the other hand, for the convenience of a user using a vehicle, various types of sensors and electronic devices are being provided. In particular, various devices have been developed for the convenience of the user's driving.
한편, 운전 편의를 위한 장치 중 하나로 탑승자의 눈을 태양의 직사광선으로부터 보호하기 위한 선바이저를 들수 있다. 차량의 윈드 쉴드 또는 윈도우를 통해 유입되는 광이 직접적으로 탑승자의 눈을 부시게 하거나, 차량 내 설치되는 디스플레이 장치에 반사되어 디스플레이 장치의 가독성을 감소시키므로, 탑승자는 선바이저를 조작하여, 광의 유입을 차단한다.On the other hand, one of the devices for driving convenience is a sun visor for protecting the occupant's eyes from direct sunlight. Since the light entering the vehicle's windshield or window directly dazzles the occupant or is reflected on the display device installed in the vehicle to reduce the readability of the display device, the occupant manipulates the sun visor to block the inflow of light. do.
그러나 종래의 기술에 따른 선바이저는 탑승자의 전방 시야도 함께 가리는 문제점이 있다. 이러한 탑승자의 시야를 가리는 문제로 인해, 교통 사고 확률이 높아질 수 있다. 따라서, 탑승자의 눈을 태양의 직사광선으로부터 보호함과 동시에, 탑승자의 시야를 가리지 않는 차량 운전 보조 장치에 대한 연구가 요구된다. However, the sun visor according to the prior art has a problem that also covers the front view of the occupant. Due to the problem of obstructing the occupant's view, the probability of a traffic accident may increase. Accordingly, there is a need for research on a vehicle driving assistance device that protects the occupant's eyes from direct sunlight and does not block the occupant's view.
본 발명은 상기한 문제점을 해결하기 위하여, 광 차단이 가능하고, 반투명한 재질로 형성되어, 빔을 통해 투사된 영상을 표시할 수 있는 광 차단부를 포함하는 차량 운전 보조 장치에 관한 것이다.In order to solve the above problems, the present invention relates to a vehicle driving assistance apparatus including a light blocking unit capable of blocking light, formed of a translucent material, and capable of displaying an image projected through a beam.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 차량 운전 보조 장치는 차량 내부에 구비되고, 반투명한 재질로 형성되어 상기 차량 내부에 유입되는 광을 차단하는 광 차단부, 상기 광 차단부를 향해 빔(beam)을 투사하는 투사부 및 영상 정보를 상기 투사부에 제공하고, 상기 빔을 통해 상기 광 차단부에 영상을 표시하여 차량 관련 정보를 제공하도록 상기 투사부를 제어하는 프로세서를 포함한다.In order to achieve the above object, the vehicle driving assistance device according to the embodiment of the present invention is provided inside the vehicle, is formed of a translucent material, and is formed of a light blocking unit that blocks light entering the vehicle, and toward the light blocking unit. And a processor that provides a projection unit for projecting a beam and image information to the projection unit, and controls the projection unit to provide vehicle-related information by displaying an image on the light blocking unit through the beam.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Details of other embodiments are included in the detailed description and drawings.
본 발명의 실시예에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to an embodiment of the present invention, one or more of the following effects are provided.
첫째, 광 차단부에 반투명 재질을 사용함으로써, 탑승자의 시야 가림을 방지하는 효과가 있다.First, by using a translucent material for the light blocking portion, there is an effect of preventing the occupant's view from being obscured.
둘째, 조도, 태양의 위치 또는 탑승자의 시선을 고려하여 광 차단 영역의 길이를 조절하므로 적응적으로 탑승자의 눈부심을 방지하는 효과가 있다.Second, since the length of the light-blocking area is adjusted in consideration of the illuminance, the position of the sun, or the occupant's gaze, there is an effect of adaptively preventing the occupant's glare.
셋째, 필요에 따라, 영상 표시 영역에 운전을 보조하는 영상을 표시하여 탑승자로하여금 안전 운전이 가능하게 하는 효과가 있다.Third, if necessary, there is an effect of enabling safe driving for occupants by displaying an image that assists driving in the image display area.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects that are not mentioned will be clearly understood by those skilled in the art from the description of the claims.
도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다.
도 2는 본 발명의 실시예에 따른 차량 운전 보조 장치의 블럭도이다.
도 3 내지 도 4는 본 발명의 실시예에 따라, 복수의 광차단부를 포함하는 경우, 차량 운전 보조 장치를 설명하는데 참조되는 도면이다.
도 5 내지 도 6은 본 발명의 실시예에 따라, 광차단부가 복수의 단으로 구성되는 경우, 차량 운전 보조 장치를 설명하는데 참조되는 도면이다.
도 7은 본 발명의 실시예에 따른 사용자 입력부(125)를 설명하는데 참조되는 도면이다.
도 8은 도 1의 차량 내부의 전자 제어 장치의 내부 블록도의 일예이다.
도 9 내지 도 10은 본 발명의 실시예에 따른 차량 운전 보조 장치를 설명하는데 참조되는 예시도이다.
도 11a 내지 도 11c는 본 발명의 실시예에 따라, 광차단부에 표시되는 화면을 설명하는데 참조되는 도면이다.
도 12는 본 발명의 실시예에 따라, 이동 단말기를 통해, 영상 표시 영역을 제어하는 동작을 설명하는데 참조되는 도면이다.
도 13은 본 발명의 실시예에 따라 차량 정보를 음성으로 출력하는 동작을 설명하는데 참조되는 도면이다.
도 14는 본 발명의 실시예에 따라, 음성 명령 수신 동작을 설명하는데 참조되는 도면이다.
도 15는 본 발명의 실시예에 따라, 탑승자 시선을 감지하여 영상 표시 영역을 제어하는 동작을 설명하는데 참조되는 도면이다.
도 16은 본 발명의 실시예에 따라, 탑승자의 제스쳐를 감지하는 동작을 설명하는데 참조되는 도면이다.
도 17은 본 발명의 실시예에 따라, 문자 메시지 수신 정보 및 호(call)수신 정보를 표시하는 동작을 설명하는데 참조되는 도면이다.1 is a view showing the exterior of a vehicle according to an embodiment of the present invention.
2 is a block diagram of a vehicle driving assistance apparatus according to an embodiment of the present invention.
3 to 4 are diagrams referred to for describing a vehicle driving assistance apparatus when a plurality of light blocking units are included according to an exemplary embodiment of the present invention.
5 to 6 are diagrams referred to for describing a vehicle driving assistance apparatus when the light blocking unit is configured with a plurality of stages according to an embodiment of the present invention.
7 is a diagram referenced to describe the user input unit 125 according to an embodiment of the present invention.
8 is an example of an internal block diagram of the electronic control device inside the vehicle of FIG. 1.
9 to 10 are exemplary diagrams referenced for describing a vehicle driving assistance apparatus according to an embodiment of the present invention.
11A to 11C are views referenced to explain a screen displayed on a light blocking unit according to an exemplary embodiment of the present invention.
12 is a diagram referenced for describing an operation of controlling an image display area through a mobile terminal according to an embodiment of the present invention.
13 is a diagram referenced for describing an operation of outputting vehicle information as a voice according to an embodiment of the present invention.
14 is a diagram referenced for explaining an operation of receiving a voice command according to an embodiment of the present invention.
15 is a diagram referenced for explaining an operation of controlling an image display area by detecting a passenger's gaze according to an embodiment of the present invention.
16 is a diagram referenced for describing an operation of detecting a gesture of a passenger according to an embodiment of the present invention.
17 is a diagram referenced for explaining an operation of displaying text message reception information and call reception information according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but identical or similar elements are denoted by the same reference numerals regardless of reference numerals, and redundant descriptions thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used interchangeably in consideration of only the ease of preparation of the specification, and do not have meanings or roles that are distinguished from each other by themselves. In addition, in describing the embodiments disclosed in the present specification, if it is determined that a detailed description of related known technologies may obscure the subject matter of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are for easy understanding of the embodiments disclosed in the present specification, and the technical idea disclosed in the present specification is not limited by the accompanying drawings, and all modifications included in the spirit and scope of the present invention It should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various elements, but the elements are not limited by the terms. These terms are used only for the purpose of distinguishing one component from another component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. Should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly indicates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as "comprises" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.
본 명세서에서 기술되는 차량은, 자동차, 오토바이를 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.Vehicles described herein may be concepts including automobiles and motorcycles. Hereinafter, the vehicle will be mainly described.
본 명세서에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량 등을 모두 포함하는 개념일 수 있다. The vehicle described herein may be a concept including both an internal combustion engine vehicle having an engine as a power source, a hybrid vehicle including an engine and an electric motor as a power source, an electric vehicle including an electric motor as a power source, and the like.
이하의 설명에서 차량의 좌측은 차량의 주행 방향의 좌측, 즉, 운전석측을 의미하고, 차량의 우측은 차량의 주행 방향의 우측, 즉, 보조석측을 의미한다.In the following description, the left side of the vehicle means the left side in the driving direction of the vehicle, that is, the driver's seat side, and the right side of the vehicle means the right side in the driving direction of the vehicle, that is, the side of the assistant seat.
도 1은 본 발명의 실시예에 따른 차량의 외관을 도시한 도면이다.1 is a view showing the exterior of a vehicle according to an embodiment of the present invention.
도 1을 참조하면, 차량(10)은, 동력원에 의해 회전하는 바퀴(103FR,103FL,103RL,..), 차량(10)의 진행 방향을 조절하기 위한 스티어링 휠, 차량 운전 보조 장치(100)를 포함할 수 있다.Referring to FIG. 1, the
본 발명의 실시예에 따른, 차량 운전 보조 장치(100)는 차량 내부에 구비될 수 있다. 차량 운전 보조 장치(100)는 운전석측 차량 내부 천장에 부착되는 것이 바람직하다. According to an embodiment of the present invention, the vehicle
도 2는 본 발명의 실시예에 따른 차량 운전 보조 장치의 블럭도이다.2 is a block diagram of a vehicle driving assistance apparatus according to an embodiment of the present invention.
도 2를 참조하면, 본 발명의 실시예에 따른 차량 운전 보조 장치(100)는 통신부(110), 입력부(120), 센싱부(140), 인터페이스부(160), 메모리(170), 프로세서(180), 전원 공급부(190), 음향 출력부(220), 투사부(230), 광차단부(240) 및 구동부(245)를 포함한다.Referring to FIG. 2, a vehicle
통신부(110)는, 이동 단말기(245) 또는 서버(260)와 무선(wireless) 방식으로, 데이터를 교환할 수 있다. 특히, 통신부(110)는, 차량 탑승자의 이동 단말기와, 무선으로 데이터를 교환할 수 있다. 무선 데이터 통신 방식으로는, 블루투스(Bluetooth), WiFi Direct, WiFi, APiX 등 다양한 데이터 통신 방식이 가능하다.The communication unit 110 may exchange data with the
통신부(110)는, 이동 단말기(245) 또는 서버(260)로부터, 날씨 정보, 도로의 교통 상황 정보, 예를 들어, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다. The communication unit 110 may receive weather information, road traffic condition information, for example, Transport Protocol Expert Group (TPEG) information from the
한편, 사용자가 차량에 탑승한 경우, 사용자의 이동 단말기(245)와 차량 운전 보조 장치(100)는, 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링(pairing)을 수행할 수 있다. Meanwhile, when a user boards a vehicle, the user's
한편, 통신부(110)는 차량 탑승자의 이동 단말기로부터 제어 신호를 수신할 수 있다. 예를 들면, 이동 단말기는 사용자로부터 수신되는 입력 신호에 대응하는 제어 신호 생성하여, 차량 운전 보조 장치(100)에 전송한다. 이경우, 통신부(110)는 상기 제어 신호를 수신하여, 프로세서(180)에 전달할 수 있다.Meanwhile, the communication unit 110 may receive a control signal from a mobile terminal of a vehicle occupant. For example, the mobile terminal generates a control signal corresponding to an input signal received from a user and transmits it to the vehicle
입력부(120)는, 영상 신호 입력을 위한 카메라 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 123), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(125, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The
입력부(120)는 비전모듈(121), 마이크로폰(123), 사용자 입력부(125)를 포함할 수 있다. The
비전 모듈(121)은 차량 주변 영상 또는 차량 내부 영상을 획득한다.The
비전모듈(121)은 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 투사부(230)에서 투사되는 빔(beam)을 통해, 광차단부(240)에 표시되거나 메모리(170)에 저장될 수 있다. 한편, 비전모듈(121)에 구비되는 복수의 카메라는 매트릭스 구조를 이루도록 배치될 수 있으며, 이와 같이 매트릭스 구조를 이루는 카메라를 통하여, 차량 운전 보조 장치(100)에는 다양한 각도 또는 초점을 갖는 복수의 영상정보가 입력될 수 있다. 또한, 복수의 카메라(121)는 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 스트레오 구조로 배치될 수 있다.The
한편, 비전모듈(121)은 복수의 카메라를 포함할 수 있다.Meanwhile, the
예를 들어, 비전모듈(121)은 차량 후방 영상을 획득하는 적어도 하나의 카메라를 포함할 수 있다. 여기서, 상기 적어도 하나의 카메라는, 제1 카메라, 제2 카메라 및 제3 카메라를 포함할 수 있다. 제1 카메라는 차량 후미에 구비되어 제1 영상을 획득할 수 있다. 이때, 제1 영상은 차량 후방 영상일 수 있다. 제2 카메라는 차량 좌측에 구비되어 제2 영상을 획득할 수 있다. 이때, 제2 영상은 차량 좌측 후방 영상일 수 있다. 제3 카메라는 차량 우측에 구비되어 제3 영상을 획득할 수 있다. 이때, 제3 영상은 차량 우측 후방 영상일 수 있다.For example, the
예를 들어, 비전모듈(121)은 차량 내부에 구비되어, 차량 내부 영상을 획득하는 적어도 하나의 카메라를 포함할 수 있다. For example, the
예를 들어, 비전모듈(121)은 차량 내부 또는 외부에 구비되어, 차량 전방 영상을 획득하는 적어도 하나의 카메라를 포함할 수 있다. 여기서, 상기 적어도 하나의 카메라는 스테레오 카메라일 수 있다. 스테레오 카메라는 차량 전방의 스테레오 영상을 획득할 수 있다. For example, the
예를 들어, 비전모듈(121)은 차량 내부에 구비되어, 탑승자의 시선을 감지하는 적어도 하나의 카메라를 포함할 수 있다. 여기서, 상기 적어도 하나의 카메라는 차량에 탑승한 탑승자의 눈에 대한 이미지를 획득할 수 있다. For example, the
마이크로폰(123)은 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 차량 운전 보조 장치(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크로폰(123)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The
한편, 마이크로폰(123)은 탑승자의 음성 입력을 수신할 수 있다. 마이크로폰(123)은 수신된 음성 입력을 전기적 신호로 전환할 수 있다. Meanwhile, the
사용자 입력부(125)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(125)를 통해 정보가 입력되면, 프로세서(180)는 입력된 정보에 대응되도록 차량 운전 보조 장치(100)의 동작을 제어할 수 있다. 이러한, 사용자 입력부(125)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. The user input unit 125 is for receiving information from a user, and when information is input through the user input unit 125, the
사용자 입력부(125)는, 투사부(230) 또는 광차단부(240)를 제어하는 입력을 탑승자로부터 수신할 수 있다. 차량 탑승자는 사용자 입력부(125)를 통해, 투사부(230)를 제어하여, 광차단부에 표시되는 영상을 제어할 수 있다. 또한, 차량 탑승자는 사용자 입력부(125)를 통해, 구동부(241)를 제어하여, 광차단부(240)의 크기를 조절할 수 있다.The user input unit 125 may receive an input for controlling the
센싱부(140)는, 차량 운전 보조 장치(100) 내의 정보, 차량 운전 보조 장치(100)를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 태양 센서(141), 광량 센서(142)를 포함할 수 있다.The
태양 센서(141)는 태양의 위치를 추적한다. 예를 들면, 태양 센서(141)는 태양의 방위각과 고도각 추적을 수행한다. 태양 센서(141)는 태양의 위치를 추적하기 위해 하나 이상의 포토 다이오드를 포함할 수 있다.The
광량 센서(142)는 차량 내부로 유입되는 광의 양을 감지한다. 구체적으로, 광량 센서(142)는 태양광량을 감지한다. 광량 센서(142)는 CdS 광전도 셀(CdS photoconductive cell) 또는 CdS셀 등의 광전도 소자를 포함할 수 있다.The
인터페이스부(160)는, AVN 장치(400)와의 데이터 통신에 의해, 차량 주행과 관련한, 맵(map) 정보를 수신할 수 있다. 예를 들어, AVN 장치(400)는 네비게이션을 포함하고, 인터페이스부(160)는 상기 네비게이션으로부터 지도(map) 및 지도 상에서의 차량의 위치에 대한 정보를 수신하여, 프로세서(180)에 전달할 수 있다.The
한편, 인터페이스부(160)는, ECU(770) 또는 차량 센서부(760)로부터, 센서 정보를 수신할 수 있다.Meanwhile, the
여기서, 센서 정보는, 차량의 슬립 정도, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보 중 적어도 하나를 포함할 수 있다. Here, the sensor information includes vehicle slip degree, vehicle direction information, vehicle position information (GPS information), vehicle angle information, vehicle speed information, vehicle acceleration information, vehicle tilt information, vehicle forward/reverse information, battery information, and fuel information. , Tire information, vehicle ramp information, vehicle interior temperature information, and vehicle interior humidity information.
이러한 센서 정보는, 휠 속도 센서, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 휠 센서(wheel sensor), 차량 속도 센서, 차체 경사 감지센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서 등으로부터 획득될 수 있다. 한편, 포지션 모듈은, GPS 정보 수신을 위한 GPS 모듈을 포함할 수 있다.Such sensor information includes wheel speed sensor, heading sensor, yaw sensor, gyro sensor, position module, vehicle forward/reverse sensor, wheel sensor, It may be obtained from a vehicle speed sensor, a vehicle body tilt sensor, a battery sensor, a fuel sensor, a tire sensor, a steering sensor by steering wheel rotation, a temperature sensor inside a vehicle, a humidity sensor inside a vehicle, and the like. Meanwhile, the position module may include a GPS module for receiving GPS information.
한편, 센서 정보 중, 차량 주행과 관련한, 차량 방향 정보, 차량 위치 정보, 차량 각도 정보, 차량 속도 정보, 차량 기울기 정보 등을 차량 주행 정보라 명명할 수 있다.Meanwhile, among the sensor information, vehicle direction information, vehicle position information, vehicle angle information, vehicle speed information, vehicle inclination information, and the like related to vehicle driving may be referred to as vehicle driving information.
인터페이스부(160)는, 차량 자세 감지부(771)에서 생성된, 차량 자세 정보를 수신할 수 있다.The
메모리(170)는, 프로세서(180)의 처리 또는 제어를 위한 프로그램 등, 차량 운전 보조 장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리(170)는 ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다.The memory 170 may store various data for the overall operation of the vehicle driving
프로세서(180)는, 차량 운전 보조 장치(100) 내의 각 유닛의 전반적인 동작을 제어한다. The
프로세서(180)는 영상 정보를 투사부(230)에 제공한다. 프로세서(180)는 투사부(230)에서 투사되는 빔을 통해, 광 차단부(240)에 영상을 표시할 수 있다. 프로세서(180)는 상기 영상을 통해, 차량 관련 정보를 제공하도록, 투사부(230)를 제어할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보 또는 차량 탑승자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다. 차량 관련 정보는, 입력부(120)를 통해 수신된 정보일 수 있다. 또는, 차량 관련 정보는, 인터페이스부(160)를 통해, 차량 센서부(760)로부터 수신된 정보일 수 있다. 또는, 차량 정보는, 인터페이스부(160)를 통해, ECU(770)로부터 수신된 정보일 수 있다. 또는, 차량 정보는, 통신부(110)를 통해, 이동 단말기(245) 또는 서버(260)로부터 수신된 정보일 수 있다. The
프로세서(180)는 광량 센서(142)로부터 차량 내부로 유입되는 광의 양에 대한 정보를 수신할 수 있다. 광차단부(240)가 투명 디스플레이로 구성된 경우, 프로세서(180)는 상기 광의 양을 바탕으로 투명 디스플레이의 투명도를 조절할 수 있다.The
프로세서(180)는 비전모듈(121)로부터 획득된 영상 데이터를 수신한다. 프로세서(180)는 영상 데이터를 기초로 투사부(230)를 제어할 수 있다. The
예를 들어, 비전모듈(121)이 차량 후방 영상을 획득하는 적어도 하나의 카메라를 포함하는 경우, 프로세서(180)는, 상기 차량 후방 영상을 수신하여, 상기 차량 후방 영상이 광 차단부(240)에 표시되도록 투사부(230)를 제어할 수 있다. For example, when the
차량 후방 영상을 획득하는 카메라는 제1 카메라, 제2 카메라, 제3 카메라를 포함할 수 있다. 제1 카메라는 차량 후미에 구비되어 제1 영상을 획득할 수 있다. 이때, 제1 영상은 차량 후방 영상일 수 있다. 제2 카메라는 차량 좌측에 구비되어 제2 영상을 획득할 수 있다. 이때, 제2 영상은 차량 좌측 후방 영상일 수 있다. 제3 카메라는 차량 우측에 구비되어 제3 영상을 획득할 수 있다. 이때, 제3 영상은 차량 우측 후방 영상일 수 있다. Cameras that acquire the rear image of the vehicle may include a first camera, a second camera, and a third camera. The first camera may be provided at the rear of the vehicle to obtain a first image. In this case, the first image may be an image behind the vehicle. The second camera may be provided on the left side of the vehicle to obtain a second image. In this case, the second image may be an image behind the left side of the vehicle. The third camera may be provided on the right side of the vehicle to obtain a third image. In this case, the third image may be an image behind the right side of the vehicle.
프로세서(180)는 제1 내지 제3 영상을 수신하고, 제1 내지 제3 영상을 합성하여, 합성 영상을 생성할 수 있다. 프로세서(180)는 광차단부(240)에 합성 영상이 표시되도록 투사부(230)를 제어할 수 있다.The
합성 영상을 생성하는 경우, 프로세서(180)는, 위에서 바라볼때, 차량의 좌측 바디라인의 연장선(이하, 제1 선)을 기준으로 제1 영상 및 제2 영상을 합성할 수 있다. 구체적으로, 프로세서(180)는 제1 선을 기준으로 제1 선의 우측은 제1 영상에 기초하고, 제1 선의 좌측은 제2 영상에 기초하여 합성할 수 있다. 예를 들어, 제2 영상에서 차체 영역(1171b)은 제외한 후, 제1 선을 기준으로 제1 영상과 제2 영상을 합성할 수 있다.When generating a synthesized image, the
또한, 프로세서(180)는, 위에서 바라볼때, 차량의 우측 바디라인의 연장선(이하, 제2 선)을 기준으로 제1 영상 및 제3 영상을 합성할 수 있다. 구체적으로, 프로세서(180)는 제2 선을 기준으로, 제2 선의 좌측은 제1 영상에 기초하고, 제2 선의 우측은 제3 영상에 기초하여 합성할 수 있다. 예를 들어, 제3 영상에서 차체 영역(1171c)은 제외한 후, 제2 선을 기준으로 제1 영상과 제3 영상을 합성할 수 있다.Also, when viewed from above, the
이와 같이, 제1 내지 제3 영상을 합성함으로써, 탑승자에게 차량 후방에 대한 넓은 시야의 영상을 제공할 수 있다.In this way, by synthesizing the first to third images, an image of a wide field of view toward the rear of the vehicle may be provided to the occupant.
합성 영상을 생성하는 경우, 프로세서(180)는 제1 카메라 위치를 기준으로, 제2 및 제3 영상에 대한 거리 조절을 하여, 제1 내지 제3 영상을 합성할 수 있다. 예를 들어, 제2 및 제3 카메라는 제1 카메라와 동일한 평면에 배치되지 않을 수 있다. 제1 카메라는 차량 후미 번호판 상측 또는 하측에 배치될 수 있고, 제2 카메라는 좌측 사이드 미러 모듈에 배치될 수 있고, 제3 카메라는 우측 사이드 미러 모듈에 배치될 수 있다. 이경우, 제2 및 제3 카메라가 영상을 획득하는 지점은 제1 카메라가 영상을 획득하는 지점과 달라진다. 그에 따라, 제2 및 제3 영상과 제1 영상 사이에는, 제2 및 제3 카메라와 제1 카메라 사이의 거리에 따른 거리감이 발생한다. 프로세서(180)는 스케일링을 통해, 제1 내지 제3 영상이 동일 평면에서 촬영된 것과 같이, 거리 조절을 할 수 있다.When generating a synthesized image, the
예를 들어, 비전모듈(121)이 차량 내부 영상을 획득하는 적어도 하나의 카메라를 포함하는 경우, 프로세서(180)는, 상기 차량 내부 영상을 수신하여, 상기 차량 내부 영상이 광 차단부(240)에 표시되도록 투사부(230)를 제어할 수 있다. 가령, 카메라가 차량 뒷자리 영상을 획득하는 경우, 프로세서(180)는 상기 뒷자리 영상이 광 차단부(240)에 표시되도록 투사부(230)를 제어할 수 있다. 이경우, 광 차단부(240)는 룸미러 기능을 수행할 수 있다.For example, when the
예를 들어, 비전모듈(121)이 차량 전방 영상을 획득하는 적어도 하나의 카메라를 포함하는 경우, 프로세서(180)는 상기 차량 전방 영상을 수신하여, 상기 차량 전방 영상에 기초하는 정보가 광차단부(240)에 표시되도록 투사부를 제어할 수 있다. For example, when the
한편, 차량 전방 영상을 획득하는 카메라가 스테레오 카메라로 구성되는 경우, 프로세서(180)는, 제1 카메라(121a)로부터 차량 전방에 대한 스테레오 영상을 획득하고, 스테레오 영상에 기초하여, 차량 전방에 대한 디스패러티 연산을 수행하고, 연산된 디스패러티 정보에 기초하여, 스테레오 영상 중 적어도 하나에 대한, 오브젝트 검출을 수행하며, 오브젝트 검출 이후, 계속적으로, 오브젝트의 움직임을 트래킹할 수 있다. On the other hand, when the camera for obtaining the front image of the vehicle is configured as a stereo camera, the
특히, 프로세서(180)는, 오브젝트 검출시, 차선 검출(Lane Detection, LD), 주변 차량 검출(Vehicle Detection, VD), 보행자 검출(Pedestrian Detection,PD), 불빛 검출(Brightspot Detection, BD), 교통 표지판 검출(Traffic Sign Recognition, TSR), 도로면 검출 등을 수행할 수 있다.In particular, the
그리고, 프로세서(180)는, 검출된 주변 차량에 대한 거리 연산, 검출된 주변 차량의 속도 연산, 검출된 주변 차량과의 속도 차이 연산 등을 수행할 수 있다.In addition, the
예를 들어, 비전모듈(121)이 탑승자의 시선을 감지하는 적어도 하나의 카메라를 포함하는 경우, 프로세서(180)는 탑승자 시선을 바탕으로, 빔이 투사되는 영역을 조절할 수 있다. 탑승자의 시선을 감지하는 카메라는 탑승자의 눈을 촬영할 수 있다. 이경우, 프로세서(180)는 눈에 대한 이미지를 수신한다. 프로세서(180)는 수신된 눈에 대한 이미지에서 동공(pupil)을 추출한다. 프로세서(180)는 추출된 동공을 트래킹한다. 프로세서(180)는 트래킹되는 동공의 움직임에 대응하여, 동공이 향하는 궤적을 연산한다. 프로세서(180)는 상기 궤적을 바탕으로, 광차단부(240)에서, 동공이 향하는 영역에서, 투사부(230)에서 투사되는 빔을 받을 수 있도록 투사부(230)를 제어할 수 있다.For example, when the
한편, 광차단부(240)가 복수의 단으로 구성되는 경우, 프로세서(180)는 사용자 입력부(125)를 통한 사용자 입력에 대응하여, 광차단부(240)의 단을 조절할 수 있다. 또는, 프로세서(180)는 태양 센서(141)로부터 추적되는 태양의 위치를 기초로, 광차단부(240)의 단을 조절할 수 있다.Meanwhile, when the
한편, 광차단부(240)는 복수개로 구성될 수 있다. 예를 들어, 광차단부(240)가 제1 광차단부(240a) 및 상기 제1 광차단부(240a)보다 큰 제2 광차단부(240b)로 구성되는 경우, 프로세서(180)는 사용자 입력부(125)를 통한 사용자 입력에 대응하여, 제1 광차단부(240a) 또는 제2 광차단부(240b)가 선택적으로 펼치거나 접을 수 있다. 또는, 프로세서(180)는 태양 센서(141)로부터 추적되는 태양의 위치를 기초로, 제1 광차단부(240a) 또는 제2 광차단부(240b)가 선택적으로 펼치거나 접을 수 있다.Meanwhile, the
프로세서(180)는 차량의 자세에 대응하여, 광차단부(240)에 표시되는 영상이 흔들리지 않도록 빔의 출력을 보정할 수 있다. 예를 들어, 차량이 상하로 움직이는 경우, 투사부(230)에서 투사되는 빔이 상하로 흔들려, 광차단부(240)에 ?셜榻? 영상이 흔들릴 수 있다. 이경우, 프로세서(180)는 상하로 움직이는 차량의 자세에 대응하여, 투사부(231)에서 투사되는 빔의 출력을 상하로 보정할 수 있다.The
프로세서(180)는 차량 관련 정보를 생성할 수 있다. 프로세서(180)는 투사부(230)에서 투사되는 빔을 통해, 광차단부(240)에, 차량 관련 정보를 표시할 수 있다. 여기서, 차량 관련 정보는, 차량에 대한 직접적인 제어를 위한 차량 제어 정보 또는 차량 탑승자에게 운전 가이드를 위한 차량 운전 보조 정보를 포함할 수 있다.The
프로세서(180)는 DSP(digital signal processor), ASIC(application specific integrated circuit), 마이크로 컨트롤러(microcontroller), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 기타 기능 수행을 위한 전기적 유닛으로 형성되어, 소정의 회로 보드 일면에 실장될 수 있다.The
전원 공급부(190)는, 프로세서(180)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리 등으로부터 전원을 공급받을 수 있다. The power supply unit 190 may supply power required for operation of each component under the control of the
음향 출력부(220)는, 음향 출력부(220)는, 프로세서(180)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 스피커 등을 구비할 수 있다. 음향 출력부(220)는, 사용자 입력부(125), 즉 버튼의 동작에 대응하는, 사운드를 출력하는 것도 가능하다.The
투사부(230)는, 광 차단부를 향해 빔(beam)을 투사한다. 투사부(230)는 광원, 투사 렌즈를 포함할 수 있다. 투사부(230)는 프로세서(180)에서 처리되는 정보에 대응하는 영상을 구현한다. 투사부(230)는 광원에서 발생한 광을 이용하여 영상을 구현하고, 구현된 영상을 광 차단부에 투사한다. 광원은 LED, 레이저 등을 이용하는 것이 바람직하다. The
광차단부(240)는 차량 내부에 구비된다. 광차단부(240)는 반투명한 재질로 형성되어, 차량 내부로 유입되는 광을 차단한다. 또한, 광차단부(240)는 투사부(230)로부터 투사되는 빔을 받아 상이 맺히는 영역을 포함한다. 이때, 상기 상이 맺히는 영역은 가변될 수 있다.The
한편, 반투명한 재질은 광을 차단하면서 동시에 소정의 투명도를 가지는 재질이다. 예를 들면, 광차단부(240)는 반투명한 재질의 합성 수지재로 형성될 수 있다.On the other hand, the translucent material is a material having a predetermined transparency while blocking light. For example, the
한편, 실시예에 따라, 광차단부(240)는 투명 디스플레이로 형성될 수 있다. 한편, 투명 디스플레이는 소정의 투명도를 가질 수 있다. 이러한 투명도를 가지기 위해, 투명 디스플레이는 투명 TFEL(Thin Film Elecroluminescent), 투명 OLED(Organic Light-Emitting Diode), 투명 LCD(Liquid Crystal Display), 투과형 투명디스플레이, 투명 LED(Light Emitting Diode) 디스플레이 중 적어도 하나를 포함할 수 있다. 투명 디스플레이의 투명도는 프로세서(180)의 제어에 따라 조절될 수 있다. 광 차단부(240)는, 투명 디스플레이의 투명도를 조절하여, 태양으로부터 입사되는 광이 탑승자에게 직접적으로 조사되는 것을 방지한다. 광 차단부(240)는, 태양 센서(141) 또는 광량 센서(142)에서 감지된 데이터를 기초로, 크기 또는 투명도의 정도가 조절될 수 있다.Meanwhile, according to the embodiment, the
한편, 광차단부(240)는 복수의 단(段)으로 구성되어, 각각의 단이 접힐수 있다. 태양의 위치에 대응하여, 광차단부(240)의 단이 조절될 수 있다. 또한, 사용자 입력부(125)를 통해, 수신되는 사용자 입력에 따라, 광차단부(240)의 단이 조절될 수도 있다.On the other hand, the
한편, 광차단부(240)는 복수로 구성될 수 있다. 예를 들어, 광차단부(240)는 제1 광차단부(240a) 및 상기 제1 광차단부(240a)보다 큰 제2 광차단부(240b)를 포함할 수 있다. 태양의 위치에 따라, 제1 광차단부(240a) 또는 제2 광차단부(240b)가 선택적으로 이용될 수 있다. 또는, 광차단부(240)에 투사되는 영상에 따라 제1 광차단부(240a) 또는 제2 광차단부(240b)가 선택적으로 이용될 수 있다. 또는, 사용자 입력부(125)를 통한 사용자 입력에 따라, 제1 광차단부(240a) 또는 제2 광차단부(240b)가 선택적으로 이용될 수 있다.Meanwhile, the
구동부(245)는, 프로세서(180)의 제어에 따라, 광차단부(245)가 움직일수 있게하는 구동력을 제공한다. 예를 들면, 구동부(245)는 모터를 포함할 수 있다. The driving
예를 들면, 광차단부(240)가 복수로 구성되는 경우, 각각의 광차단부(240)가 접히거나 펴지도록 구동력을 제공할 수 있다. 예를 들면, 광차단부(240)가 복수의 단으로 구성되는 경우, 구동부(245)는 각각의 단이 접히거나 펴지도록 구동력을 제공할 수 있다. For example, when a plurality of
도 3 내지 도 4는 본 발명의 실시예에 따라, 복수의 광차단부를 포함하는 경우, 차량 운전 보조 장치를 설명하는데 참조되는 도면이다.3 to 4 are diagrams referred to for describing a vehicle driving assistance apparatus when a plurality of light blocking units are included according to an exemplary embodiment of the present invention.
도 3 내지 도 4를 참조하면, 투사부(230)는 차량 실내 천장에 부착될 수 있다. 투사부(230)는, 광 차단부를 향해 빔(beam)을 투사한다. 3 to 4, the
광차단부(240)는 투사부(230)와 윈드 쉴드(300)사이에 배치될 수 있다. 광차단부(240)는 복수로 구성될 수 있다. 예를 들어, 광차단부(240)는 제1 광차단부(240a) 및 상기 제1 광차단부(240a)보다 큰 제2 광차단부(240b)를 포함할 수 있다. 태양의 위치에 따라, 제1 광차단부(240a) 또는 제2 광차단부(240b)가 선택적으로 이용될 수 있다. 또는, 광차단부(240)에 투사되는 영상에 따라 제1 광차단부(240a) 또는 제2 광차단부(240b)가 선택적으로 이용될 수 있다. 또는, 사용자 입력부(125)를 통한 사용자 입력에 따라, 제1 광차단부(240a) 또는 제2 광차단부(240b)가 선택적으로 이용될 수 있다.The
제1 광차단부(240a)가 선택되는 경우, 프로세서(180)는 구동부(245, 도2 참조)를 통해, 광차단부(240)에 구동력을 전달한다. 이경우, 도 4 (a)에 도시된 바와 같이, 제1 광차단부(240a)는, 구동력에 의해, 힌지부(310)를 기준으로 하향으로 회동할 수 있다. 즉, 프로세서(170)는 제1 광차단부(240a)가 힌지부(310)를 기준으로 하향으로 회동되도록 제어할 수 있다. 제1 광차단부(240a)는 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 또한, 제1 광차단부(240a)는 투사부(230)로부터 투사되는 빔을 받아, 빔을 기초로 영상을 표시할 수 있다.When the first
제2 광차단부(240b)가 선택되는 경우, 프로세서(180)는 구동부(245, 도2 참조)를 통해, 광차단부(240)에 구동력을 전달한다. 이경우, 도 4 (b)에 도시된 바와 같이, 제2 광차단부(240b)는, 구동력에 의해, 힌지부(310)를 기준으로 하향으로 회동할 수 있다. 즉, 프로세서(170)는 제2 광차단부(240b)가 힌지부(310)를 기준으로 하향으로 회동되도록 제어할 수 있다. 제2 광차단부(240b)는 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 또한, 제2 광차단부(240b)는 투사부(230)로부터 투사되는 빔을 받아, 빔을 기초로 영상을 표시할 수 있다.When the second
한편, 실시예에 따라, 투사부(230) 케이스 외부에, 상술한 마이크로폰(123)이 배치될 수 있다. 실시예에 따라, 투사부(230) 케이스 외부에, 상술한 비전모듈(121)에 구비되는 탑승자 시선을 감지하는 적어도 하나의 카메라가 배치될 수 있다.Meanwhile, according to an embodiment, the
도 5 내지 도 6은 본 발명의 실시예에 따라, 광차단부가 복수의 단으로 구성되는 경우, 차량 운전 보조 장치를 설명하는데 참조되는 도면이다.5 to 6 are diagrams referred to for describing a vehicle driving assistance apparatus when the light blocking unit is configured with a plurality of stages according to an embodiment of the present invention.
도 5 내지 도 6을 참조하면, 투사부(230)는 차량 실내 천장에 부착될 수 있다. 투사부(230)는, 광 차단부(240)를 향해 빔(beam)을 투사한다. 5 to 6, the
광차단부(240)는 투사부(230)와 윈드 쉴드(300)사이에 배치될 수 있다. 광차단부(240)는 복수의 단으로 구성될 수 있다. 본 실시예에서 광차단부(240)는 제1 단 및 제2 단으로 구성되는 것으로 설명하나, 이에 한정되지 아니한다. The
광차단부(240)가 제1 단 및 제2 단으로 구성되는 경우, 광차단부(240)는 제1 광차단부(530), 제2 광차단부(540), 제1 힌지부(510) 및 제2 힌지부(520)을 포함할 수 있다. 제1 힌지부(520)는 차량 실내 천장과 제1 광차단부(530)를 회동가능하게 연결한다. 제2 힌지부(520)는 제1 광차단부(530)와 제2 광차단부(540)를 회동가능하게 연결한다.When the
제1 단이 선택되는 경우, 프로세서(180)는 구동부(245, 도2 참조)를 통해, 광차단부(240)에 구동력을 전달한다. 이경우, 도 5 (b)에 도시된 바와 같이, 제1 광차단부(530) 및 제2 광차단부(540)는, 구동력에 의해, 제1 힌지부(510)를 기준으로 하향으로 회동할 수 있다. 프로세서(180)는 제1 및 제2 광차단부(530, 540)가 제1 힌지부(510)를 기준으로 하향으로 회동되도록 제어할 수 있다. 제1 광차단부(530) 및 제2 광차단부(540)는 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 즉, 제1 광차단부(530) 및 제2 광차단부(540)는 겹쳐진 상태로, 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 또한, 제1 광차단부(530)는 투사부(230)로부터 투사되는 빔을 받아, 빔을 기초로 영상을 표시할 수 있다.When the first stage is selected, the
제2 단이 선택되는 경우, 프로세서(180)는 구동부(245, 도2 참조)를 통해, 광차단부(240)에 구동력을 전달한다. 이경우, 도 6 (a) 및 도 6 (b)에 도시된 바와 같이, 제2 광차단부(540)는, 구동력에 의해, 제2 힌지부(520)를 기준으로, 하향으로 회동할 수 있다. 프로세서(180)는 제2 광차단부(540)가 제2 힌지부(520)를 기준으로, 하향으로 회동되도록 제어할 수 있다. 제1 광차단부(530) 및 제2 광차단부(540)는 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 즉, 제1 광차단부(530) 및 제2 광차단부(540)는 펼쳐진 상태로, 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 또한, 제1 광차단부(530) 및 제2 광차단부(540)는 투사부(230)로부터 투사되는 빔을 받아, 빔을 기초로 영상을 표시할 수 있다.When the second stage is selected, the
한편, 실시예에 따라, 도 6 (a) 예시된 바와 같이, 제1 광차단부(530)가 하향으로 회동되어 펼쳐진 상태에서, 제2 광차단부(540)는 제1 광차단부(530)와 소정의 각도(610)를 이루며 위치할 수 있다. 여기서, 상기 각도(610)는 90° 내지 180° 일 수 있다. On the other hand, according to an embodiment, as illustrated in FIG. 6 (a), in a state in which the first
도 7은 본 발명의 실시예에 따른 사용자 입력부(125)를 설명하는데 참조되는 도면이다.7 is a diagram referenced to describe the user input unit 125 according to an embodiment of the present invention.
도 7을 참조하면, 사용자 입력부(125)는 스티어링 휠(710)에 부착될 수 있다. 사용자 입력부(125)는 탑승자가 스티어링 휠(710)을 잡은 상태에서, 엄지 손가락으로 입력을 수행하도록 구성될 수 있다.Referring to FIG. 7, the user input unit 125 may be attached to the
도 7의 (a)에 도시된 바와 같이, 사용자 입력부(125)는 제1 버튼(711) 및 제2 버튼(712)을 포함할 수 있다. 여기서, 각각의 버튼(711, 712)은 물리적 버튼 또는 소프트 키일 수 있다.7A, the user input unit 125 may include a
광차단부(240)가 복수의 광차단부(240a, 204b)로 구성될 때, 제1 버튼(711)에 입력이 수신되는 경우, 프로세서(180)는 제1 광차단부(240a)가 힌지부(310, 도 4 참조)를 기준으로 하향으로 회동되도록 제어할 수 있다. 제2 버튼(712)에 입력이 수신되는 경우, 프로세서(180)는 제2 광차단부(240b)가 힌지부(310, 도 4 참조)를 기준으로 하향으로 회동되도록 제어할 수 있다.When the
광차단부(240)가 복수의 단으로 구성될 때, 제1 버튼(711)에 입력이 수신되는 경우, 프로세서(180)는 제1 및 제2 광차단부(530, 540)가 제1 힌지부(510, 도 5 참조)를 기준으로 하향으로 회동되도록 제어할 수 있다. 제2 버튼(712)에 입력이 수신되는 경우, 프로세서(180)는 제2 광차단부(540)가 제2 힌지부(520, 도 5 및 도 6 참조)를 기준으로, 하향으로 회동되도록 제어할 수 있다.When the
도 7의 (b)에 도시된 바와 같이, 사용자 입력부(125)는 볼 타입(720)(ball type)으로 구성될 수 있다. 볼 타입의 사용자 입력부는 상,하,좌,우의 롤링 입력을 수신할 수 있다.As shown in (b) of FIG. 7, the user input unit 125 may be configured as a ball type 720 (ball type). The ball-type user input unit may receive up, down, left, and right rolling inputs.
예를 들어, 광차단부(240)가 복수의 광차단부(240a, 204b)로 구성될 때, 제1 방향으로 롤링 입력이 수신되는 경우, 프로세서(180)는 제1 광차단부(240a)가 힌지부(310, 도 4 참조)를 기준으로 하향으로 회동되도록 제어할 수 있다. 제2 방향으로 롤링 입력이 수신되는 경우, 프로세서(180)는 제2 광차단부(240b)가 힌지부(310, 도 4 참조)를 기준으로 하향으로 회동되도록 제어할 수 있다.For example, when the
예를 들어, 광차단부(240)가 복수의 단으로 구성될 때, 제1 방향으로 롤링 입력이 수신되는 경우, 프로세서(180)는 제1 및 제2 광차단부(530, 540)가 제1 힌지부(510, 도 5 참조)를 기준으로 하향으로 회동되도록 제어할 수 있다. 제2 방향으로 롤링 입력이 수신되는 경우, 프로세서(180)는 제2 광차단부(540)가 제2 힌지부(520, 도 5 및 도 6 참조)를 기준으로, 하향으로 회동되도록 제어할 수 있다.For example, when the
한편, 상술한 롤링 방향에 대응하는 프로세서(180)의 제어 동작은 실시예에 불과함을 명시한다. 롤링 방향에 대응하는 프로세서(180)의 제어 동작은 매칭 조합에 따라, 다양한 실시예가 가능하고, 각 실시예는 본 발명의 범위에 포함될 수 있다.Meanwhile, it is specified that the control operation of the
도 8은 도 1의 차량 내부의 전자 제어 장치의 내부 블록도의 일예이다.8 is an example of an internal block diagram of the electronic control device inside the vehicle of FIG. 1.
도 8을 참조하면, 차량(200)은 차량 제어를 위한 전자 제어 장치(700)를 구비할 수 있다. 전자 제어 장치(700)는, 상술한 차량 운전 보조 장치(100), 및 AVN 장치(400)와 데이터를 교환할 수 있다.Referring to FIG. 8, the vehicle 200 may include an
전자 제어 장치(700)는, 입력부(710), 통신부(720), 차량 메모리(740), 램프 구동부(751), 조향 구동부(752), 브레이크 구동부(753), 동력원 구동부(754), 썬루프 구동부(755), 서스펜션 구동부(756), 공조 구동부(757), 윈도우 구동부(758), 에어백 구동부(759), 차량 센서부(760), ECU(770), 표시부(780), 오디오 출력부(785), 전원 공급부(790)를 구비할 수 있다. The
입력부(710)는, 차량(200) 내부에 배치되는 복수의 버튼 또는 터치 스크린을 구비할 수 있다. 복수의 버튼 또는 터치 스크린을 통해, 다양한 입력 동작을 수행하는 것이 가능하다.The
통신부(720)는, 이동 단말기(245) 또는 서버(260)와 무선(wireless) 방식으로, 데이터를 교환할 수 있다. 특히, 통신부(720)는, 차량 탑승자의 이동 단말기와, 무선으로 데이터를 교환할 수 있다. 무선 데이터 통신 방식으로는, 블루투스(Bluetooth), WiFi Direct, WiFi, APiX 등 다양한 데이터 통신 방식이 가능하다.The
통신부(720)는, 이동 단말기(245) 또는 서버(260)로부터, 날씨 정보, 도로의 교통 상황 정보, 예를 들어, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다. The
한편, 사용자가 차량에 탑승한 경우, 사용자의 이동 단말기(245)와 전자 제어 장치(700)는, 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링을 수행할 수 있다. Meanwhile, when the user boards the vehicle, the user's
차량 메모리(740)는, ECU(770)의 처리 또는 제어를 위한 프로그램 등, 전자 제어 장치(700) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. The
램프 구동부(751)는, 차량 내,외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들어, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.The lamp driving unit 751 may control turn on/off of lamps disposed inside and outside the vehicle. In addition, it is possible to control the light intensity and direction of the lamp. For example, it is possible to control a direction indicator lamp, a brake lamp, and the like.
조향 구동부(752)는, 차량(200) 내의 조향 장치(steering apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 차량의 진행 방향을 변경할 수 있다.The steering drive unit 752 may perform electronic control on a steering apparatus (not shown) in the vehicle 200. Thereby, the traveling direction of the vehicle can be changed.
브레이크 구동부(753)는, 차량(200) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(200)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(200)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.The
동력원 구동부(754)는, 차량(200) 내의 동력원에 대한 전자식 제어를 수행할 수 있다. The power
예를 들어, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부(754)는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다. 동력원 구동부(754)가 엔진인 경우, ECU(770)의 제어에 따라, 엔진 출력 토크를 제한하여 차량의 속도를 제한할 수 있다.For example, when a fossil fuel-based engine (not shown) is a power source, the power
다른 예로, 전기 기반의 모터(미도시)가 동력원인 경우, 동력원 구동부(754)는, 모터에 대한 제어를 수행할 수 있다. 이에 의해, 모터의 회전 속도, 토크 등을 제어할 수 있다.As another example, when an electricity-based motor (not shown) is a power source, the
썬루프 구동부(755)는, 차량(200) 내의 썬루프 장치(sunroof apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 썬루프의 개방 또는 폐쇄를 제어할 수 있다.The
서스펜션 구동부(756)는, 차량(200) 내의 서스펜션 장치(suspension apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량(200)의 진동이 저감되도록 제어할 수 있다.The
공조 구동부(757)는, 차량(200) 내의 공조 장치(air cinditioner)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 차량 내부의 온도가 높은 경우, 공조 장치가 동작하여, 냉기가 차량 내부로 공급되도록 제어할 수 있다. The
윈도우 구동부(758)는, 차량(200) 내의 서스펜션 장치(window apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 차량의 측면의 좌,우 윈도우들에 대한 개방 또는 폐쇄를 제어할 수 있다. The window driving unit 758 may perform electronic control on a suspension apparatus (not shown) in the vehicle 200. For example, it is possible to control the opening or closing of the left and right windows on the side of the vehicle.
에어백 구동부(759)는, 차량(200) 내의 서스펜션 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 위험시, 에어백이 터지도록 제어할 수 있다.The
차량 센서부(760)는, 차량(100)의 주행 등과 관련한 신호를 센싱한다. 이를 위해, 차량 센서부(760)는, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 휠 센서(wheel sensor), 차량 속도 센서, 차체 경사 감지센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서 등을 구비할 수 있다.The
이에 의해, 차량 센서부(760)는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보 등에 대한 센싱 신호를 획득할 수 있다. Accordingly, the
한편, 차량 센서부(760)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 구비할 수 있다.Meanwhile, the
ECU(770)는, 전자 제어 장치(700) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. The
입력부(710)에 의한 입력에 의해, 특정 동작을 수행하거나, 차량 센서부(760)에서 센싱된 신호를 수신하여, 차량 운전 보조 장치(100)로 전송할 수 있으며, AVN 장치(400)로부터 맵 정보를 수신할 수 있으며, 각 종 구동부(751,752, 753,754,756)의 동작을 제어할 수 있다.By inputting by the
또한, ECU(770)는, 통신부(720)로부터 날씨 정보, 도로의 교통 상황 정보, 예를 들어, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다. In addition, the
한편, ECU(770)는 차량 자세 감지부(771)를 포함할 수 있다. 실시예에 따라, 차량 자세 감지부(771)는 ECU(770)와 별도의 모듈로 구성될 수도 있다. 차량 자세 감지부(771)는, 차량 센서부(760)에 구비된 복수의 센서에서 센싱되는 정보를 기초로 차량 자세를 감지하고, 차량 자세 정보를 생성한다. 예를 들면, 차량 자세 감지부(771)는 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 휠 센서(wheel sensor), 차체 경사 감지센서, 스티어링 센서 등에서 감지되는 신호를 바탕으로, 차량의 자세를 감지할 수 있다.Meanwhile, the
표시부(780)는, 차량 운전 보조 장치의 동작과 관련한 이미지를 표시할 수 있다. 이러한 이미지 표시를 위해, 표시부(780)는, 차량 내부 전면의 클러스터(cluster) 또는 HUD(Head Up Display)를 포함할 수 있다. 한편, 표시부(780)가 HUD 인 경우, 차량(200)의 전면 유리에 이미지를 투사하는 투사 모듈을 포함할 수 있다. 한편, 표시부(780)는, 입력이 가능한, 터치 스크린을 포함할 수 있다.The
오디오 출력부(785)는, ECU(770)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 스피커 등을 구비할 수 있다. 오디오 출력부(785)는, 입력부(710), 즉 버튼의 동작에 대응하는, 사운드를 출력하는 것도 가능하다.The
전원 공급부(790)는, ECU(770)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(790)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.The
도 9 내지 도 10은 본 발명의 실시예에 따른 차량 운전 보조 장치를 설명하는데 참조되는 예시도이다.9 to 10 are exemplary diagrams referenced for describing a vehicle driving assistance apparatus according to an embodiment of the present invention.
도 9를 참조하면, 투사부(230)는, 광 차단부를 향해 빔(beam)을 투사한다. 광차단부(240)는 차량 내부에 구비된다. 광차단부(240)는 반투명한 재질로 형성되어, 차량 내부로 유입되는 광을 차단한다. 또한, 광차단부(240)는 투사부(230)로부터 투사되는 빔을 받아 상이 맺히는 영역을 포함한다. 이때, 상기 상이 맺히는 영역은 가변될 수 있다.Referring to FIG. 9, the
한편, 실시예에 따라, 광차단부(240)는 투명 디스플레이로 형성될 수 있다. 한편, 투명 디스플레이는 소정의 투명도를 가질 수 있다. 광 차단부(240)는, 태양 센서(141) 또는 광량 센서(142)에서 감지된 데이터를 기초로, 크기 또는 투명도의 정도가 조절될 수 있다.Meanwhile, according to the embodiment, the
광차단부(240)가 복수개로 구성되는 경우, 태양 센서(141)가 감지한 태양의 위치, 사용자 입력부(124)로부터 수신된 사용자 입력에 따라, 제1 광차단부(240a) 또는 제2 광차단부(240b)가 선택될 수 있다.When the
광차단부(240)가 복수의 광차단부(240a, 204b)로 구성될 때, 제1 광차단부(240a)가 선택되는 경우, 프로세서(180)는 구동부(245, 도2 참조)를 통해, 광차단부(240)에 구동력을 전달한다. 제1 광차단부(240a)는, 구동력에 의해, 힌지부(310)를 기준으로 하향으로 회동할 수 있다. 즉, 프로세서(170)는 제1 광차단부(240a)가 힌지부(310)를 기준으로 하향으로 회동되도록 제어할 수 있다.When the
이경우, 도 9의 (a)에 도시된 바와 같이, 제1 광차단부(240a)는 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 또한, 제1 광차단부(240a)는 투사부(230)로부터 투사되는 빔을 받아, 빔을 기초로 영상을 표시할 수 있다.In this case, as shown in (a) of FIG. 9, the first
광차단부(240)가 복수의 광차단부(240a, 204b)로 구성될 때, 제2 광차단부(240b)가 선택되는 경우, 프로세서(180)는 구동부(245, 도2 참조)를 통해, 광차단부(240)에 구동력을 전달한다. 제2 광차단부(240b)는, 구동력에 의해, 힌지부(310)를 기준으로 하향으로 회동할 수 있다. 즉, 프로세서(170)는 제2 광차단부(240b)가 힌지부(310)를 기준으로 하향으로 회동되도록 제어할 수 있다.When the
이경우, 도 9의 (b)에 도시된 바와 같이, 제2 광차단부(240b)는 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 또한, 제2 광차단부(240b)는 투사부(230)로부터 투사되는 빔을 받아, 빔을 기초로 영상을 표시할 수 있다.In this case, as shown in (b) of FIG. 9, the second
도 10를 참조하면, 광차단부(240)가 복수의 단으로 구성되는 경우, 태양 센서(141)가 감지한 태양의 위치, 사용자 입력부(124)로부터 수신된 사용자 입력에 따라, 제1 단 또는 제2 단이 선택될 수 있다.Referring to FIG. 10, when the
광차단부(240)가 제1 단 및 제2 단으로 구성될 때, 제1 단이 선택되는 경우, 프로세서(180)는 구동부(245, 도2 참조)를 통해, 광차단부(240)에 구동력을 전달한다. 제1 및 제2 광차단부(530, 540)는, 구동력에 의해, 제1 힌지부(510)를 기준으로 하향으로 회동할 수 있다. 프로세서(180)는 제1 및 제2 광차단부(530, 540)가 제1 힌지부(510)를 기준으로 하향으로 회동되도록 제어할 수 있다.When the
이경우, 도 10의 (a)에 도시된 바와 같이, 제1 광차단부(530) 및 제2 광차단부(540)는 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 즉, 제1 광차단부(530) 및 제2 광차단부(540)는 겹쳐진 상태로, 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 또한, 제1 광차단부(530)는 투사부(230)로부터 투사되는 빔을 받아, 빔을 기초로 영상을 표시할 수 있다.In this case, as shown in (a) of FIG. 10, the first
광차단부(240)가 제1 단 및 제2 단으로 구성될 때, 제2 단이 선택되는 경우, 프로세서(180)는 구동부(245, 도2 참조)를 통해, 광차단부(240)에 구동력을 전달한다. 제2 광차단부(540)는, 구동력에 의해, 제2 힌지부(520)를 기준으로, 하향으로 회동할 수 있다. 프로세서(180)는 제2 광차단부(540)가 제2 힌지부(520)를 기준으로, 하향으로 회동되도록 제어할 수 있다.When the
이경우, 도 10의 (b)에 도시된 바와 같이, 제1 광차단부(530) 및 제2 광차단부(540)는 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 즉, 제1 광차단부(530) 및 제2 광차단부(540)는 펼쳐진 상태로, 탑승자의 눈에 직접적으로 조사되는 태양광을 차단할 수 있다. 또한, 제1 광차단부(530) 및 제2 광차단부(540)는 투사부(230)로부터 투사되는 빔을 받아, 빔을 기초로 영상을 표시할 수 있다.In this case, as shown in (b) of FIG. 10, the first
도 11a 내지 도 11c는 본 발명의 실시예에 따라, 광차단부에 표시되는 화면을 설명하는데 참조되는 도면이다.11A to 11C are views referenced to explain a screen displayed on a light blocking unit according to an exemplary embodiment of the present invention.
도 11a를 참조하면, 프로세서(180)는 영상 정보를 투사부(230)에 제공한다. 프로세서(180)는 투사부(230)에서 투사되는 빔을 통해, 광 차단부(240)에 영상을 표시할 수 있다. 광 차단부(240)는 투사부(230)에서 투사되는 빔을 받아 상이 맺히는 영역을 포함한다. 여기서, 상기 상이 맺히는 영역을 영상 표시 영역으로 명명할 수 있다.Referring to FIG. 11A, the
프로세서(180)는 비전모듈(121)로부터 획득된 영상 데이터를 수신한다. 프로세서(180)는 영상 데이터를 기초로 투사부(230)를 제어할 수 있다. The
예를 들어, 비전모듈(121)이 차량 후방 영상을 획득하는 적어도 하나의 카메라를 포함하는 경우, 프로세서(180)는, 상기 차량 후방 영상을 수신하여, 상기 차량 후방 영상이 광 차단부(240)에 표시되도록 투사부(230)를 제어할 수 있다. For example, when the
도 11b는, 차량 후방 영상을 수신하여, 상기 차량 후방 영상이 광 차단부(240)에 표시되도록 투사부(230)를 제어하는 일 실시예를 도시한다.FIG. 11B shows an embodiment of controlling the
차량 후방 영상을 획득하는 카메라는 제1 카메라(1160a), 제2 카메라(1160b) 및 제3 카메라(1160c)를 포함할 수 있다. 제1 카메라(1160a)는 차량 후미, (예를 들면, 후미 번호판 상측 또는 하측)에 구비될 수 있다. 제1 카메라(1160a)는 제1 영상(1170a)을 획득할 수 있다. 이때, 제1 영상(1170a)은 차량 후방 영상일 수 있다. 제2 카메라(1160b)는 차량 좌측, (예를 들면, 좌측 사이드 미러 모듈)에 구비될 수 있다. 제2 카메라(1160b)는 제2 영상(1170b)을 획득할 수 있다. 이때, 제2 영상(1170b)은 차량 좌측 후방 영상일 수 있다. 제3 카메라(1160c)는 차량 우측, (예를 들면, 우측 사이드 미러 모듈)에 구비될 수 있다. 제3 카메라(1160c)는 제3 영상(1170c)을 획득할 수 있다. 이때, 제3 영상(1170c)은 차량 우측 후방 영상일 수 있다. The camera that acquires the rear image of the vehicle may include a
프로세서(180)는 제1 내지 제3 영상(1170a, 1170b, 1170c)을 수신하고, 제1 내지 제3 영상(1170a, 1170b, 1170c)을 합성하여, 합성 영상(1180)을 생성할 수 있다. 프로세서(180)는 광차단부(240)에 합성 영상(1180)이 표시되도록 투사부(230)를 제어할 수 있다.The
한편, 제1 내지 제3 카메라(1160a, 1160b, 1160c)가 획득한 각각의 영상에 중첩되는 영역이 발생될 수 있다. 합성 영상(1180) 생성시, 중첩되는 영역의 처리가 필요하다.Meanwhile, a region overlapping each image acquired by the first to
중첩되는 영역의 처리는 다음과 같은 방식으로 처리될 수 있다. 합성 영상(1180)을 생성하는 경우, 프로세서(180)는 차량의 좌측 바디라인의 연장선(1162a)(이하, 제1 선)을 기준으로 제1 영상(1170a) 및 제2 영상(1170b)을 합성할 수 있다. 구체적으로, 프로세서(180)는 제1 선(1162a)을 기준으로 제1 선(1162a)의 우측은 제1 영상(1170a)에 기초하고, 제1 선(1162a)의 좌측은 제2 영상(1170b)에 기초하여 합성할 수 있다. 또한, 프로세서(180)는 차량의 우측 바디라인의 연장선(1162b)(이하, 제2 선)을 기준으로 제1 영상(1170a) 및 제3 영상(1170c)을 합성할 수 있다. 구체적으로, 프로세서(180)는 제2 선(1162b)을 기준으로, 제2 선(1162b)의 좌측은 제1 영상(1170a)에 기초하고, 제2 선(1162b)의 우측은 제3 영상(1170c)에 기초하여 합성할 수 있다. 이와 같이, 제1 내지 제3 영상을 합성함으로써, 탑승자에게 차량 후방에 대한 넓은 시야의 영상을 제공할 수 있다.The processing of overlapping areas can be processed in the following manner. When generating the
한편, 제1 내지 제3 카메라(1160a, 1160b, 1160c)는 각각 차량에서 구비되는 위치가 상이하다. 그에 따라, 각각의 카메라에서 획득된느 영상에는 거리감이 발생될 수 있다. 합성 영상(1180) 생성시, 거리감 보정이 요구된다.Meanwhile, the positions of the first to
거리감 보정은 다음과 같은 방식으로 처리될 수 있다. 합성 영상을 생성하는 경우, 프로세서(180)는 제1 카메라 위치를 기준으로, 제2 및 제3 영상에 대한 거리 조절을 하여, 제1 내지 제3 영상을 합성할 수 있다. 예를 들어, 제2 및 제3 카메라는 제1 카메라와 동일한 평면에 배치되지 않을 수 있다. 제1 카메라는 차량 후미 번호판 상측 또는 하측에 구비될 수 있고, 제2 카메라는 좌측 사이드 미러 모듈에 구비될 수 있고, 제3 카메라는 우측 사이드 미러 모듈에 구비될 수 있다. 이경우, 제2 및 제3 카메라가 영상을 획득하는 지점은 제1 카메라가 영상을 획득하는 지점과 달라진다. 그에 따라, 제2 및 제3 영상과 제1 영상 사이에는, 제2 및 제3 카메라와 제1 카메라 사이의 거리에 따른 거리감이 발생한다. 프로세서(180)는 스케일링을 통해, 제1 내지 제3 영상이 동일 평면에서 촬영된 것과 같이, 거리 조절을 할 수 있다.Distance correction can be processed in the following way. When generating a synthesized image, the
도 11c 는 표시되는 영상의 실시예를 도시한다. 비전모듈(121)이 차량 내부 영상을 획득하는 적어도 하나의 카메라를 포함하는 경우, 도 11c의 (a)에 도시된 바와 같이, 프로세서(180)는, 상기 차량 내부 영상을 수신하여, 상기 차량 내부 영상(1150)이 광 차단부(240)에 표시되도록 투사부(230)를 제어할 수 있다. 가령, 카메라가 차량 뒷자리 영상을 획득하는 경우, 프로세서(180)는 상기 뒷자리 영상이 광 차단부(240)에 표시되도록 투사부(230)를 제어할 수 있다. 이경우, 광 차단부(240)는 룸미러 기능을 수행할 수 있다.11C shows an embodiment of a displayed image. When the
프로세서(180)는 영상 표시 영역에 차량 정보가 표시되도록 투사부(230)를 제어할 수 있다. 여기서, 차량 정보는, 인터페이스부(160)를 통해, 차량 센서부(760)로부터 수신된 정보일 수 있다. 또는, 차량 정보는, 인터페이스부(160)를 통해, ECU(770)로부터 수신된 정보일 수 있다. 또는, 차량 정보는, 통신부(110)를 통해, 이동 단말기(245) 또는 서버(260)로부터 수신된 정보일 수 있다. 또는, 차량 정보는, 입력부(120)를 통해, 수신된 정보일 수 있다.The
예를 들면, 프로세서(180)는 영상 표시 영역에 차속 정보(1151), 교통 표지판 정보, 내비게이션 정보, 연료 잔량 정보(1152), 차량 고장 정보, 교통 정보 등이 영상 표시 영역에 표시되도록 투사부(230)를 제어할 수 있다.For example, the
특히, 프로세서(180)는 내비게이션 정보를 표시할 때, 차량 주행 방향 정보를, 화살표, 좌측으로 꺽인 화살표, 우측으로 꺽인 화살표, U자형 화살표 중 적어도 어느 하나로 표시할 수 있다. 즉, 프로세서(180)는 TBT(Turn by turn) 형식으로 표시할 수 있다.In particular, when displaying navigation information, the
예를 들면, 비전모듈(121)이 차량 전방 영상을 획득하는 적어도 하나의 카메라를 포함하는 경우, 프로세서(180)는 상기 차량 전방 영상을 수신하여, 상기 차량 전방 영상에 기초하는 정보가 영상 표시 영역에 표시되도록 투사부(230)를 제어할 수 있다. 예를 들어, 차량 전방 영상에 기초하는 정보는, 전방 오브젝트와의 거리, 전방 오브젝트와의 예상 충돌 시간(TTC : Time To Collision), 검출된 장애물 또는 교통 표지판, 추출된 도로의 노면 정보를 포함할 수 있다.For example, when the
도 11d를 참조하면, 프로세서(180)는 통신부(110)를 통해, 서버(260)와 데이터를 교환할 수 있다. 이때, 서버(260)는 홈서버(home server)일 수 있다. 예를 들면, 집에 설치된 카메라로부터 촬영된 영상은 홈서버에 전달될 수 있다. 프로세서(180)는, 통신부(110)를 통해, 상기 촬영된 영상(1153)을 수신하여, 상기 촬영된 영상(1153)이 영상 표시 영역에 표시되도록, 투사부(230)를 제어할 수 있다.Referring to FIG. 11D, the
도 12는 본 발명의 실시예에 따라, 이동 단말기를 통해, 영상 표시 영역을 제어하는 동작을 설명하는데 참조되는 도면이다.12 is a diagram referenced for describing an operation of controlling an image display area through a mobile terminal according to an embodiment of the present invention.
도 12를 참조하면, 이동 단말기(245)와 차량 운전 보조 장치(100)가 페어링된 상태에서, 프로세서(180)는 이동 단말기(245)의 제어 신호를 수신하여, 투사부(230)를 제어할 수 있다.Referring to FIG. 12, in a state in which the
예를 들어, 이동 단말기(245)와 차량 운전 보조 장치(100)가 페어링된 상태에서, 이동 단말기(245)의 디스플레이부에 핀치 인(pinch in)입력이 수신되는 경우, 프로세서(180)는 상기 핀치 인 입력에 따라 투사부(230)를 제어하여, 광차단부(240)에 표시되는 영상 표시 영역(1210)의 크기를 줄일 수 있다.For example, in a state in which the
예를 들어, 이동 단말기(245)와 차량 운전 보조 장치(100)가 페어링된 상태에서, 이동 단말기(245)의 디스플레이부에 핀치 아웃(pinch out)입력이 수신되는 경우, 프로세서(180)는 상기 핀치 아웃 입력에 따라 투사부(230)를 제어하여, 광차단부(240)에 표시되는 영상 표시 영역(1210)의 크기를 키울 수 있다.For example, in a state in which the
예를 들어, 이동 단말기(245)와 차량 운전 보조 장치(100)가 페어링된 상태에서, 이동 단말기(245)의 디스플레이부에 터치 앤 드래그 입력이 수신되는 경우, 프로세서(180)는 드래그 방향에 따라, 투사부(230)를 제어하여, 광차단부(240)에 표시되는 영상 표시 영역(1210)의 위치를 변경할 수 있다.For example, in a state in which the
도 13은 본 발명의 실시예에 따라 차량 정보를 음성으로 출력하는 동작을 설명하는데 참조되는 도면이다.13 is a diagram referenced for describing an operation of outputting vehicle information as a voice according to an embodiment of the present invention.
도 13을 참조하면, 프로세서(180)는 음향 출력부(220)를 통해, 차량 정보를 음성으로 출력할 수 있다. Referring to FIG. 13, the
예를 들면, 도시된 바와 같이, 프로세서(180)는 잔여 연료량의 상태를 음성으로 출력(1310)할 수 있다. 만약, 잔여 연료량이 부족한 경우, 주변 주유소 검색 여부를 음성(1310)으로 물을 수 있다. 이경우, 프로세서(180)는 마이크로폰(123)을 통해, 음성 명령을 수신할 수 있다.For example, as shown, the
한편, 프로세서(180)는 캘린더 기능을 제공할 수도 있다. 여기서, 캘린더 기능은 차량(10) 내에 구비된 애플리케이션을 통해 제공될 수 있다. 또는, 이동 단말기(245)의 캘린더 기능을 페어링을 통해 제공할 수 있다. 예를 들면, 도시된 바와 같이, 프로세서(180)는 기 설정된 일정에 해당하는 경우, 프로세서(180)는 음향 출력부(220)를 통해, 기 설정된 일정을 음성으로 출력(1320)할 수 있다. 또한, 프로세서(180)는 기 설정된 일정에 대응하는 내비게이션 정보를 음성(1320)으로 출력할 수 있다.Meanwhile, the
도 14는 본 발명의 실시예에 따라, 음성 명령 수신 동작을 설명하는데 참조되는 도면이다.14 is a diagram referenced to explain an operation of receiving a voice command according to an embodiment of the present invention.
도 14를 참조하면, 프로세서(180)는 마이크로폰(123)을 통해, 사용자 음성 명령을 수신할 수 있다. 예를 들면, 도시된 바와 같이, 탑승자가 도로 정체 구간에서 도로 정체 이유를 음성(1410)으로 물을 수 있다. 이경우, 프로세서(180)는 통신부(110)를 통해, 서버(260)에서 정보를 제공받을 수 있다. 여기서, 서버(260)는 교통 정보를 제공하는 서버일 수 있다. 프로세서(180)는 수신한 정보를 음향 출력부(220)를 통해, 음성(1420)으로 출력할 수 있다. 또는, 프로세서(180)는 수신한 정보를 투사부(230) 제어를 통해, 광차단부(240)에 표시할 수 있다.Referring to FIG. 14, the
도 15는 본 발명의 실시예에 따라, 탑승자 시선을 감지하여 영상 표시 영역을 제어하는 동작을 설명하는데 참조되는 도면이다.15 is a diagram referenced for explaining an operation of controlling an image display area by detecting a passenger's gaze according to an embodiment of the present invention.
도 15를 참조하면, 비전모듈에 포함된 카메라는 탑승자의 시선을 촬영할 수 있다. 예를 들면, 카메라는 탑승자의 눈을 촬영할 수 있다. 이경우, 프로세서(180)는 카메라로부터 이미지를 수신한다. 프로세서(180)는 수신된 이미지에서 동공(pupil)을 추출한다. 프로세서(180)는 추출된 동공을 트래킹한다.Referring to FIG. 15, a camera included in the vision module may photograph a passenger's gaze. For example, the camera can photograph the occupant's eyes. In this case, the
만약, 동공이 기 설정된 위치보다 위쪽에 위치하는 경우, 프로세서(180)는 영상 표시 영역(1510)을 활성화 시킬 수 있다. 즉, 탑승자의 시선이 차량 전방을 향하는 경우, 광차단부(240)는 외부에서 유입되는 광을 차단하는 역할만 수행한다. 탑승자의 시선(1520)이 광차단부(240)로 향하는 경우, 프로세서(180)는 투사부(230)를 제어하여, 영상 표시 영역에 상이 ?셜宕돈? 제어하고, 광차단부(240)는 표시 수단으로 역할을 수행할 수 있다.If the pupil is located above the preset position, the
한편, 영상 표시 영역(1510)에는 도 11a 내지 도 11d를 참조하여 설명한 영상이 표시될 수 있다. Meanwhile, the image described with reference to FIGS. 11A to 11D may be displayed in the
도 16은 본 발명의 실시예에 따라, 탑승자의 제스쳐를 감지하는 동작을 설명하는데 참조되는 도면이다.16 is a diagram referenced for describing an operation of detecting a gesture of a passenger according to an embodiment of the present invention.
도 16을 참조하면, 이동 단말기(245)와 페어링된 상태에서, 이동 단말기(245)에 호(call)수신되는 경우, 프로세서(180)는 디스플레이부(210) 또는 음향 출력부(220)를 통해, 호 수신 정보를 출력할 수 있다.Referring to FIG. 16, when a call is received to the
이경우, 탑승자가 기 설정된 제스쳐를 취하는 경우, 프로세서(180)는 제2 카메라(121b)를 통해, 상기 제스쳐 입력을 수신한다. 제스쳐 입력이 전화 수신 동작과 대응되는 제스쳐인 경우, 프로세서(180)는 이동 단말기(245)에 전화 수신 명령을 전송한다. 그에 따라, 이동 단말기(245)는 통화 연결할 수 있다. 이때, 프로세서(180)는 마이크로폰(123)을 통해, 사용자 음성을 수신하고, 음향 출력부(220)를 통해, 수신된 음성을 출력할 수 있다.In this case, when a passenger makes a preset gesture, the
도 17은 본 발명의 실시예에 따라, 문자 메시지 수신 정보 및 호(call)수신 정보를 표시하는 동작을 설명하는데 참조되는 도면이다.17 is a diagram referenced for explaining an operation of displaying text message reception information and call reception information according to an embodiment of the present invention.
도 17의 (a)에 도시된 바와 같이, 이동 단말기(245)와 페어링 된 상태에서, 이동 단말기(245)에 문자 메세지가 수신되는 경우, 프로세서(180)는 통신부(110)를 통해, 문자 메시지를 수신하여, 투사부(230)를 제어하여, 광차단부(240)에 표시한다. 구체적으로, 프로세서(180)는 문자 메시지를 광차단부(240)에 포함된 영상 표시 영역(1710)에 표시한다.As shown in (a) of FIG. 17, when a text message is received from the
도 17의 (b)에 도시된 바와 같이, 이동 단말기(245)와 페어링 된 상태에서, 이동 단말기(245)에 호(call) 신호가 수신되는 경우, 프로세서(180)는 통신부(110)를 통해, 호신호를 수신하여, 투사부(230)를 제어하여, 광차단부(240)에 표시한다. 구체적으로 프로세서(180)는 호수신 이벤트를 광차단부(240)에 포함된 영상 표시 영역(1720)에 표시한다.As shown in (b) of FIG. 17, when a call signal is received from the
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서(170) 또는 ECU(770)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above-described present invention can be implemented as a computer-readable code on a medium on which a program is recorded. The computer-readable medium includes all types of recording devices storing data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is also a carrier wave (eg, transmission over the Internet). Further, the computer may include a processor 170 or an
10 : 차량
100 : 차량 운전 보조 장치
110 : 통신부
110 : 입력부
140 : 센서부
170 : 메모리
180 : 프로세서
190 : 전원 공급부
220 : 음향 출력부
230 : 투사부
240 : 광차단부10: vehicle
100: vehicle driving assistance device
110: communication department
110: input unit
140: sensor unit
170: memory
180: processor
190: power supply
220: sound output unit
230: projection part
240: light blocking part
Claims (18)
상기 광 차단부를 향해 빔(beam)을 투사하는 투사부;
운전자의 시선을 감지하는 적어도 하나의 카메라를 포함하고, 차량 주변 영상 또는 차량 내부 영상을 획득하는 비전 모듈; 및
상기 비전 모듈로부터 영상 정보를 수신하여 상기 투사부에 제공하고, 상기 비전 모듈로부터 수신되는 영상 정보을 기초로, 상기 빔을 통해 상기 광 차단부에 영상을 표시하여 차량 관련 정보를 제공하도록 상기 투사부를 제어하는 프로세서;를 포함하고,
상기 프로세서는,
상기 운전자의 시선을 바탕으로, 상기 빔이 투사되는 영역을 조절하는 차량 운전 보조 장치.A light blocking unit provided inside the vehicle and formed of a translucent material to block light flowing into the vehicle;
A projection unit for projecting a beam toward the light blocking unit;
A vision module including at least one camera detecting a driver's gaze, and obtaining an image around the vehicle or an image inside the vehicle; And
Controls the projection unit to receive image information from the vision module and provide it to the projection unit, and display an image to the light blocking unit through the beam based on the image information received from the vision module to provide vehicle-related information Including;
The processor,
A vehicle driving assistance device that adjusts an area to which the beam is projected based on the driver's gaze.
상기 광 차단부는, 상기 빔을 받아 상이 맺히는 영역;을 포함하고,
상기 영역의 크기는 가변되는 차량 운전 보조 장치.The method of claim 1,
The light blocking unit includes; an area where an image is formed by receiving the beam,
A vehicle driving assistance device in which the size of the area is variable.
상기 광 차단부는, 영상 출력이 가능한 투명 디스플레이로 형성되는 차량 운전 보조 장치.The method of claim 1,
The light blocking unit is a vehicle driving assistance device formed of a transparent display capable of outputting an image.
상기 차량 내부로 유입되는 광의 양을 감지하는 광량 센서;를 더 포함하고,
상기 프로세서는, 상기 광의 양을 바탕으로 상기 투명 디스플레이의 투명도를 조절하는 차량 운전 보조 장치.The method of claim 3,
Further comprising a; a light amount sensor for sensing the amount of light introduced into the vehicle interior,
The processor is a vehicle driving assistance device that adjusts the transparency of the transparent display based on the amount of light.
상기 비전 모듈은,
차량 후방 영상을 획득하는 적어도 하나의 카메라;를 포함하고,
상기 프로세서는, 상기 후방 영상이 상기 광 차단부에 표시되도록 상기 투사부를 제어하는 차량 운전 보조 장치.The method of claim 1,
The vision module,
Including; at least one camera for obtaining a vehicle rear image,
The processor is a vehicle driving assistance device that controls the projection unit so that the rear image is displayed on the light blocking unit.
상기 적어도 하나의 카메라는,
상기 차량의 후미에 구비되어 상기 차량의 후방 영상을 획득하는 제1 카메라;
상기 차량의 좌측에 구비되어 상기 차량의 좌측 후방 영상을 획득하는 제2 카메라; 및
상기 차량의 우측에 구비되어 상기 차량의 우측 후방 영상을 획득하는 제3 카메라;를 포함하고,
상기 프로세서는, 상기 제1 카메라로부터 수신되는 제1 영상, 상기 제2 카메라로부터 수신되는 제2 영상 및 상기 제3 카메라로부터 수신되는 제3 영상을 합성하여 합성 영상을 생성하고, 상기 광 차단부에 상기 합성 영상이 표시되도록 상기 투사부를 제어하는 차량 운전 보조 장치.The method of claim 5,
The at least one camera,
A first camera provided at the rear of the vehicle to obtain a rear image of the vehicle;
A second camera provided on the left side of the vehicle to obtain a left rear image of the vehicle; And
Includes; a third camera provided on the right side of the vehicle to obtain a right rear image of the vehicle,
The processor generates a composite image by synthesizing a first image received from the first camera, a second image received from the second camera, and a third image received from the third camera, and the light blocking unit A vehicle driving assistance device that controls the projection unit to display the synthesized image.
상기 프로세서는, 위에서 바라볼때, 상기 차량의 좌측 바디라인의 연장선(이하, 제1 선)을 기준으로, 상기 제1 선의 우측은 상기 제1 영상에 기초하고, 상기 제1 선의 좌측은 상기 제2 영상에 기초하여 합성하고,
위에서 바라볼때, 상기 차량의 우측 바디라인의 연장선(이하, 제2 선)을 기준으로, 상기 제2 선의 좌측은 상기 제1 영상에 기초하고, 상기 제2 선의 우측은 상기 제3 영상에 기초하여 합성하는 차량 운전 보조 장치.The method of claim 6,
The processor, when viewed from above, is based on an extension line (hereinafter, referred to as the first line) of the left body line of the vehicle, the right side of the first line is based on the first image, and the left side of the first line is the second Composite based on the image,
When viewed from above, based on the extension line (hereinafter, referred to as the second line) of the right body line of the vehicle, the left side of the second line is based on the first image, and the right side of the second line is based on the third image Synthesizing vehicle driving aids.
상기 프로세서는, 상기 제1 카메라 위치를 기준으로, 상기 제2 및 제3 영상에 대한 거리 조절을 하여, 상기 제1 내지 제3 영상을 합성하는 차량 운전 보조 장치.The method of claim 6,
The processor, based on the location of the first camera, adjusts distances for the second and third images, and synthesizes the first to third images.
상기 비전 모듈은,
차량 내부에 구비되어, 차량 내부 영상을 획득하는 적어도 하나의 카메라;를 포함하고,
상기 프로세서는, 상기 차량 내부 영상이 상기 광 차단부에 표시되도록 상기 투사부를 제어하는 차량 운전 보조 장치.The method of claim 1,
The vision module,
Including; at least one camera provided inside the vehicle to obtain an image inside the vehicle,
The processor is a vehicle driving assistance device that controls the projection unit so that the vehicle interior image is displayed on the light blocking unit.
상기 비전 모듈은,
차량 전방 영상을 획득하는 적어도 하나의 카메라;를 포함하고,
상기 프로세서는, 상기 전방 영상에 기초하는 정보가 상기 광 차단부에 표시되도록 상기 투사부를 제어하는 차량 운전 보조 장치.The method of claim 1,
The vision module,
Includes; at least one camera for obtaining an image in front of the vehicle,
The processor is a vehicle driving assistance device that controls the projection unit so that information based on the front image is displayed on the light blocking unit.
상기 광 차단부는 복수의 단(段)으로 접히는(foldable) 차량 운전 보조 장치.The method of claim 1,
The light blocking unit is a vehicle driving assistance device that is folded into a plurality of stages.
사용자 입력을 수신하는 사용자 입력부;를 더 포함하고,
상기 프로세서는,
상기 사용자 입력에 따라 상기 광 차단부의 단을 조절하는 차량 운전 보조 장치.The method of claim 11,
Further comprising a; user input unit for receiving a user input,
The processor,
A vehicle driving assistance device that adjusts an end of the light blocking unit according to the user input.
태양의 위치를 감지하는 태양 센서;를 더 포함하고,
상기 프로세서는,
상기 태양의 위치를 기초로, 상기 광 차단부의 단을 조절하는 차량 운전 보조 장치.The method of claim 12,
A solar sensor for sensing the position of the sun; further comprising,
The processor,
A vehicle driving assistance device that adjusts the stage of the light blocking unit based on the position of the sun.
상기 광 차단부는, 제1 광 차단부 및 상기 제1 광 차단부보다 큰 제2 광차단부를 포함하는 차량 운전 보조 장치.The method of claim 1,
The vehicle driving assistance device includes a first light blocking unit and a second light blocking unit larger than the first light blocking unit.
차량 자세 정보를 수신하는 인터페이스부;를 더 포함하고,
상기 프로세서는, 상기 차량의 자세에 대응하여, 상기 광 차단부에 표시되는 영상이 흔들리지 않도록 상기 빔의 출력을 보정하는 차량 운전 보조 장치.The method of claim 1,
Further comprising; an interface unit for receiving vehicle attitude information,
The processor, in response to the attitude of the vehicle, corrects the output of the beam so that the image displayed on the light blocking unit does not shake.
A vehicle comprising the vehicle driving assistance device according to any one of claims 1 to 15.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140177579A KR102213632B1 (en) | 2014-12-10 | 2014-12-10 | Driver assistance apparatus and Vehicle including the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140177579A KR102213632B1 (en) | 2014-12-10 | 2014-12-10 | Driver assistance apparatus and Vehicle including the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160070525A KR20160070525A (en) | 2016-06-20 |
KR102213632B1 true KR102213632B1 (en) | 2021-02-05 |
Family
ID=56354351
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140177579A KR102213632B1 (en) | 2014-12-10 | 2014-12-10 | Driver assistance apparatus and Vehicle including the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102213632B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014133441A (en) * | 2013-01-09 | 2014-07-24 | Koito Mfg Co Ltd | Anti-dazzle device of vehicle |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100579980B1 (en) * | 2004-07-01 | 2006-05-12 | 현대자동차주식회사 | System for preventing glaring for vehicle |
KR20140136128A (en) * | 2013-05-20 | 2014-11-28 | 주식회사 용산 | Sunvisor having transparent display for vehicles |
-
2014
- 2014-12-10 KR KR1020140177579A patent/KR102213632B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014133441A (en) * | 2013-01-09 | 2014-07-24 | Koito Mfg Co Ltd | Anti-dazzle device of vehicle |
Also Published As
Publication number | Publication date |
---|---|
KR20160070525A (en) | 2016-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10086762B2 (en) | Vehicle display device and vehicle comprising same | |
KR101819000B1 (en) | Lamp for vehicle and Vehicle including the same | |
CN108216032B (en) | Vehicle around-the-eye monitoring device, vehicle operation control device, and vehicle | |
KR101732983B1 (en) | Rear combination lamp for vehicle and Vehicle including the same | |
KR101859047B1 (en) | Headlamp, Adaptive Driver Assistance System and Vehicle | |
KR102130800B1 (en) | Vehicle control device and vehicle comprising the same | |
KR102012776B1 (en) | Around view monitoring apparatus for vehicle and vehicle | |
EP3229458A1 (en) | Driver assistance apparatus | |
KR101965881B1 (en) | Driver assistance apparatus and Vehicle including the same | |
EP3456576B1 (en) | Vehicle control device and vehicle including the same | |
KR101809924B1 (en) | Display apparatus for vehicle and Vehicle including the same | |
KR101924059B1 (en) | Display apparatus for vehicle and Vehicle including the same | |
CN107021017A (en) | Vehicle provides device and vehicle with looking around | |
CN107364390A (en) | Located at the control device, vehicle and its control method of vehicle | |
KR101994699B1 (en) | Driver assistance apparatus and vehicle | |
KR101916728B1 (en) | Vehicle control device mounted at vehicle and method for controlling the vehicle | |
US10703374B2 (en) | Vehicle driving assisting apparatus and vehicle comprising same | |
KR20200095318A (en) | Image output device | |
KR101995489B1 (en) | Vehicle control system and method for controlling the same | |
KR102043954B1 (en) | Robot for vehicle mounted on the vehcile and method for controlling the robot for vehicle | |
KR102213632B1 (en) | Driver assistance apparatus and Vehicle including the same | |
KR20230091870A (en) | Camera module, information processing system, information processing method and information processing device | |
KR102089955B1 (en) | Robot for vehicle mounted on the vehcile and method for controlling the robot for vehicle | |
KR101955984B1 (en) | Vehicle control device mounted on vehicle | |
KR102289421B1 (en) | Vehicle controlling device mounted at vehicle and method for controlling the vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |