KR102227371B1 - 차량용 영상투사장치 및 이를 구비한 차량 - Google Patents

차량용 영상투사장치 및 이를 구비한 차량 Download PDF

Info

Publication number
KR102227371B1
KR102227371B1 KR1020140125104A KR20140125104A KR102227371B1 KR 102227371 B1 KR102227371 B1 KR 102227371B1 KR 1020140125104 A KR1020140125104 A KR 1020140125104A KR 20140125104 A KR20140125104 A KR 20140125104A KR 102227371 B1 KR102227371 B1 KR 102227371B1
Authority
KR
South Korea
Prior art keywords
vehicle
projection
image
unit
information
Prior art date
Application number
KR1020140125104A
Other languages
English (en)
Other versions
KR20160034059A (ko
Inventor
조성호
김지덕
임재혁
이승찬
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020140125104A priority Critical patent/KR102227371B1/ko
Publication of KR20160034059A publication Critical patent/KR20160034059A/ko
Application granted granted Critical
Publication of KR102227371B1 publication Critical patent/KR102227371B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/013Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting collisions, impending collisions or roll-over
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Abstract

본 발명은 차량용 영상투사장치 및 이를 구비한 차량에 관한 것이다. 본 발명의 영상투사장치는, 차량 주변의 오브젝트를 감지하는 오브젝트 감지부와, 차량의 주행 정보를 수신하는 인터페이스부와, 감지된 차량 주변 오브젝트와 차량 주행 정보에 기초하여, 차량 주행과 관련된 정보를 생성하는 프로세서와, 생성된 차량 주행과 관련된 정보를 포함하는 투사 영상을 차량 외부로 투사하는 영상투사부를 포함한다. 이에 의해, 차량 주행과 관련된 정보를 외부에 출력할 수 있게 된다.

Description

차량용 영상투사장치 및 이를 구비한 차량{Image projection apparatus of vehicle and vehicle including the same}
본 발명은 차량용 영상투사장치 및 이를 구비한 차량에 관한 것이며, 더욱 상세하게는 차량 주행과 관련된 정보를 외부에 출력할 수 있는 차량용 영상투사장치 및 이를 구비한 차량에 관한 것이다.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다.
한편, 차량을 이용하는 사용자의 편의를 위해, 각 종 센서와 전자 장치 등이 구비되고 있는 추세이다. 특히, 사용자의 운전 편의를 위한 다양한 장치 등이 개발되고 있으며, 특히, 차량 주행시의 안전을 위해 다양한 노력이 시도되고 있다.
본 발명의 목적은, 차량 주행과 관련된 정보를 외부에 출력할 수 있는 차량용 영상투사장치 및 이를 구비한 차량을 제공함에 있다.
상기 목적을 달성하기 위한 본 발명의 차량용 영상투사장치는, 차량 주변의 오브젝트를 감지하는 오브젝트 감지부와, 차량의 주행 정보를 수신하는 인터페이스부와, 감지된 차량 주변 오브젝트와 차량 주행 정보에 기초하여, 차량 주행과 관련된 정보를 생성하는 프로세서와, 생성된 차량 주행과 관련된 정보를 포함하는 투사 영상을 차량 외부로 투사하는 영상투사부를 포함한다.
한편, 상기 목적을 달성하기 위한 본 발명의 실시예에 따른 차량은, 조향 장치를 구동하는 조향 구동부와, 브레이크 장치를 구동하는 브레이크 구동부와, 동력원을 구동하는 동력원 구동부와, 차량 주변의 오브젝트를 감지하는 오브젝트 감지부, 차량의 주행 정보를 수신하는 인터페이스부, 감지된 차량 주변 오브젝트와 차량 주행 정보에 기초하여, 차량 주행과 관련된 정보를 생성하는 프로세서, 생성된 차량 주행과 관련된 정보를 포함하는 투사 영상을 차량 외부로 투사하는 영상투사부를 포함하는 영상투사장치를 포함한다.
본 발명의 실시예에 따른 차량용 영상투사장치 및 이를 구비한 차량은, 차량 주변의 오브젝트를 감지하는 오브젝트 감지부와, 차량의 주행 정보를 수신하는 인터페이스부와, 감지된 차량 주변 오브젝트와 차량 주행 정보에 기초하여, 차량 주행과 관련된 정보를 생성하는 프로세서와, 생성된 차량 주행과 관련된 정보를 포함함으로써, 차량 주행과 관련된 정보를 외부에 출력할 수 있게 된다. 이에 따라, 운전자는 차량을 운전하면서, 도로면 이나, 외부 오브젝트 등에 투사되는 투사 영상을 바로 확인할 수 있게 된다.
특히, 차량 주행과 관련된 정보로, 추돌 위험 정보나 충돌 위험 정보를 출력할 수 있으며, 이에 의해, 운전자를 보호할 수 있게 된다. 따라서, 사용자의 이용 편의성이 증대될 수 있다.
예를 들어, 차량 주행시, 운전자가 핸들을 조작하여 차량의 진행 방향을 가변하는 경우, 감지되는 차량 주변 오브젝트와의 거리와, 차량 진행 방향 가변을 고려하여, 경고 메시지를 투사 영상으로서 출력함으로써, 사용자의 이용 편의성이 증대될 수 있다.
다른 예로, 주차를 위해, 차량을 후진하는 경우, 차량 주변 오브젝트와, 차량의 진행 방향을 고려하여, 경고 메시지를 투사 영상으로서 출력함으로써, 사용자의 이용 편의성이 증대될 수 있다.
도 1은 본 발명의 일 실시예에 따른 차량의 외관을 도시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 차량용 영상투사장치가 도 1의 헤드 램프에 장착되는 것을 예시하는 도면이다.
도 3은 본 발명의 일 실시예에 따른 차량용 영상투사장치가 도 1의 사이드 미러에 장착되는 것을 예시하는 도면이다.
도 4는 본 발명의 일실시예에 따른 차량용 영상투사장치의 내부 블록도를 예시한다.
도 5는 도 4의 차량용 영상투사장치의 영상투사부의 내부 블록도의 일예를 예시한다.
도 6은 도 4의 차량용 영상투사장치의 오브젝트 감지부의 내부 블록도의 일예를 예시한다.
도 7a는 도 6의 오브젝트 감지부 내의 광 출력부의 광 투사시의 스캐닝 방법을 예시하는 도면이다.
도 7b는 도 6의 차량용 영상투사장치의 거리 검출 방법을 설명하기 위해 참조되는 도면이다.
도 8a는 도 4의 프로세서의 내부 블록도의 일예를 예시한다.
도 8b는 도 8a의 프로세서에서의 오브젝트 검출을 예시하는 도면이다.
도 9는 본 발명의 일실시예에 따른 차량 내부의 블록도의 일예이다.
도 10 내지 도 15b는 차량용 영상투사장치의 동작방법의 설명에 참조되는 도면이다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 단순히 본 명세서 작성의 용이함만이 고려되어 부여되는 것으로서, 그 자체로 특별히 중요한 의미 또는 역할을 부여하는 것은 아니다. 따라서, 상기 "모듈" 및 "부"는 서로 혼용되어 사용될 수도 있다.
본 명세서에서 기술되는 차량은, 자동차, 오토바이를 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.
한편, 본 명세서에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량 등을 모두 포함하는 개념일 수 있다.
도 1은 본 발명의 일 실시예에 따른 차량의 외관을 도시한 도면이다.
도면을 참조하면, 차량(200)은, 동력원에 의해 회전하는 바퀴(103FR,103FL,103RL,..), 차량(200)의 진행 방향을 조절하기 위한 핸들(150), 복수의 사이드 미러(107L,107R), 및 차량(200)에 장착되는 복수의 헤드 램프(10L,10R)를 구비할 수 있다.
한편, 본 발명의 실시예에 따른 차량용 영상투사장치(도 4의 100)는, 차량 주변의 오브젝트를 감지하는 오브젝트 감지부(도 4의 20)와, 차량의 주행 정보를 수신하는 인터페이스부(도 4의 130)와, 감지된 차량 주변 오브젝트와 차량 주행 정보에 기초하여, 차량 주행과 관련된 정보를 생성하는 프로세서(도 4의 170)와, 생성된 차량 주행과 관련된 정보를 포함하는 투사 영상을 차량 외부로 투사하는 영상투사부(도 4의 180)를 포함한다.
이에 따라, 운전자는 차량을 운전하면서, 도로면 이나, 외부 오브젝트 등에 투사되는 투사 영상을 바로 확인할 수 있게 된다.
특히, 차량 주행과 관련된 정보로, 추돌 위험 정보나 충돌 위험 정보를 출력할 수 있으며, 이에 의해, 운전자를 보호할 수 있게 된다. 따라서, 사용자의 이용 편의성이 증대될 수 있다.
예를 들어, 차량 주행시, 운전자가 핸들을 조작하여 차량의 진행 방향을 가변하는 경우, 감지되는 차량 주변 오브젝트와의 거리와, 차량 진행 방향 가변을 고려하여, 경고 메시지를 투사 영상으로서 출력함으로써, 사용자의 이용 편의성이 증대될 수 있다.
다른 예로, 주차를 위해, 차량을 후진하는 경우, 차량 주변 오브젝트와, 차량의 진행 방향을 고려하여, 경고 메시지를 투사 영상으로서 출력함으로써, 사용자의 이용 편의성이 증대될 수 있다.
한편, 본 발명의 실시예에 따른 차량용 영상투사장치(도 4의 100)는, 복수의 헤드 램프(10L,10R) 내에 또는, 사이드 미러(107L,107R) 내에 장착될 수 있다. 이에 대해서는 도 2 내지 도 3을 참조하여 후술한다.
도 2는 본 발명의 일 실시예에 따른 차량용 영상투사장치가 도 1의 헤드 램프에 장착되는 것을 예시하는 도면이고, 도 3은 본 발명의 일 실시예에 따른 차량용 영상투사장치가 도 1의 사이드 미러에 장착되는 것을 예시하는 도면이다.
먼저, 도 2를 참조하면, 차량용 영상투사장치(100L,100R)는, 복수의 헤드 램프(10L,10R) 내에 장착될 수 있다.
본 발명의 실시예에 따른 차량용 영상투사장치(100L,100R)는, 차량 주변의 오브젝트를 감지하고, 감지된 차량 오브젝트와 차량의 주행 정보에 기초하여, 차량 주행과 관련된 정보를 투사 영상으로서 외부로 출력한다.
이를 위해, 영상투사장치(100L,100R)는, 출력광을 차량 전방에 출력하는 광 출력부(도 4의 60)와, 출력광에 대응하는 수신광을 수신하는 광 수신부(도 4의 70)를 구비하는 오브젝트 감지부(도 4의 20)를 구비할 수 있다.
여기서, 출력광은, 외부의 자연광과 구별가능한, 구조화된 가시광, 또는 적외선광일 수 있다. 적외선광(IR)을 이용하는 경우, 주간은 물론 야간에도 안정적으로 이용 가능하게 된다. 이하에서는 적외선광(IR)을 중심으로 기술한다.
이러한 적외선광(IR)은, 도 2와 같이, 복수의 헤드 램프(10L,10R)를 통해, 전방(522)으로 출력되며, 전방의 각 오브젝트에서 반사 또는 산란되는 수신광이, 오브젝트 감지부(도 4의 20)로 수신될 수 있다.
차량용 영상투사장치(100L,100R)는, 이러한 출력광과 수신광의 위상 차이에 의해, 각 오브젝트에 대한 거리를 연산할 수 있다.
다음, 도 3을 참조하면, 차량용 영상투사장치(100L,100R)는, 복수의 사이드 미러(107L,107R) 내에 장착될 수 있다.
도 3의 차량용 영상투사장치(100L,100R)는, 복수의 사이드 미러(107L,107R)를 통해, 적외선광(IR)을 전방(522)으로 출력하며, 전방의 각 오브젝트에서 반사 또는 산란되는 수신광을, 수신할 수 있다.
차량용 영상투사장치(100L,100R)는, 이러한 출력광과 수신광의 위상 차이에 의해, 각 오브젝트에 대한 거리를 연산할 수 있다.
한편, 도 2 내지 도 3과 달리, 오브젝트 감지를 위해, 레이저를 이용하거나, Lidar를 이용하는 것도 가능하다. 또는, 스테레오 카메라를 이용할 수도 있다. 스테레오 카메라 방식은, 촬영된 스테레오 이미지의 시차를 이용하여, 각 오브젝트에 대한 거리 정보를 연산하며, 아울러, 촬영 이미지도 획득할 수 있게 된다.
도 4는 본 발명의 일실시예에 따른 차량용 영상투사장치의 내부 블록도를 예시한다.
도면을 참조하면, 도 4의 차량용 영상투사장치(100)는, 차량 주변의 오브젝트를 감지하는 오브젝트 감지부(20)와, 차량의 주행 정보를 수신하는 인터페이스부(130)와, 감지된 차량 주변 오브젝트와 차량 주행 정보에 기초하여, 차량 주행과 관련된 정보를 생성하는 프로세서(170)와, 생성된 차량 주행과 관련된 정보를 포함하는 투사 영상을 차량 외부로 투사하는 영상투사부(180)를 포함한다.
그 외, 차량용 영상투사장치(100)는, 통신부(120), 인터페이스부(130), 메모리(140), 조도센서(160), 오디오 출력부(185), 전원 공급부(190)를 구비할 수 있다. 그 외, 오디오 입력부(미도시)를 구비하는 것도 가능하다.
오브젝트 감지부(20)는, 출력광을 차량 전방에 출력하는 광 출력부(60)와, 출력광에 대응하는 수신광을 수신하는 광 수신부(70)를 구비할 수 있다.
광 출력부(60)는, 출력광을 출력하는 광원부와, 출력광을 스캐닝 방식에 의해 외부로 출력하는 스캐너(도 6의 57)를 구비할 수 있다.
스캐너(도 6의 57)에 의해, 출력광의 출력 방향, 출력 거리, 출력 각도, 프레임 레이트 등의 가변이 가능하게 된다.
한편, 광 수신부(70)는, 외부의 오브젝트에서 출력광이 반사 또는 산란되는 경우, 반사 또는 산란되는 수신광을 수신한다. 이를 위해, 광 수신부(70)는, 수신광을 전기 신호를 변환하는 광전 변환부를 구비할 수 있다.
한편, 프로세서(170)는, 출력광에 기초한 전기 신호와 수신광에 기초한 전기 신호의 위상 차이에 기초하여, 차량 주변 오브젝트에 대한 거리를 연산할 수 있다.
영상투사부(180)는, 차량 외부에 투사 영상을 출력할 수 있다. 특히, 대략 50m 전방까지, 투사 영상을 출력할 수 있다. 이를 위해, 광원으로서, 직진성이 좋은 레이저 다이오드를 사용하는 것이 바람하다.
영상투사부(180)는, 투사 영상에 대응하는 가시광을 출력하는 레이저 다이오드(도 5의 210)를 구비할 수 있다. 한편, 투사 영상의 출력 방향, 출력 각도, 출력 거리 등의 조정을 위해, 가시광을 스캐닝 방식에 의해 외부로 출력하는 스캐너(도 5의 240)를 더 포함할 수 있다.
영상투사부(180)는, 운전중인 사용자가 육안으로 확인 가능하도록, 차량 외부의 도로면에, 또는, 벽과 같은 차량 주변 오브젝트에, 투사 영상을 출력할 수 있다.
영상투사부(180)는, 마주 오는 차량 운전자의 시야 방해를 방지하기 위해, 움직이는 오브젝트 외의 고정 오브젝트에 투사 영상을 출력할 수 있다.
이러한, 투사 영상에 대한, 출력 방향, 출력 각도, 출력 거리 등의 조정은, 감지되는 오브젝트에 기초하여, 프로세서(170)의 제어에 의해 수행될 수 있다.
프로세서(170)는, 감지된 차량 주변 오브젝트에 대한 거리를 연산하고, 연산된 거리, 및 차량의 속도, 진행 방향, 회전 방향 중 적어도 하나에 기초하여, 차량 외부로 출력되는 투사 영상의, 투사 각도, 투사 거리, 투사 방향, 휘도, 색상 중 적어도 하나를 가변할 수 있다.
예를 들어, 프로세서(170)는, 운전자가 핸들을 조작하여 차량의 진행 방향을 좌측으로 회전하는 경우, 차량 좌측에 주행하는 주변 차량과의 거리를 고려하여, 추돌 위험 정보를 포함하는 투사 영상이 도로면에 표시되도록 제어할 수 있다.
다른 예로, 프로세서(170)는, 운전자가 핸들을 조작하여 차량의 진행 방향을 우측으로 회전하는 경우, 차량 우측에 위치하는 벽 또는 인도와의 거리를 고려하여, 추돌 위험 정보를 포함하는 투사 영상이 벽 또는 인도 상에 표시되도록 제어할 수 있다.
또 다른 예로, 프로세서(170)는, 차량을 후진하면서 핸들을 조작하여 차량의 진행 방향을 우측으로 회전하는 경우, 차량 후방 좌측에 위치하는 후방 차량 등과의 거리를 고려하여, 추돌 또는 충돌 위험 정보를 포함하는 투사 영상이 도로면에 표시되도록 제어할 수 있다.
통신부(120)는, 이동 단말기(600) 또는 서버(500)와 무선(wireless) 방식으로, 데이터를 교환할 수 있다. 특히, 통신부(120)는, 차량 운전자의 이동 단말기와, 무선으로 데이터를 교환할 수 있다. 무선 데이터 통신 방식으로는, 블루투스(Bluetooth), WiFi Direct, WiFi, APiX 등 다양한 데이터 통신 방식이 가능하다.
통신부(120)는, 이동 단말기(600) 또는 서버(500)로부터, 날씨 정보, 도로의 교통 상황 정보, 예를 들어, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다.
한편, 통신부(120)는, 이동 단말기(600) 또는 서버(500)로부터, 도로 구조 정보 등을 수신할 수 있으며, 프로세서(170)는, 이러한 도로 구조 정보를 이용하여, 상술한 위험 정보를 포함하는 투사 영상이 도로면에 표시되도록 제어할 수 있다.
인터페이스부(130)는, 차량 내부의 다른 장치와의 데이터 교환을 위한 인터페이스를 제공한다.
인터페이스부(130)는, 유선 통신 또는 무선 통신 방식에 의해, 차량 내부의 ECU(770), AVN(Audio Video Navigation) 장치(400), 센서부(760) 등과 데이터 통신을 수행할 수 있다.
인터페이스부(130)는, AVN 장치(400)와의 데이터 통신에 의해, 차량 주행과 관련한, 맵(map) 정보를 수신할 수 있다.
한편, 인터페이스부(130)는, ECU(770) 또는 센서부(760)로부터, 센서 정보를 수신할 수 있다.
여기서, 센서 정보는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보 중 적어도 하나를 포함할 수 있다.
한편, 센서 정보 중, 차량 주행과 관련한, 차량 방향(조향) 정보, 차량 위치 정보, 차량 각도 정보, 차량 속도 정보, 차량 기울기 정보 등을 차량 주행 정보라 명명할 수 있다.
메모리(140)는, 프로세서(170)의 처리 또는 제어를 위한 프로그램 등, 차량용 영상투사장치(100) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
조도센서(160)는, 차량 외부의 조도를 센싱할 수 있다. 특히, 차량 전방의 외부의 조도를 센싱할 수 있다. 센싱된 외부의 조도는, 프로세서(170)로 전달된다.
오디오 입력부(미도시)는, 사용자 음성을 입력받을 수 있다. 이를 위해, 마이크를 구비할 수 있다. 수신되는 음성은, 전기 신호로 변환하여, 프로세서(170)로 전달될 수 있다.
프로세서(170)는, 차량용 영상투사장치(100) 내의 각 유닛의 전반적인 동작을 제어한다.
한편, 프로세서(170)는, 감지된 차량 주변 오브젝트와 차량 주행 정보에 기초하여, 차량 주행과 관련된 정보를 생성할 수 있다.
한편, 프로세서(170)는, 감지된 차량 주변 오브젝트에 대한 거리를 연산하고, 연산된 거리, 및 차량의 속도, 진행 방향, 회전 방향 중 적어도 하나에 기초하여, 차량 외부로 출력되는 투사 영상의, 투사 각도, 투사 거리, 투사 방향, 휘도, 색상 중 적어도 하나를 가변할 수 있다.
한편, 프로세서(170)는, 조도센서(160)에서 감지되는 외부 조도에 더 기초하여, 차량 외부로 출력되는 차량 외부로 출력되는 투사 영상의, 투사 각도, 투사 거리, 투사 방향, 휘도, 색상 중 적어도 하나를 가변할 수 있다.
한편, 프로세서(170)는, 차량 후진시, 차량에 장착되는 사이드 미러를 통해, 출력되는 투사 영상이 확인 가능하도록, 투사 영상의, 투사 각도, 투사 거리, 투사 방향을 설정할 수도 있다.
한편, 프로세서(170)는, 출력광과 수신광의 위상 차이에 기초하여, 차량 전방에 대한 디스패러티 맵을 생성하며, 디스패러티 맵에 기초하여, 차량 전방에 위치하는 오브젝트에 대한 거리 및 위치를 검출하고, 오브젝트 검출 이후, 계속적으로, 오브젝트의 움직임을 트래킹할 수 있다.
특히, 프로세서(170)는, 오브젝트 검출시, 차선 검출(Lane Detection), 주변 차량 검출(vehicle Detection), 보행자 검출(Pedestrian Detection), 도로면 검출 등을 수행할 수 있다.
한편, 프로세서(170)는, 인터페이스부(130)를 통해, ECU(770) 또는 센서부(760)로부터, 센서 정보를 수신할 수 있다. 여기서, 센서 정보는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보 중 적어도 하나를 포함할 수 있다.
오디오 출력부(185)는, 프로세서(170)에서 처리된 오디오 신호에 기초하여 사운드를 외부로 출력한다. 이를 위해, 오디오 출력부(185)는, 적어도 하나의 스피커를 구비할 수 있다.
전원 공급부(190)는, 프로세서(170)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(190)는, 차량 내부의 배터리 등으로부터 전원을 공급받을 수 있다.
도 5는 도 4의 차량용 영상투사장치의 영상투사부의 내부 블록도의 일예를 예시한다.
도면을 참조하면, 도 5의 영상투사부(180)는, 광학부(205)와, 구동부(186)를 구비한다.
광학부(205)는, 복수의 광원을 구비하는 광원부(210)를 구비할 수 있다. 즉, 적색 광원부(210R), 녹색 광원부(210G), 청색 광원부(210B)를 구비할 수 있다. 이때, 적색 광원부(210R), 녹색 광원부(210G), 청색 광원부(210B)는, 각각 적색, 녹색, 청색 레이저 다이오드를 구비할 수 있다.
한편, 각 광원부(210R,210G,210B)는, 구동부(185)로부터의 각 전기 신호에 의해, 구동될 수 있으며, 이러한 구동부(185)의 전기 신호는, 프로세서(170)의 제어에 의해, 생성될 수 있다.
각 광원부(210R,210G,210B)에서 출력되는 잭색,녹색,청색광들은, 집광부(212) 내의 각 집광 렌즈(collimator lens)를 통해, 시준된다(collimate).
광합성부(220)는, 각 광원부(210R,210G,210B)에서에서 출력되는 광을 합성하여 일 방향으로 출력한다. 이를 위해, 광합성부(220)는, 3개의 2D MEMS 미러(mirror)(220a,220b,220c)를 구비할 수 있다.
즉, 제1 광합성부(220a), 제2 광합성부(220b), 제3 광합성부(220c)는, 각각, 적색 광원부(210R)에서 출력되는 적색광, 녹색 광원부(210G)에서 출력되는 녹색광, 청색 광원부(210B)에서 출력되는 청색광을, 스캐너(240) 방향으로 출력하도록 한다.
광반사부(256)는, 광합성부(220)를 통과한 적색광,녹색광,청색광을 스캐너(240) 방향으로 반사시킨다. 광반사부(256)는, 다양한 파장의 광을 반사시키며, 이를 위해, Total Mirror(TM)로 구현될 수 있다.
한편, 스캐너(240)는, 광원부(210)으로부터의 적색광,녹색광,청색광에 기초한 가시광(RGB)을, 입력받아, 외부로 제1 방향 스캐닝 및 제2 방향 스캐닝을 순차적으로, 그리고 반복적으로 수행할 수 있다. 이와 같은 스캐닝 동작을, 외부 스캔 영역의 전체에 대해, 반복하여 수행한다. 이에 의해, 외부로 가시광(RGB)에 대응하는 투사 영상이 표시될 수 있다.
도 6은 도 4의 차량용 영상투사장치의 오브젝트 감지부의 내부 블록도의 일예를 예시한다.
도면을 참조하면, 오브젝트 감지부(20)는, 광 출력부(60)와 광 수신부(70)를 구비한다.
광 출력부(60)는, 레이더 다이오드 구동부(61), 레이저 다이오드(62), 집광 렌즈(collimator lens; CL)(63), 미러(65), 스캐너(57)를 포함할 수 있다.
레이더 다이오드 구동부(61)는, 프로세서(170)로부터의 구동 신호에 기초하여, 적외선광 또는 구조화된 적외선광을 출력하는 레이저 다이오드(62)를 구동하도록 제어할 수 있다. 특히, 구동 신호의 레벨, 펄스폭 등에 의해, 적외선광 또는 구조화된 적외선광의 세기 등을 조정할 수 있다.
레이저 다이오드(62)에서 출력되는 적외선광은, 집광 렌즈(63)를 거쳐, 미러(65)로 입사되며, 미러(65)는, 적외선광 또는 구조화된 적외선광의 광 경로를 변경하여, 스캐너(57) 방향으로 전달한다.
스캐너(57)는, 적외선광 또는 구조화된 적외선광을 입력받아, 제1 방향 스캐닝 및 제2 방향 스캐닝을 하여, 적외선광 또는 구조화된 적외선광을 외부 영역으로 출력한다.
특히, 스캐너(57)는, 주간 또는 야간의 차량 주행시, 전방(522)에 대해, 적외선광 또는 구조화된 적외선광(IR)을 출력할 수 있다.
한편, 프로세서(170)는, 스캐너(57)를 제어할 수 있다. 구체적으로, 스캐너의 제1 방향 스캐닝의 각도 또는 제2 방향 스캐닝의 각도를 조절할 수 있다. 스캐닝 각도 조절에 의해, 출력되는 적외선광(IR)의 출력 방향이 가변될 수 있다.
또한, 프로세서(170)는, 스캐너(57)의 스캐닝 주파수를 가변할 수도 있다. 스캐닝 주파수를 60Hz에서 30Hz로 감소시키는 경우, 동일 외부 영역에 대해, 해상도가 증가한 스캐닝이 수행될 수 있게 된다. 따라서, 보다 자세한 거리 정보를 획득할 수도 있게 된다.
광 수신부(70)는, 적외선광에 대응는 수신광(IR)을 수신할 수 있다.
광 수신부(70)는, 수신광을 수신하여 집광하는 집광 렌즈(collimator lens; CL)(71), 적외선 통과 필터(72)와, 적외선 통과 필터를 통과한 수신광을 전기 신호로 변환하는 광 검출부(74)의 일예로서, TOF 센서(Time of Flight sensor)(75)를 구비할 수 있다. TOF 센서(75)에서 변환된 전기 신호는 프로세서(170)로 입력될 수 있다.
한편, 적외선 통과 필터(72)는 적외선광을 통과하고, 다른 파장의 광을 차단하기 위한 것으로서, 선택적으로 구비되는 것도 가능하다.
한편, 도 5와 도 6에서는, 투사 영상을 위한 스캐너(240)와 적외선광 출력을 위한 스캐너(57)를 각각 도시하였으나, 투사 영상 출력과, 적외선광 출력을 위한 스캐너가 공통으로 사용되는 것도 가능하다.
즉, 도 5의 영상투사부(180)와 도 6의 오브젝트 감지부(20)가 하나의 모듈로 구현되어, 스캐너를 공통으로 사용하는 것이 가능하다. 또는, 도 5의 영상투사부(180)와 도 6의 오브젝트 감지부(20)가 각각 구현되며, 스캐너만 공통으로 사용하는 것도 가능하다.
도 7a는 도 6의 오브젝트 감지부 내의 광 출력부의 광 투사시의 스캐닝 방법을 예시하는 도면이다.
도면을 참조하면, 광 출력부(60)는, 레이저 다이오드(62), 미러(65), 스캐너(67)를 포함할 수 있다.
한편, 광 출력부(60)에서 출력되는 광 파장은 적외선 광에 대응하는 파장일 수 있다.
레이저 다이오드(62)에서 출력되는 적외선광(IR)은, 미러(65)에서 반사, 및 산란되어, 스캐너(67)로 입사될 수 있다.
한편, 스캐너(67)는, 미러(65)로부터의 적외선광(IR)을, 입력받아, 외부로 제1 방향 스캐닝 및 제2 방향 스캐닝을 순차적으로, 그리고 반복적으로 수행할 수 있다.
도면과 같이, 스캐너(67)는, 스캐닝 가능한 영역을 중심으로, 외부 영역(40)에 대해, 사선 방향 또는 수평 방향으로, 좌에서 우로 스캐닝을 수행하고, 우에서 좌로 스캐닝을 수행할 수 있다. 그리고, 이와 같은 스캐닝 동작을, 외부 영역(40)의 전체에 대해, 반복하여 수행할 수 있다.
한편, 외부 영역(40)으로 출력되는 적외선광(IR)은, 외부 영역(40)에서 산란 또는 반사되어, 광 수신부(70)에 입사될 수 있다. 예를 들어, 스캐너(67)는, 외부로 출력되는 적외선광(IR)에 대응하는 수신광을 수신할 수 있다.
프로세서(170)는, 출력되는 적외선광(IR)과, 적외선광(IR)에 대응하는 수신광을 비교하고, 그 차이를 이용하여, 거리를 검출할 수 있다. 거리 검출 기법에 대해서는, 다양한 방법이 있으나, 본 발명의 실시예에서는, 위상 차이를 이용한 방법을 예시한다. 이에 대해서는 도 7b를 참조하여 후술한다.
한편, 광 출력부(60)에서, 산출되는 거리 정보는, 도 8b와 같은, 휘도 영상(520)으로서 표현될 수 있다. 외부 대상물의 다양한 거리 값(distance value)은, 대응하는 휘도 레벨로서 표시 가능하다. 거리가 가까운 경우, 휘도 레벨이 클 수(밝기가 밝을 수) 있으며, 깊이가 먼 경우 휘도 레벨이 작을 수(밝기가 어두울 수) 있다.
한편, 외부 영역(40)은, 도 7a와 같이, 제1 영역(42)과 제2 영역(44)으로 구분될 수 있다. 여기서, 제1 영역(42)은, 외부 대상물(43)을 포함하는 영역, 즉 유효 영역(active area)(42)일 수 있으며, 제2 영역(44)은, 외부 대상물(43)을 포함하지 않는 영역, 즉 블랭크 영역(blank area)(44)일 수 있다.
이에 따라, 전체 스캐닝 구간도, 외부 대상물이 존재하는 영역인 유효 영역(active area)(42)에 대응하는 제1 스캐닝 구간과, 외부 대상물이 존재하지 않는 영역인 블랭크 영역(blank area)(44)에 대응하는 제2 스캐닝 구간으로 구분될 수도 있다.
도 7b는 도 6의 차량용 영상투사장치의 거리 검출 방법을 설명하기 위해 참조되는 도면이다.
여기서, Tx는 출력되는 적외선광(IR)의 위상 신호, Rx는 수신광의 위상 신호를 나타낸다.
도면을 참조하면, 차량용 영상투사장치(100)의 프로세서(170)는, 출력되는 적외선광(IR)의 위상 신호와 적외선광(IR)의 위상 신호의 위상 차이(Φ)에 따라, 거리 정보 레벨을 산출할 수 있다.
예를 들어, 위상 차이가 클수록, 외부 대상물이 멀리 있는 것이므로, 거리 정보 레벨이 크도록 설정할 수 있으며, 위상 차이가 작을수록, 외부 대상물이 가깝게 있는 것이므로, 거리 정보 레벨이 작도록 설정할 수 있다.
이러한, 거리 레벨 설정은, 상술한 바와 같이, 외부 영역(40)을 수평 스캐닝 및 수직 스캐닝하면서, 외부 영역(40) 내의 각 영역 별로 수행될 수 있다. 한편, 외부 영역(40)의 각 영역 별로, 거리 정보 레벨의 검출이 가능하다.
도 8a는 도 4의 프로세서의 내부 블록도의 일 예를 예시하고, 도 8b는 도 8a의 프로세서에서의 오브젝트 검출을 예시하는 도면이다.
먼저, 도 8a를 참조하면, 도 8a는, 프로세서(170)의 내부 블록도의 일예로서, 차량용 영상투사장치(100) 내의 프로세서(170)는, 영상 전처리부(410), 디스패러티 연산부(420), 오브젝트 검출부(434), 오브젝트 트래킹부(440), 및 어플리케이션부(450)를 구비할 수 있다.
영상 전처리부(image preprocessor)(410)는, 출력되는 적외선광(IR)에 대응하는 구동 신호와, 수신광에 대응하는 구동 신호를 수신하여, 전처리(preprocessing)를 수행할 수 있다.
구체적으로, 영상 전처리부(410)는, 출력되는 적외선광(IR)에 대응하는 구동 신호와, 수신광에 대응하는 구동 신호에 대한, 노이즈 리덕션(noise reduction), 렉티피케이션(rectification), 캘리브레이션(calibration), 인터폴레이션(interpolation), 등을 수행할 수 있다.
디스패러티 연산부(disparity calculator)(420)는, 영상 전처리부(410)에서 신호 처리된, 출력되는 적외선광(IR)에 대응하는 구동 신호와, 수신광에 대응하는 구동 신호를 수신하고, 각 구동 신호의 위상 차이에 기초하여, 거리 정보를 산출할 수 있으며, 거리 정보에 기초하여, 외부 영역(40)에 대한, 디스패러티 맵(dispartiy map)을 획득한다. 즉, 차량 주변에 대한, 디스패러티 정보를 획득할 수 있다.
세그멘테이션부(segmentation unit)(432)는, 디스패러티 연산부(420)로부터의 디스페러티 정보에 기초하여, 디스패러티 맵 내의 세그먼트(segment) 및 클러스터링(clustering)을 수행할 수 있다.
구체적으로, 세그멘테이션부(432)는, 디스페러티 정보에 기초하여, 디스패러티 맵에 대해, 배경(background)과 전경(foreground)을 분리할 수 있다.
예를 들어, 디스패리티 맵 내에서 디스페러티 정보가 소정치 이하인 영역을, 배경으로 연산하고, 해당 부분을 제외시킬 수 있다. 이에 의해, 상대적으로 전경이 분리될 수 있다.
다른 예로, 디스패리티 맵 내에서 디스페러티 정보가 소정치 이상인 영역을, 전경으로 연산하고, 해당 부분을 추출할 수 있다. 이에 의해, 전경이 분리될 수 있다.
이와 같이, 추출된 디스페러티 정보 정보에 기초하여, 전경과 배경을 분리함으로써, 이후의, 오브젝트 검출시, 신호 처리 속도, 신호 처리 양 등을 단축할 수 있게 된다.
다음, 오브젝트 검출부(object detector)(434)는, 세그멘테이션부(432)로부터의 세그먼트에 기초하여, 오브젝트를 검출할 수 있다.
즉, 오브젝트 검출부(434)는, 디스페러티 정보에 기초하여, 디스패러티 맵에 대해, 오브젝트를 검출할 수 있다.
구체적으로, 오브젝트 검출부(434)는, 세그먼트에 의해 분리된 전경으로부터 오브젝트를 검출할 수 있다.
다음, 오브젝트 확인부(object verification unit)(436)는, 분리된 오브젝트를 분류하고(classify), 확인한다(verify).
이를 위해, 오브젝트 확인부(436)는, 뉴럴 네트워크(neural network)를 이용한 식별법, SVM(Support Vector Machine) 기법, Haar-like 특징을 이용한 AdaBoost에 의해 식별하는 기법, 또는 HOG(Histograms of Oriented Gradients) 기법 등을 사용할 수 있다.
한편, 오브젝트 확인부(436)는, 메모리(140)에 저장된 오브젝트들과, 검출된 오브젝트를 비교하여, 오브젝트를 확인할 수 있다.
예를 들어, 오브젝트 확인부(436)는, 차량 주변에 위치하는, 주변 차량, 차선, 도로면, 표지판, 위험 지역, 터널 등을 확인할 수 있다.
오브젝트 트래킹부(object tracking unit)(440)는, 확인된 오브젝트에 대한 트래킹을 수행한다. 예를 들어, 순차적으로, 획득되는 디스패러티 맵들에 내의, 오브젝트를 확인하고, 확인된 오브젝트의 움직임 또는 움직임 벡터를 연산하며, 연산된 움직임 또는 움직임 벡터에 기초하여, 해당 오브젝트의 이동 등을 트래킹할 수 있다. 이에 따라, 차량 주변에 위치하는, 주변 차량, 차선, 도로면, 표지판, 위험 지역, 등을 트래킹할 수 있게 된다.
도 8b는, 디스패러티 맵을 기반으로 하여, 도 8b의 프로세서(170)의 동작 방법 설명을 위해 참조되는 도면이다.
도 8b를 참조하면, 프로세서(170) 내의 디스패러티 연산부(420)는, 영상 전처리부(410)에서 신호 처리된, 출력되는 적외선광(IR)에 대응하는 구동 신호와, 수신광에 대응하는 구동 신호를 수신하고, 각 구동 신호의 위상 차이에 기초하여, 거리 정보를 산출할 수 있으며, 거리 정보에 기초하여, 외부 영역(40)에 대한, 디스패러티 맵(dispartiy map)(520)을 획득한다. 즉, 차량 주변에 대한, 디스패러티 정보를 획득할 수 있다.
디스패러티 맵(dispartiy map)(520)은, 거리 정보를 레벨화 한 것으로서, 디스패러티 레벨이 클수록, 차량과의 거리가 가깝고, 디스패러티 레벨이 작을수록, 차량과의 거리가 먼 것으로 연산할 수 있다.
한편, 이러한 디스패러티 맵을 디스플레이 하는 경우, 디스패러티 레벨이 클수록, 높은 휘도를 가지고, 디스패러티 레벨이 작을수록 낮은 휘도를 가지도록 표시할 수도 있다.
도면에서는, 디스패러티 맵(520) 내에, 제1 차선 내지 제4 차선(528a,528b,528c,528d) 등이 각각 해당하는 디스패러티 레벨을 가지며, 공사 지역(522), 제1 전방 차량(524), 제2 전방 차량(526)이 각각 해당하는 디스패러티 레벨을 가지는 것을 예시한다.
세그멘테이션부(432)와, 오브젝트 검출부(434), 오브젝트 확인부(436)는, 디스패러티 맵(520)에 대한, 세그먼트, 오브젝트 검출, 및 오브젝트 확인을 수행한다.
도면에서는, 디스패러티 맵(520)을 사용하여, 오브젝트 검출, 및 확인이 수행되는 것을 예시한다.
한편, 계속적으로, 이미지를 획득함으로써, 한편, 오브젝트 트래킹부(440)는, 확인된 오브젝트에 대한 트래킹을 수행할 수 있다.
도 9는 본 발명의 일실시예에 따른 차량 내부의 블록도의 일예이다.
도면을 참조하면, 차량(200)은 차량 제어를 위한 전자 제어 장치(700)를 구비할 수 있다. 전자 제어 장치(700)는, AVN 장치(400)와 데이터를 교환할 수 있다.
전자 제어 장치(700)는, 오브젝트 감지부(20), 영상투사부(180), 조도 센서(160), 입력부(710), 통신부(720), 메모리(740), 램프 구동부(751), 조향 구동부(752), 브레이크 구동부(753), 동력원 구동부(754), 썬루프 구동부(755), 서스펜션 구동부(756), 공조 구동부(757), 윈도우 구동부(758), 에어백 구동부(759), 센서부(760), ECU(770), 영상투사부(180), 오디오 출력부(785), 전원 공급부(790)를 구비할 수 있다.
여기서, 오브젝트 감지부(20), 영상투사부(180), 조도 센서(160)에 대한 설명은, 도 1 내지 도 8b에서 기술한 내용을 참조하여 생략한다.
한편, ECU(770)는 프로세서를 포함하는 개념일 수 있다. 따라서, 도 4에서 기술한 프로세서(170)의 동작이, ECU(770)에서 수행되는 것이 가능하다.
즉, ECU(770)는, 감지된 차량 주변 오브젝트에 대한 거리를 연산하고, 연산된 거리, 및 차량의 속도, 진행 방향, 회전 방향 중 적어도 하나에 기초하여, 차량 외부로 출력되는 투사 영상의, 투사 각도, 투사 거리, 투사 방향, 휘도, 색상 중 적어도 하나를 가변할 수 있다. 이러한, ECU(770)의 동작에 대해서는, 도 4에서 기술한 프로세서(170)의 동작을 참조하여 생략한다.
입력부(710)는, 차량(200) 내부에 배치되는 복수의 버튼 또는 터치 스크린을 구비할 수 있다. 복수의 버튼 또는 터치 스크린을 통해, 다양한 입력 동작을 수행하는 것이 가능하다.
통신부(720)는, 이동 단말기(600) 또는 서버(500)와 무선(wireless) 방식으로, 데이터를 교환할 수 있다. 특히, 통신부(720)는, 차량 운전자의 이동 단말기와, 무선으로 데이터를 교환할 수 있다. 무선 데이터 통신 방식으로는, 블루투스(Bluetooth), WiFi Direct, WiFi, APiX 등 다양한 데이터 통신 방식이 가능하다.
통신부(720)는, 이동 단말기(600) 또는 서버(500)로부터, 날씨 정보, 도로의 교통 상황 정보, 예를 들어, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다.
한편, 사용자가 차량에 탑승한 경우, 사용자의 이동 단말기(600)와 전자 제어 장치(700)는, 자동으로 또는 사용자의 애플리케이션 실행에 의해, 서로 페어링을 수행할 수 있다.
메모리(740)는, ECU(770)의 처리 또는 제어를 위한 프로그램 등, 전자 제어 장치(700) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다.
램프 구동부(751)는, 차량 내,외부에 배치되는 램프의 턴 온/턴 오프를 제어할 수 있다. 또한, 램프의 빛의 세기, 방향 등을 제어할 수 있다. 예를 들어, 방향 지시 램프, 브레이크 램프 등의 대한 제어를 수행할 수 있다.
조향 구동부(752)는, 차량(200) 내의 조향 장치(steering apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 차량의 진행 방향을 변경할 수 있다.
브레이크 구동부(753)는, 차량(200) 내의 브레이크 장치(brake apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 바퀴에 배치되는 브레이크의 동작을 제어하여, 차량(200)의 속도를 줄일 수 있다. 다른 예로, 좌측 바퀴와 우측 바퀴에 각각 배치되는 브레이크의 동작을 달리하여, 차량(200)의 진행 방향을 좌측, 또는 우측으로 조정할 수 있다.
동력원 구동부(754)는, 차량(200) 내의 동력원에 대한 전자식 제어를 수행할 수 있다.
예를 들어, 화석 연료 기반의 엔진(미도시)이 동력원인 경우, 동력원 구동부(754)는, 엔진에 대한 전자식 제어를 수행할 수 있다. 이에 의해, 엔진의 출력 토크 등을 제어할 수 있다.
다른 예로, 전기 기반의 모터(미도시)가 동력원인 경우, 동력원 구동부(754)는, 모터에 대한 제어를 수행할 수 있다. 이에 의해, 모터의 회전 속도, 토크 등을 제어할 수 있다.
썬루프 구동부(755)는, 차량(200) 내의 썬루프 장치(sunroof apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 썬루프의 개방 또는 폐쇄를 제어할 수 있다.
서스펜션 구동부(756)는, 차량(200) 내의 서스펜션 장치(suspension apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 도로면에 굴곡이 있는 경우, 서스펜션 장치를 제어하여, 차량(200)의 진동이 저감되도록 제어할 수 있다.
공조 구동부(757)는, 차량(200) 내의 공조 장치(air conditioner)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 차량 내부의 온도가 높은 경우, 공조 장치가 동작하여, 냉기가 차량 내부로 공급되도록 제어할 수 있다.
윈도우 구동부(758)는, 차량(200) 내의 서스펜션 장치(window apparatus)(미도시)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 차량의 측면의 좌,우 윈도우들에 대한 개방 또는 폐쇄를 제어할 수 있다.
에어백 구동부(759)는, 차량(200) 내의 서스펜션 장치(airbag apparatus)에 대한 전자식 제어를 수행할 수 있다. 예를 들어, 위험시, 에어백이 터지도록 제어할 수 있다.
센서부(760)는, 차량(100)의 주행 등과 관련한 신호를 센싱한다. 이를 위해, 센서부(760)는, 헤딩 센서(heading sensor), 요 센서(yaw sensor), 자이로 센서(gyro sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 휠 센서(wheel sensor), 차량 속도 센서, 차체 경사 감지센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서 등을 구비할 수 있다.
이에 의해, 센서부(760)는, 차량 방향 정보, 차량 위치 정보(GPS 정보), 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보 등에 대한 센싱 신호를 획득할 수 있다.
한편, 센서부(760)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 구비할 수 있다.
ECU(770)는, 전자 제어 장치(700) 내의 각 유닛의 전반적인 동작을 제어할 수 있다.
입력부(710)에 의한 입력에 의해, 특정 동작을 수행하거나, 센서부(760)에서 센싱된 신호를 수신하여, 차량용 영상투사장치(100)로 전송할 수 있으며, AVN 장치(400)로부터 맵 정보를 수신할 수 있으며, 각 종 구동부(751,752, 753,754,756)의 동작을 제어할 수 있다.
또한, ECU(770)는, 통신부(720)로부터 날씨 정보, 도로의 교통 상황 정보, 예를 들어, TPEG(Transport Protocol Expert Group) 정보를 수신할 수 있다.
한편, ECU(770)는, 도 1 내지 도 8b에서 기술한, 차량용 영상투사장치(100) 내의 프로세서(170)가 수행하는 기능을 모두 수행할 수도 있다. 이에 대한 설명은, 상술한 내용을 참조하여 생략한다.
오디오 출력부(785)는, ECU(770)로부터의 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 스피커 등을 구비할 수 있다. 오디오 출력부(785)는, 입력부(710), 즉 버튼의 동작에 대응하는, 사운드를 출력하는 것도 가능하다.
전원 공급부(790)는, ECU(770)의 제어에 의해, 각 구성요소들의 동작에 필요한 전원을 공급할 수 있다. 특히, 전원 공급부(790)는, 차량 내부의 배터리(미도시) 등으로부터 전원을 공급받을 수 있다.
도 10 내지 도 15b는 차량용 영상투사장치의 동작방법의 설명에 참조되는 도면이다.
먼저, 도 10은, 차량(200) 주행 중 헤드 램프들(10L,10R)에서 제1 및 제2 적외선광(1210,1214)이 출력되어, 차량(200) 주변의 오브젝트를 감지하고, 운전자가 핸들을 조작하여 차량의 진행 방향을 좌측으로 회전(ROL)하는 경우, 차량 좌측에 주행하는 주변 차량과의 거리를 고려하여, 추돌 위험 정보를 포함하는 투사 영상이 도로면에 표시되는 것을 예시한다.
도 10의 (a)와 같이, 차량(200)이 주행하는 차선 옆의 좌측 차선에, 차량이 주행하는 경우, 차량용 영상투사장치(100) 내의 프로세서(170)는, 출력되는 적외선광과, 수신되는 수신광의 위상 차이에 기초하여, 좌측 차선에, 차량(1800)이 있는 것을 알 수 있다. 그리고, 차량(1800)에 대한 거리를 검출할 수 있다. 그리고, 순차적으로, 이에 대한 트래킹을 수행할 수도 있다.
한편, 프로세서(170)는, 인터페이스부(130)를 통해, 차량의 방향(조향) 정보 중 좌측 방향 정보를 수신하는 경우, 연산된 차량(1800)과의 거리를 고려하여, 추돌 위험도를 연산하고, 추돌 위험도에 따라, 추돌 위험 정보를 생성할 수 있다.
한편, 프로세서(170)는, 도 10의 (b)와 같이, '좌측 추돌 위험'이라는 추돌 위험 정보를 생성할 수 있으며, 영상투사부(180)를 통해, 도로면에 '좌측 추돌 위험'이라는 추돌 위험 정보를 포함하는 투사 영상(1211)이 투사되도록 제어할 수 있다. 이에 따라, 운전자는, 차량 전방을 주시하여 운전을 하면서, 바로, 추돌 위험 정보를 인식할 수 있게 된다. 따라서, 운전자의 시선 움직임 없이, 안전하게 추돌 위험 정보를 전달할 수 있게 된다.
다음, 도 11은, 도 10과 유사하게, 차량(200) 주행 중 헤드 램프들(10L,10R)에서 제1 및 제2 적외선광(1210,1214)이 출력되어, 차량(200) 주변의 오브젝트를 감지하고, 운전자가 핸들을 조작하여 차량의 진행 방향을 좌측으로 회전(ROL)하는 경우, 차량 좌측에 주행하는 주변 차량과의 거리를 고려하여, 추돌 위험 정보를 포함하는 투사 영상이 도로면에 표시되는 것을 예시한다.
도 11과 도 10의 차이는, 차량의 속도에서 차이가 있다. 즉, 도 10의 차량의 속도는 Vx이고, 도 11의 차량 속도는, 도 10보다 빠른 Vy를 예시한다.
프로세서(170)는, 차량의 속도에 따라, 차량 외부로 출력되는 투사 영상의, 투사 각도, 투사 거리, 투사 방향, 휘도, 색상 중 적어도 하나를 가변할 수 있다.
도 11의 (b)에서는, 도로면에 투사되는 투사 영상(1212)의 투사 거리가, Dy 로서, 도 10의 (b)의 투사 영상(1211)의 투사 거리 Dx 보다 더 먼 것을 예시한다. 즉, 프로세서(170)는, 차량 속도가 빠를수록, 투사 거리가 더 멀어지도록 제어할 수 있다. 이에 따라, 운전자의 시인성이 향상될 수 있다.
한편, 투사 거리 조정을 위해, 프로세서(170)는, 스캐너(240)의 투사 방향 및 각도를 조정할 수 있다. 예를 들어, 투사 거리가 더 멀어지도록, 수직 투사 방향 각도가 작아지도록 조정할 수 있다.
또한, 도 11의 (b)에서는, 도로면에 투사되는 투사 영상(1212)의 테두리가, 도 10의 (b)의 투사 영상(1212)의 테두리 보다 더 진한 것을 예시한다. 즉, 프로세서(170)는, 차량 속도가 빠를수록, 투사 영상의 휘도나 색상, 또는 테두리 등이 더 강조되도록 제어할 수 있다. 이에 따라, 운전자의 시인성이 향상될 수 있다.
다음, 도 12는, 도 10과 유사하나, 주변 차량(1800)이 마주오는 차량인 것에 그 차이가 있다. 즉, 차량(200) 주행 중 헤드 램프들(10L,10R)에서 제1 및 제2 적외선광(1210,1214)이 출력되어, 차량(200) 주변의 오브젝트를 감지하고, 운전자가 핸들을 조작하여 차량의 진행 방향을 좌측으로 회전(ROL)하는 경우, 차량 좌측에 마주오는 차량과의 거리를 고려하여, 충돌 위험 정보를 포함하는 투사 영상이 도로면에 표시되는 것을 예시한다.
도 12의 (a)는, 마주오는 차량(1800)을 예시하며, 도 12의 (b)는, 도로면에 '좌측 충돌 위험'이라는 추돌 위험 정보를 포함하는 투사 영상(1216)이 투사되는 것을 예시한다. 이에 따라, 운전자는, 차량 전방을 주시하여 운전을 하면서, 바로, 충돌 위험 정보를 인식할 수 있게 된다. 따라서, 운전자의 시선 움직임 없이, 안전하게 충돌 위험 정보를 전달할 수 있게 된다.
다음, 도 13은, 도 12와 유사하게, 차량(200) 주행 중 헤드 램프들(10L,10R)에서 제1 및 제2 적외선광(1210,1214)이 출력되어, 차량(200) 주변의 오브젝트를 감지하고, 운전자가 핸들을 조작하여 차량의 진행 방향을 좌측으로 회전(ROL)하는 경우, 차량 좌측에 마주오는 차량(1800)과의 거리를 고려하여, 충돌 위험 정보를 포함하는 투사 영상이 도로면에 표시되는 것을 예시한다.
도 13과 도 12의 차이는, 마주오는 차량(1800)과의 거리에서 차이가 있다. 즉, 도 12에 비해, 도 13의 마주오는 차량과의 거리가 더 작은 것을 알 수 있다.
프로세서(170)는, 연산된 오브젝트와의 거리에 따라, 차량 외부로 출력되는 투사 영상의, 투사 각도, 투사 거리, 투사 방향, 휘도, 색상 중 적어도 하나를 가변할 수 있다.
도 13의 (b)에서는, 도로면에 투사되는 투사 영상(1217)의 투사 거리가, D12 로서, 도 12의 (b)의 투사 영상(1216)의 투사 거리 D11 보다 더 가까운 것을 예시한다. 즉, 프로세서(170)는, 마주오는 차량(1800)과의 거리가 가까수록, 투사 거리가 더 가까워지도록 제어할 수 있다. 이에 따라, 운전자의 시인성이 향상될 수 있다.
한편, 투사 거리 조정을 위해, 프로세서(170)는, 스캐너(240)의 투사 방향 및 각도를 조정할 수 있다. 예를 들어, 투사 거리가 더 가까워지도록, 수직 투사 방향 각도가 커지도록 조정할 수 있다.
또한, 도 13의 (b)에서는, 도로면에 투사되는 투사 영상(1217)의 테두리가, 도 12의 (b)의 투사 영상(1216)의 테두리 보다 더 진한 것을 예시한다. 즉, 프로세서(170)는, 마주오는 차량(1800)과의 거리가 가까워 충돌 위험도가 더 클수록, 투사 영상의 휘도나 색상, 또는 테두리 등이 더 강조되도록 제어할 수 있다. 이에 따라, 운전자의 시인성이 향상될 수 있다.
다음, 도 14a 내지 도 14b는 차량 주행 중 경고 메시지를 표시하는 다른 예를 예시한다.
도 14a는, 중앙선(1300)을 기준으로 우측에 차량(200)이 주행하고, 좌측에 마주오는 차량(1320a)이 위치하는 것을 예시한다. 한편, 차량(200)의 우측에는, 벽(1101)이 위치하는 것으로 가정한다.
상술한 바와 같이, 차량용 영상투사장치(100)는 출력광과 수신광에 기초하여, 좌측에 위치하는 마주오는 차량(1320a)과, 우측에 위치하는 벽(1101)을 감지할 수 있다.
이러한 주행 상황에서, 예를 들어, 차량 운전자가 핸들(150)을 좌측으로 회전(ROL)시키는 경우, 충돌 위험 정보를 나타내는 투사 영상(1420)이 도로면에 표시될 수 있다.
이때의 투사 영상(1420)은, 충돌 위험과 충돌 위험 거리 정보(20m)를 포함할 수 있다.
이러한 주행 상황에서, 다른 예로, 차량 운전자가 핸들(150)을 우측으로 회전(ROR)시키는 경우, 충돌 위험 정보를 나타내는 투사 영상(1410)이 도로면에 표시될 수 있다. 이때의 투사 영상(1410)은, 경고 메시지를 나타내도록 적색의 투사 영상일 수 있다.
한편, 도 14b는, 차량 운전석에서 전방에 대한 뷰(view)를 예시한다. 도 14a와 같이, 전방 유리(1107) 너머로, 좌측에 투사되는, 충돌 위험 정보를 나타내는 투사 영상(1420)이 육안으로 인식 가능하며, 우측에 투사되는, 경고 메시지를 나타내는 투사 영상(1410)이 육안으로 인식 가능하게 된다.
다음, 도 15a 내지 도 15b는 차량 후진시, 경고 메시지를 나타내는 투사 영상이 표시되는 것을 예시한다.
일단, 차량용 영상투사장치(100)는, 도 15a와 같이, 후방 램프들(10RR,10RL)에도 배치될 수 있다.
그리고, 차량 후진시, 후방 램프들(10RR,10RL) 내에 배치되는 차량용 영상투사장치(100)가 활성화될 수 있다. 특히, 차량용 영상투사장치(100) 내의, 오브젝트 감지부(20)가 활성화되어, 차량 후방으로 적외선광을 출력할 수 있다. 그리고, 차량 후방 주변의 오브젝트를 감지할 수 있다.
도면에서는 차량 후진(VB)시, 차량 좌측 후방에, 인접 차량(1800)이 위치하는 것을 예시한다. 이에 따라, 후방 램프들(10RR,10RL) 내에 배치되는 차량용 영상투사장치(100)는, 경고 메시지를 포함하는 투사 영상(1510)을 차량 좌측 후방에, 특히 도로면에 투사할 수 있다.
한편, 프로세서(170)는, 차량 후진시, 차량에 장착되는 사이드 미러(107L,107R)를 통해, 출력되는 투사 영상이 확인 가능하도록, 투사 영상의, 투사 각도, 투사 거리, 투사 방향을 설정할 수 있다.
특히, 사용자의 시선의 위치를 내부 카메라(미도시)를 통해 파악하고, 사용자의 시선 위치에 기반하여, 사이드 미러와 사용자 시선 사이의 각도를 연산하며, 연산된 각도에 따라, 후방의 도로면에 투사되는 투사 영상의 투사 각도, 투사 거리, 투사 방향 등을 조정할 수 있다.
도 15b에서는, 좌측 사이드 미러(1510a)에 경고 메시지를 포함하는 투사 영상(1510)이 투영되는 것을 예시한다. 이에 따라, 운전자는, 별 다른 움직임 없이, 사이드 미러를 통해, 후방의 위험 상황을 간단하게 파악할 수 있게 된다.
한편, 본 발명의 차량용 영상투사장치 및 차량의 동작방법은 차량용 영상투사장치 또는 차량에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한, 인터넷을 통한 전송 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.

Claims (10)

  1. 차량 주변의 오브젝트를 감지하는 오브젝트 감지부;
    차량의 주행 정보를 수신하는 인터페이스부;
    상기 감지된 차량 주변 오브젝트와 상기 차량 주행 정보에 기초하여, 차량 주행과 관련된 정보를 생성하는 프로세서;
    상기 생성된 차량 주행과 관련된 정보를 포함하는 투사 영상을 차량 외부로 투사하는 영상투사부;
    사용자의 시선 위치의 파악을 위한 내부 카메라;를 포함하고,
    상기 프로세서는,
    상기 내부 카메라로부터의 이미지에 기초하여, 상기 사용자의 시선 위치를 결정하고, 상기 결정된 시선 위치에 기초하여, 사이드 미러와, 시선 사이의 각도를 연산하며, 상기 연산된 각도에 따라, 후방의 도로면에 투사되는 투사 영상의 투사 각도, 투사 거리, 투사 방향 중 적어도 하나를 조정하는 것을 특징으로 하는 차량용 영상투사장치.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 감지된 차량 주변 오브젝트에 대한 거리를 연산하고, 상기 연산된 거리, 및 상기 차량의 속도, 진행 방향, 회전 방향 중 적어도 하나에 기초하여, 상기 차량 외부로 출력되는 상기 투사 영상의, 투사 각도, 투사 거리, 투사 방향, 휘도, 색상 중 적어도 하나를 가변하는 것을 특징으로 하는 차량용 영상투사장치.
  3. 제2항에 있어서,
    차량 주변의 조도를 감지하는 조도 센서;를 더 구비하고,
    상기 프로세서는,
    감지되는 차량 주변의 조도에 더 기초하여, 상기 차량 외부로 출력되는 상기 차량 외부로 출력되는 상기 투사 영상의, 투사 각도, 투사 거리, 투사 방향, 휘도, 색상 중 적어도 하나를 가변하는 것을 특징으로 하는 차량용 영상투사장치.
  4. 제2항에 있어서,
    상기 프로세서는,
    차량 후진시, 차량에 장착되는 상기 사이드 미러를 통해, 상기 출력되는 투사 영상이 확인 가능하도록, 상기 투사 영상의, 투사 각도, 투사 거리, 투사 방향을 설정하는 것을 특징으로 하는 차량용 영상투사장치.
  5. 제1항에 있어서,
    상기 오브젝트 감지부는,
    출력광을 차량 전방에 출력하는 광 출력부; 및
    상기 출력광에 대응하는 수신광을 수신하는 광 수신부;를 구비하고,
    상기 광 출력부는,
    상기 출력광을 스캐닝 방식에 의해 외부로 출력하는 스캐너를 포함하는 것을 특징으로 하는 차량용 영상투사장치.
  6. 제5항에 있어서,
    상기 프로세서는,
    상기 출력광과 상기 수신광의 위상 차이에 기초하여, 상기 차량 주변 오브젝트에 대한 거리를 연산하는 것을 특징으로 하는 차량용 영상투사장치.
  7. 제1항에 있어서,
    상기 영상투사부는,
    상기 투사 영상에 대응하는 가시광을 출력하는 레이저 다이오드; 및
    상기 가시광을 스캐닝 방식에 의해 외부로 출력하는 스캐너;를 포함하는 것을 특징으로 하는 것을 특징으로 하는 차량용 영상투사장치.
  8. 제5항에 있어서,
    상기 영상투사부는,
    상기 투사 영상에 대응하는 가시광을 출력하는 레이저 다이오드;를 포함하며,
    상기 레이저 다이오드에서 출력되는 상기 가시광은 상기 스캐너에 입사되고,
    상기 스캐너는, 상기 출력광과 상기 가시광을 함께, 외부로 출력하는 것을 특징으로 하는 차량용 영상투사장치.
  9. 제1항에 있어서,
    상기 프로세서는,
    상기 차량의 조향 방향 가변 정보 수신시, 상기 차량 주변 오브젝트에 대한 거리와, 상기 차량 조향 가변 정보에 기초하여, 경고 메시지를 포함하는 투사 영상을, 주행하는 도로면 또는 상기 차량 주변 오브젝트에 투사하도록 제어하는 것을 특징으로 하는 차량용 영상투사장치.
  10. 조향 장치를 구동하는 조향 구동부;
    브레이크 장치를 구동하는 브레이크 구동부,
    동력원을 구동하는 동력원 구동부; 및
    제1항 내지 제9항 중 어느 한 항의 차량용 영상투사장치;를 구비하는 차량.
KR1020140125104A 2014-09-19 2014-09-19 차량용 영상투사장치 및 이를 구비한 차량 KR102227371B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140125104A KR102227371B1 (ko) 2014-09-19 2014-09-19 차량용 영상투사장치 및 이를 구비한 차량

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140125104A KR102227371B1 (ko) 2014-09-19 2014-09-19 차량용 영상투사장치 및 이를 구비한 차량

Publications (2)

Publication Number Publication Date
KR20160034059A KR20160034059A (ko) 2016-03-29
KR102227371B1 true KR102227371B1 (ko) 2021-03-11

Family

ID=55661907

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140125104A KR102227371B1 (ko) 2014-09-19 2014-09-19 차량용 영상투사장치 및 이를 구비한 차량

Country Status (1)

Country Link
KR (1) KR102227371B1 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101949358B1 (ko) 2016-04-04 2019-02-18 엘지전자 주식회사 차량용 어라운드뷰 제공 장치 및 이를 구비한 차량
KR101770642B1 (ko) * 2016-05-16 2017-09-05 엘지전자 주식회사 차량용 조명 장치 및 차량
KR102417888B1 (ko) 2016-11-23 2022-07-07 현대자동차주식회사 비상안내조명 투사 장치 및 그 방법
KR102372566B1 (ko) * 2017-08-16 2022-03-08 제트카베 그룹 게엠베하 차량용 조명 장치 및 차량

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005306337A (ja) * 2004-04-26 2005-11-04 Denso Corp 移動体用情報表示装置
JP2006142888A (ja) * 2004-11-17 2006-06-08 Aisin Aw Co Ltd 車両報知装置及び車両報知方法のプログラム
JP2009001164A (ja) * 2007-06-21 2009-01-08 Aisin Aw Co Ltd 運転支援装置、運転支援方法及び運転支援プログラム
JP2009107543A (ja) 2007-10-31 2009-05-21 Panasonic Corp 車両用照明装置
JP2010052688A (ja) * 2008-08-29 2010-03-11 Aisin Aw Co Ltd 運転支援装置、運転支援方法、及び運転支援プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005306337A (ja) * 2004-04-26 2005-11-04 Denso Corp 移動体用情報表示装置
JP2006142888A (ja) * 2004-11-17 2006-06-08 Aisin Aw Co Ltd 車両報知装置及び車両報知方法のプログラム
JP2009001164A (ja) * 2007-06-21 2009-01-08 Aisin Aw Co Ltd 運転支援装置、運転支援方法及び運転支援プログラム
JP2009107543A (ja) 2007-10-31 2009-05-21 Panasonic Corp 車両用照明装置
JP2010052688A (ja) * 2008-08-29 2010-03-11 Aisin Aw Co Ltd 運転支援装置、運転支援方法、及び運転支援プログラム

Also Published As

Publication number Publication date
KR20160034059A (ko) 2016-03-29

Similar Documents

Publication Publication Date Title
US11097660B2 (en) Driver assistance apparatus and control method for the same
EP3166071B1 (en) Apparatus for providing around view and vehicle
US10479269B2 (en) Lighting apparatus for vehicle and vehicle having the same
KR101637882B1 (ko) 차량용 헤드램프 구동장치 및 이를 구비한 차량
US10528829B2 (en) Apparatus for parking vehicle and vehicle
KR101916993B1 (ko) 차량용 디스플레이 장치 및 그 제어방법
KR102201290B1 (ko) 차량용 디스플레이 장치 및 차량
US10366512B2 (en) Around view provision apparatus and vehicle including the same
EP3306591A2 (en) Parking assistance apparatus, vehicle having the same, method of providing automatic parking function
KR101768500B1 (ko) 운전 보조 장치 및 그 제어방법
US20160101734A1 (en) Under vehicle image provision apparatus and vehicle including the same
US20180134285A1 (en) Autonomous driving apparatus and vehicle including the same
KR102372566B1 (ko) 차량용 조명 장치 및 차량
KR102227371B1 (ko) 차량용 영상투사장치 및 이를 구비한 차량
KR20170043212A (ko) 차량용 어라운드 뷰 제공 장치 및 차량
KR101850325B1 (ko) 차량용 조명 장치 및 차량
KR102217973B1 (ko) 차로 가이드 장치 및 차로 가이드 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant