KR20260000580A - A vehicle that performs lamp control to improve object recognition - Google Patents

A vehicle that performs lamp control to improve object recognition

Info

Publication number
KR20260000580A
KR20260000580A KR1020257036707A KR20257036707A KR20260000580A KR 20260000580 A KR20260000580 A KR 20260000580A KR 1020257036707 A KR1020257036707 A KR 1020257036707A KR 20257036707 A KR20257036707 A KR 20257036707A KR 20260000580 A KR20260000580 A KR 20260000580A
Authority
KR
South Korea
Prior art keywords
section
vehicle
brightness
frame
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
KR1020257036707A
Other languages
Korean (ko)
Inventor
정지영
정동만
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Publication of KR20260000580A publication Critical patent/KR20260000580A/en
Pending legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/24Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments for lighting other areas than only the way ahead
    • B60Q1/249Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments for lighting other areas than only the way ahead for illuminating the field of view of a sensor or camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/04Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights
    • B60Q1/14Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments the devices being headlights having dimming means
    • B60Q1/1415Dimming circuits
    • B60Q1/1423Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic
    • B60Q1/143Automatic dimming circuits, i.e. switching between high beam and low beam due to change of ambient light or light level in road traffic combined with another condition, e.g. using vehicle recognition from camera images or activation of wipers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/24Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments for lighting other areas than only the way ahead
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Transportation (AREA)
  • Lighting Device Outwards From Vehicle And Optical Signal (AREA)

Abstract

램프 제어부는 차량의 전자 제어 유닛(ECU)과 동작 가능하게 결합되는 인터페이스; 및 상기 인터페이스를 통해 상기 ECU로부터 헤드 램프의 제어 정보를 수신하도록 구성된 프로세서를 포함한다. 상기 프로세서는 전방 카메라로부터 획득한 객체의 영상을 기준으로 ADAS 판단부가 상기 영상 내의 객체를 판단하도록 상기 ADAS 판단부를 제어하고, 상기 객체를 조향하기 위한 헤드 램프의 제어 정보를 상기 ECU로부터 수신하고, 상기 제어 정보에 기초하여, 상기 전방 카메라에 의해 상기 객체의 영상을 획득하는 프레임에 대응되도록 상기 헤드 램프를 오프하거나 또는 밝기를 감소시킬 수 있다.The lamp control unit includes an interface operably coupled with an electronic control unit (ECU) of a vehicle; and a processor configured to receive control information of a headlamp from the ECU through the interface. The processor controls the ADAS determination unit to determine an object in an image of the object acquired from a front camera based on the image of the object, receives control information of the headlamp for steering the object from the ECU, and, based on the control information, turns off or reduces the brightness of the headlamp so as to correspond to a frame in which an image of the object is acquired by the front camera.

Description

객체 인식 향상을 위한 램프 제어를 수행하는 차량 A vehicle that performs lamp control to improve object recognition.

본 명세서는 램프 제어를 수행하는 차량에 관한 것이다. 보다 상세하게는, 객체 인식 향상을 위한 램프 제어를 수행하는 차량에 관한 것이다.The present specification relates to a vehicle that performs lamp control. More specifically, it relates to a vehicle that performs lamp control for improving object recognition.

차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 한편, 차량을 이용하는 사용자의 편의를 위해, 각종 센서와 전자 장치 등이 구비되고 있는 추세이다. 특히, 사용자의 운전 편의를 위해 차량 운전자 보조 시스템(ADAS: Advanced Driver Assistance System)에 대한 연구가 활발하게 이루어지고 있다. 나아가, 자율 주행 자동차(Autonomous Vehicle)에 대한 개발이 활발하게 이루어 지고 있다.A vehicle is a device that moves its user in the desired direction. Meanwhile, various sensors and electronic devices are being installed to enhance the user's convenience. In particular, research is actively being conducted on Advanced Driver Assistance Systems (ADAS) to enhance user convenience. Furthermore, development of autonomous vehicles (AVs) is also actively underway.

한편, 차량은 카메라를 통해 차량 전방의 객체를 검출할 수 있다. 이와 관련하여, 차량의 헤드 램프는 차량 전방의 객체를 향해 빛을 방출할 수 있다. 이와 관련하여, 미국 등록 특허 US10086832B2는 차량 전방의 객체와 TTC(Time to collision)가 기준치 미만일때, 객체를 잘 인식하기 위해, 객체를 향해 램프 조사하는 방법을 제시한다. 또한, 대한민국 공개 특허 10-2013-0063566는 카메라 장치 및 방향 전환 가능한 헤드램프를 가진 차량 내 시스템을 제공한다. 이와 관련하여, 차량 전방 객체가 레이더에는 인식되지만 카메라 장치에는 인식되지 않는 경우 전방 객체가 위치한 영역에 충분한 밝기를 제공하도록 헤드램프의 조명방향을 전환함을 제시한다.Meanwhile, a vehicle can detect an object in front of the vehicle through a camera. In this regard, the vehicle's headlamps can emit light toward the object in front of the vehicle. In this regard, U.S. Patent No. 10086832B2 proposes a method for illuminating a lamp toward an object in front of the vehicle when the time to collision (TTC) with the object is below a threshold value to effectively recognize the object. Furthermore, Korean Patent Publication No. 10-2013-0063566 provides an in-vehicle system having a camera device and a switchable headlamp. In this regard, if an object in front of the vehicle is recognized by radar but not by the camera device, the headlamps switch their direction of illumination to provide sufficient brightness to the area where the object is located.

이와 관련하여, 차량 전방 카메라에서 객체를 인식함에 있어서, 객체에 헤드램프를 비추면 객체가 빛을 받아서 인식하기가 용이할 수 있다. 하지만, 특별한 상황에서는 헤드램프가 객체 인식을 방해하는 경우도 발생할 수 있다. 그러한 경우 헤드램프의 밝기를 상황에 따라 적당히 조정하고, 조정된 헤드램프의 밝기에 의해서 카메라 셔터를 통해 영상을 획득할 필요가 있다. In this regard, when recognizing objects using a vehicle's front camera, shining headlights on the object can facilitate recognition, as the object receives light. However, in special circumstances, headlights can interfere with object recognition. In such cases, it is necessary to adjust the headlight brightness appropriately according to the situation and capture images through the camera shutter based on the adjusted headlight brightness.

본 명세서는 헤드램프가 객체 인식을 방해하는 경우 헤드램프의 밝기를 상황에 따라 적당히 조정하고, 조정된 헤드램프의 밝기에 의해서 카메라 셔터를 통해 영상을 획득하기 위한 것이다.This specification is for adjusting the brightness of a headlamp appropriately according to the situation when the headlamp interferes with object recognition, and for acquiring an image through a camera shutter by the adjusted brightness of the headlamp.

본 명세서는 헤드 램프의 특정 프레임을 조절하여 카메라의 객체 인식의 성능을 향상하기 위한 것이다.This specification is intended to improve the performance of object recognition of a camera by adjusting a specific frame of a head lamp.

또한, 본 명세서는 기존의 헤드램프 기능을 유지하면서 객체 인식 성능을 최적으로 향상시키는데 목적이 있다.Additionally, the present specification aims to optimally improve object recognition performance while maintaining the existing headlamp function.

또한, 본 명세서는 가로등이 켜져 있으면 헤드 램프를 적절한 시점에 오프하여 차량의 전방 카메라에 의해 객체 인식 성능을 향상하기 위한 것이다.Additionally, the present specification is intended to improve object recognition performance by the front camera of a vehicle by turning off the headlamp at an appropriate time when the streetlight is on.

또한, 본 명세서는 차량 도로와 보행자 도로의 밝기 상태에 따라 선택적으로 헤드 램프의 밝기를 조절하여 전방 차량과 보행자 도로에서 모두 객체 인식 성능을 향상하기 위한 것이다.Additionally, the present specification is intended to improve object recognition performance both on the vehicle ahead and on the pedestrian road by selectively adjusting the brightness of the headlamp according to the brightness conditions of the vehicle road and the pedestrian road.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The tasks of the present invention are not limited to the tasks mentioned above, and other tasks not mentioned will be clearly understood by those skilled in the art from the description below.

상기 과제를 달성하기 위하여, 본 명세서에 따른 램프 제어부는 차량의 전자 제어 유닛(ECU)과 동작 가능하게 결합되는 인터페이스; 및 상기 인터페이스를 통해 상기 ECU로부터 헤드 램프의 제어 정보를 수신하도록 구성된 프로세서를 포함한다. 상기 프로세서는 전방 카메라로부터 획득한 객체의 영상을 기준으로 ADAS 판단부가 상기 영상 내의 객체를 판단하도록 상기 ADAS 판단부를 제어하고, 상기 객체를 조향하기 위한 헤드 램프의 제어 정보를 상기 ECU로부터 수신하고, 상기 제어 정보에 기초하여, 상기 전방 카메라에 의해 상기 객체의 영상을 획득하는 프레임에 대응되도록 상기 헤드 램프를 오프하거나 또는 밝기를 감소시킬 수 있다.In order to achieve the above object, a lamp control unit according to the present specification includes an interface operably coupled with an electronic control unit (ECU) of a vehicle; and a processor configured to receive control information of a headlamp from the ECU through the interface. The processor controls the ADAS determination unit to determine an object in an image of the object acquired from a front camera based on the image of the object, receives control information of a headlamp for steering the object from the ECU, and, based on the control information, turns off or reduces the brightness of the headlamp so as to correspond to a frame in which an image of the object is acquired by the front camera.

실시 예에 따르면, 상기 ADAS 판단부에 의해 판단된 상기 객체에 대한 ADAS 판단 정보는 차량의 상기 ECU로 전송될 수 있다. 상기 ADAS 판단 정보에 따라 상기 ECU에서 생성된 상기 헤드 램프의 제어 정보는 상기 램프 제어부로 전송될 수 있다. 상기 프로세서는 상기 제어 정보에 기초하여 상기 프레임 동안 상기 헤드 램프가 오프되거나 또는 밝기가 감소되도록 상기 헤드 램프를 제어할 수 있다.According to an embodiment, ADAS judgment information for the object judged by the ADAS judgment unit may be transmitted to the ECU of the vehicle. Control information for the headlamp generated by the ECU based on the ADAS judgment information may be transmitted to the lamp control unit. The processor may control the headlamp so that the headlamp is turned off or the brightness is reduced during the frame based on the control information.

실시 예에 따르면, 상기 프로세서는 상기 프레임 구간 동안 상기 헤드 램프의 밝기가 감소되도록 상기 헤드 램프의 밝기 제어 구간을 설정할 수 있다. 상기 프레임 구간의 시점보다 상기 밝기 제어 구간의 시점이 더 빨리 설정될 수 있다. 상기 프레임 구간의 종점보다 상기 밝기 제어 구간의 종점이 더 늦게 설정될 수 있다.According to an embodiment, the processor may set a brightness control section of the headlamp so that the brightness of the headlamp is reduced during the frame section. The start point of the brightness control section may be set earlier than the start point of the frame section. The end point of the brightness control section may be set later than the end point of the frame section.

실시 예에 따르면, 상기 프로세서는 상기 프레임 구간의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제1 프레임을 제어하고, 상기 프레임 구간 동안 상기 복수의 발광 소자들이 모두 오프되도록 상기 밝기 제어 구간의 제2 프레임을 제어하고, 상기 프레임 구간의 이후 구간인 제2 구간에서 상기 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제3 프레임을 제어할 수 있다. According to an embodiment, the processor may control a first frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in a first section that is a previous section of the frame section, control a second frame of the brightness control section so that all of the plurality of light-emitting elements are turned off during the frame section, and control a third frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in a second section that is a subsequent section of the frame section.

실시 예에 따르면, 상기 프로세서는 상기 프레임 구간을 포함하는 복수의 구간들에서 복수의 발광 소자들이 모두 오프 상태가 되도록 상기 밝기 제어 구간의 연속되는 프레임들을 형성할 수 있다. According to an embodiment, the processor can form consecutive frames of the brightness control section such that all of the plurality of light-emitting elements are turned off in a plurality of sections including the frame section.

실시 예에 따르면, 상기 프로세서는 상기 프레임 구간의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제1 프레임을 제어하고, 상기 프레임 구간 동안 상기 복수의 발광 소자들 중 이웃하는 발광 소자들이 오프되도록 상기 밝기 제어 구간의 제2 프레임을 제어하고, 상기 프레임 구간의 이후 구간인 제2 구간에서 상기 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제3 프레임을 제어할 수 있다.According to an embodiment, the processor may control a first frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in a first section that is a previous section of the frame section, control a second frame of the brightness control section so that neighboring light-emitting elements among the plurality of light-emitting elements are turned off during the frame section, and control a third frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in a second section that is a subsequent section of the frame section.

실시 예에 따르면, 상기 프로세서는 상기 프레임 구간의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제1 프레임을 제어하고, 상기 프레임 구간 동안 상기 복수의 발광 소자들 중 이웃하지 않는 발광 소자들이 오프되도록 상기 밝기 제어 구간의 제2 프레임을 제어하고,상기 프레임 구간의 이후 구간인 제2 구간에서 상기 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제3 프레임을 제어할 수 있다.According to an embodiment, the processor may control a first frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in a first section that is a previous section of the frame section, control a second frame of the brightness control section so that non-adjacent light-emitting elements among the plurality of light-emitting elements are turned off during the frame section, and control a third frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in a second section that is a subsequent section of the frame section.

실시 예에 따르면, 상기 프로세서는 상기 프레임 구간의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제1 프레임을 제어하고, 상기 프레임 구간 동안 복수의 발광 소자들이 모두 오프되도록 상기 밝기 제어 구간의 제2 프레임을 제어하고, 상기 프레임 구간의 이후 구간인 제2 구간에서 상기 온 상태보다 상기 복수의 발광 소자들의 밝기가 감소되도록 상기 밝기 제어 구간의 제3 프레임을 제어할 수 있다. 상기 프로세서는 상기 제2 구간에 후속하는 제3 구간에서 상기 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제4 프레임을 제어할 수 있다.According to an embodiment, the processor may control a first frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in a first section, which is a previous section of the frame section, control a second frame of the brightness control section so that all of the plurality of light-emitting elements are turned off during the frame section, and control a third frame of the brightness control section so that the brightness of the plurality of light-emitting elements is reduced from the on state in a second section, which is a subsequent section of the frame section. The processor may control a fourth frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in a third section following the second section.

실시 예에 따르면, 상기 프로세서는 상기 프레임 구간의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제1 프레임을 제어하고, 상기 프레임 구간 동안 복수의 발광 소자들 중 하나가 오프되도록 상기 밝기 제어 구간의 제2 프레임을 제어하고, 상기 프레임 구간의 이후 구간인 제2 구간에서 상기 복수의 발광 소자들 중 하나의 밝기가 온 상태보다 감소되도록 상기 밝기 제어 구간의 제3 프레임을 제어할 수 있다. 상기 프로세서는 상기 제2 구간에 후속하는 제3 구간에서 상기 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제4 프레임을 제어할 수 있다. 상기 복수의 발광 소자들 중 하나는 상기 차량의 전방 차량의 특정 서브 객체를 조향하도록 구성될 수 있다.According to an embodiment, the processor may control a first frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in a first section, which is a previous section of the frame section, control a second frame of the brightness control section so that one of the plurality of light-emitting elements is turned off during the frame section, and control a third frame of the brightness control section so that the brightness of one of the plurality of light-emitting elements is reduced from an on state in a second section, which is a subsequent section of the frame section. The processor may control a fourth frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in a third section following the second section. One of the plurality of light-emitting elements may be configured to steer a specific sub-object of a vehicle ahead of the vehicle.

실시 예에 따르면, 상기 프로세서는 상기 프레임 구간의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제1 프레임을 제어하고, 상기 프레임 구간 동안 복수의 발광 소자들 중 일부는 제1 밝기 상태가 되고 나머지는 제2 밝기 상태가 되도록 상기 밝기 제어 구간의 제2 프레임을 제어하고, 상기 프레임 구간의 이후 구간인 제2 구간에서 상기 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제3 프레임을 제어할 수 있다. 상기 복수의 발광 소자들 중 일부는 상기 헤드 램프의 중심부에 배치되고, 상기 복수의 발광 소자들 중 나머지는 상기 헤드 램프의 주변부에 배치될 수 있다. According to an embodiment, the processor may control a first frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in a first section, which is a previous section of the frame section, control a second frame of the brightness control section so that some of the plurality of light-emitting elements are in a first brightness state and the rest are in a second brightness state during the frame section, and control a third frame of the brightness control section so that all of the plurality of light-emitting elements are in a second section, which is a subsequent section of the frame section. Some of the plurality of light-emitting elements may be arranged at a center of the head lamp, and the rest of the plurality of light-emitting elements may be arranged at a periphery of the head lamp.

실시 예에 따르면, 상기 프로세서는 외부 조명이 있는 것으로 판단되면, 상기 프레임 구간 동안 상기 헤드 램프가 오프 상태가 되도록 제어하고, 상기 외부 조명이 없는 것으로 판단되면, 상기 프레임 구간 동안 상기 헤드 램프가 온 상태 또는 상기 온 상태보다 밝기가 감소되도록 제어할 수 있다.According to an embodiment, if the processor determines that there is external lighting, it can control the head lamp to be turned off during the frame period, and if it determines that there is no external lighting, it can control the head lamp to be turned on or to have its brightness reduced from the on state during the frame period.

실시 예에 따르면, 상기 프로세서는 상기 외부 조명의 밝기가 임계 밝기 미만이면, 상기 프레임 구간 동안 상기 헤드 램프가 온 상태보다 밝기가 감소되도록 제어하고, 상기 외부 조명의 밝기가 상기 임계 밝기 이상이면, 상기 프레임 구간 동안 상기 헤드 램프가 오프 상태가 되도록 제어할 수 있다.According to an embodiment, the processor may control the head lamp to be in an on-state during the frame period when the brightness of the external lighting is less than a threshold brightness, and may control the head lamp to be in an off-state during the frame period when the brightness of the external lighting is greater than or equal to the threshold brightness.

실시 예에 따르면, 상기 프로세서는 상기 프레임 구간 동안 보행자 도로가 있는 제1 영역에 대응되는 복수의 발광 소자들 중 일부 영역은 온 상태가 되도록 제어하고, 상기 프레임 구간 동안 차량 도로가 있는 제2 영역에 대응되는 복수의 발광 소자들 중 나머지 영역은 오프 상태가 되도록 제어할 수 있다.According to an embodiment, the processor may control some areas of a plurality of light-emitting elements corresponding to a first area having a pedestrian road during the frame period to be turned on, and control the remaining areas of a plurality of light-emitting elements corresponding to a second area having a vehicle road during the frame period to be turned off.

실시 예에 따르면, 상기 프로세서는 상기 프레임 구간의 이전의 제1 구간에서 상기 차량의 전방의 타 차량을 검출하도록 차량 도로의 제2 영역에 대응되는 상기 헤드 램프의 중심부가 온 상태가 되도록 제어하고, 상기 타 차량을 촬영하는 상기 프레임 구간 동안 보행자를 검출하도록 보행자 도로에 대응되는 제1 영역에 대응되는 상기 헤드 램프의 주변부가 온 상태가 되도록 제어하고, 상기 프레임 구간 동안 차량 도로의 상기 제2 영역에 대응되는 상기 헤드 램프의 상기 중심부가 오프 상태가 되도록 제어할 수 있다.According to an embodiment, the processor may control a center portion of the headlamp corresponding to a second area of the vehicle road to be turned on so as to detect another vehicle in front of the vehicle in a first section prior to the frame section, control a peripheral portion of the headlamp corresponding to a first area corresponding to the pedestrian road to be turned on so as to detect a pedestrian during the frame section in which the other vehicle is photographed, and control a center portion of the headlamp corresponding to the second area of the vehicle road to be turned off during the frame section.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and drawings.

본 명세서에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 차량의 기술적 특징은 다음과 같이 요약될 수 있다.The technical features of a vehicle performing lamp control for improving object recognition according to this specification can be summarized as follows.

본 명세서에 따르면, 카메라의 셔터와 헤드 램프의 특정 프레임의 타이밍을 조절하여, 헤드 램프의 특정 프레임을 조절하여 카메라의 객체 인식의 성능을 향상시킬 수 있다.According to this specification, the performance of object recognition of a camera can be improved by controlling the timing of a specific frame of a camera shutter and a specific frame of a head lamp.

본 명세서에 따르면, 기존의 헤드램프 기능을 유지하면서도 카메라의 셔터와 헤드 램프의 특정 프레임의 타이밍을 일치시키거나 특정 프레임의 타이밍을 소정 시간만큼 선행하게 하여, 객체 인식 성능을 최적으로 향상시킬 수 있다.According to this specification, object recognition performance can be optimally improved by maintaining the existing headlamp function while matching the timing of a camera shutter and a specific frame of a headlamp or advancing the timing of a specific frame by a predetermined amount of time.

본 명세서에 따르면, 가로등이 켜져 있으면 전방 카메라의 셔터 온 동작이 이루어지기 전의 적절한 시점에 헤드 램프를 오프하여 차량의 전방 카메라에 의해 객체 인식 성능을 향상시킬 수 있다.According to this specification, when streetlights are on, the object recognition performance by the front camera of the vehicle can be improved by turning off the headlamp at an appropriate time before the shutter-on operation of the front camera is performed.

본 명세서에 따르면, 차량 도로와 보행자 도로의 밝기 상태에 따라 헤드 램프의 복수의 발광 소자들을 영역 별로 선택적으로 밝기를 제어하여 전방 차량과 보행자 도로에서 모두 객체 인식 성능을 향상시킬 수 있다.According to this specification, the brightness of multiple light-emitting elements of a headlamp can be selectively controlled by region according to the brightness conditions of the vehicle road and the pedestrian road, thereby improving object recognition performance both on the vehicle ahead and on the pedestrian road.

본 명세서에 따르면, 헤드 램프의 밝기 제어와 연관된 특정 프레임만을 변경하기 때문에 헤드 램프의 자동차 규정 및 사용자에게 익숙한 기존 헤드 램프의 시스템에 영향을 주지 않고 카메라의 객체 인식 능력만 향상시킬 수 있다.According to this specification, only the specific frame related to the brightness control of the headlamp can be changed, so that the object recognition capability of the camera can be improved without affecting the automotive regulations of the headlamp and the existing headlamp system that the user is familiar with.

본 명세서의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of this specification are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 명세서의 실시예에 따른 차량의 외관을 도시한 도면이다.
도 2는 본 명세서의 실시예에 따른 차량을 외부의 다양한 각도에서 본 도면이다.
도 3 및 도 4는 본 명세서의 실시예와 관련된 차량의 주행과 관련된 다양한 오브젝트를 도시한 도면이다.
도 5는 본 명세서의 실시예에 따른 차량을 설명하는데 참조되는 블럭도이다.
도 6은 본 명세서에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 차량의 블록도를 나타낸다.
도 7은 본 명세서에 따른 램프 제어부의 발광 패턴의 및 전방 카메라의 셔터 개방의 타이밍도와 각 시점에서의 램프 패턴과 객체 패턴을 나타낸 것이다.
도 8는 본 명세서에 따른 차량의 객체 인식 향상을 위한 램프 제어 방법의 흐름도를 나타낸다.
도 9는 본 명세서에 따른전방 카메라에 의해 이미지 획득 이후 램프 제어부를 구동하도록 구성된 램프 제어 방법을 나타낸다.
도 10은 실시예들에 따른 밝기 제어 및 패턴 제어와 연관된 패턴들을 나타낸다.
도 11은 실시예들에 따른 가로등 빛의 유무와 헤드 램프 밝기 변화에 따라 촬영된 영상들을 비교한 것이다.
도 12a 및 도 12b는 차량 도로와 배경이 있는 영상에서 객체 인식 영역을 설정한 실시예들을 나타낸다.
도 13은 도 6의 램프 제어부와 전방 카메라의 온/오프와 연관된 타이밍도를 나타낸다.
도 14a는 램프의 밝기 제어 구간이 불연속 프레임 제어 방식으로 구현되는 타이밍도와 발광 소자들의 발광 패턴을 나타낸 것이다.
도 14b는 램프의 밝기 제어 구간이 불연속 프레임 제어 방식으로 구현되는 타이밍도와 발광 소자들의 발광 패턴을 나타낸 것이다.
도 15a는 인접한 일부 발광 소자만 오프되는 타이밍도와 발광 소자들의 발광 패턴을 나타낸 것이다.
도 15b는 이격된 일부 발광 소자만 오프되는 타이밍도와 발광 소자들의 발광 패턴을 나타낸 것이다.
도 16a는 발광 소자들의 밝기가 감소되도록 디밍 제어가 수행되는 타이밍도와 발광 소자들의 발광 패턴을 나타낸 것이다.
도 16b는 일부 발광 소자만 밝기가 감소되도록 디밍 제어가 수행되는 타이밍도와 발광 소자들의 발광 패턴을 나타낸 것이다.
도 17은 헤드 램프의 중심부와 주변부의 밝기를 상이하게 하여 그라데이션 제어를 수행하는 타이밍도와 발광 소자들의 발광 패턴을 나타낸 것이다.
도 18은 차량의 헤드 램프를 통해 차량 도로 및 보행자 도로에 따른 서로 다른 발광 제어를 수행하는 개념도이다.
도 19는 시나리오 별로 촬영된 영상들과 헤드 램프의 빔 패턴들을 나타낸다.
도 20은 본 명세서에 따른 전방의 객체까지의 거리를 검출할 수 있는 차량의 블록도를 나타낸다.
도 21은 전방 카메라, IR 카메라 및 TOF 카메라에 의해 이미지 획득 이후 램프 제어부를 구동하도록 구성된 램프 제어 방법을 나타낸다.
FIG. 1 is a drawing showing the exterior of a vehicle according to an embodiment of the present specification.
FIG. 2 is a drawing of a vehicle according to an embodiment of the present specification viewed from various external angles.
FIGS. 3 and 4 are drawings illustrating various objects related to driving of a vehicle according to an embodiment of the present specification.
FIG. 5 is a block diagram for reference in explaining a vehicle according to an embodiment of the present specification.
FIG. 6 illustrates a block diagram of a vehicle performing lamp control for improving object recognition according to the present specification.
Fig. 7 shows the timing diagram of the light emission pattern of the lamp control unit according to the present specification and the shutter opening of the front camera, as well as the lamp pattern and object pattern at each point in time.
Fig. 8 shows a flowchart of a lamp control method for improving object recognition of a vehicle according to the present specification.
FIG. 9 illustrates a lamp control method configured to drive a lamp control unit after image acquisition by a front camera according to the present specification.
Figure 10 illustrates patterns associated with brightness control and pattern control according to embodiments.
Figure 11 compares images captured according to the presence or absence of streetlights and changes in headlamp brightness according to embodiments.
Figures 12a and 12b illustrate examples of setting an object recognition area in an image with a vehicle road and background.
Figure 13 shows a timing diagram related to the lamp control unit of Figure 6 and the on/off of the front camera.
Figure 14a is a timing diagram showing the brightness control section of the lamp implemented in a discontinuous frame control manner and the light emission patterns of the light emitting elements.
Figure 14b shows a timing diagram in which the brightness control section of the lamp is implemented in a discontinuous frame control manner and the light emission patterns of the light emitting elements.
Figure 15a shows a timing diagram in which only some adjacent light-emitting elements are turned off and the light-emitting pattern of the light-emitting elements.
Figure 15b shows a timing diagram in which only some of the spaced light-emitting elements are turned off and the light-emitting pattern of the light-emitting elements.
Figure 16a shows a timing diagram in which dimming control is performed to reduce the brightness of light-emitting elements and the light-emitting pattern of the light-emitting elements.
Figure 16b shows a timing diagram in which dimming control is performed so that only some light-emitting elements have their brightness reduced, and the light-emitting patterns of the light-emitting elements.
Figure 17 shows a timing diagram for performing gradient control by differentiating the brightness of the center and periphery of the headlamp and the light-emitting pattern of the light-emitting elements.
Figure 18 is a conceptual diagram of performing different lighting control according to a vehicle road and a pedestrian road through a vehicle's headlamp.
Figure 19 shows the images taken for each scenario and the beam patterns of the head lamp.
FIG. 20 illustrates a block diagram of a vehicle capable of detecting a distance to a front object according to the present specification.
Fig. 21 illustrates a lamp control method configured to drive a lamp control unit after image acquisition by a front camera, an IR camera, and a TOF camera.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, embodiments disclosed in this specification will be described in detail with reference to the attached drawings. Regardless of the drawing numbers, identical or similar components will be given the same reference numbers and redundant descriptions thereof will be omitted. The suffixes "module" and "part" used for components in the following description are assigned or used interchangeably only for the convenience of writing the specification, and do not in themselves have distinct meanings or roles. In addition, when describing the embodiments disclosed in this specification, if it is determined that a specific description of a related known technology may obscure the gist of the embodiments disclosed in this specification, a detailed description thereof will be omitted. In addition, the attached drawings are only intended to facilitate easy understanding of the embodiments disclosed in this specification, and the technical ideas disclosed in this specification are not limited by the attached drawings, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and technical scope of the present invention.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms that include ordinal numbers, such as first, second, etc., may be used to describe various components, but the components are not limited by these terms. These terms are used solely to distinguish one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it should be understood that it may be directly connected or connected to that other component, but that there may be other components intervening. Conversely, when a component is referred to as being "directly connected" or "connected" to another component, it should be understood that there are no other components intervening.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly indicates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as “include” or “have” are intended to specify the presence of a feature, number, step, operation, component, part or combination thereof described in the specification, but should be understood not to exclude in advance the possibility of the presence or addition of one or more other features, numbers, steps, operations, components, parts or combinations thereof.

본 명세서에서 기술되는 차량은, 자동차, 오토바이를 포함하는 개념일 수 있다. 이하에서는, 차량에 대해 자동차를 위주로 기술한다.The vehicle described in this specification may include a concept that includes automobiles and motorcycles. In the following, the vehicle will be described primarily with automobiles.

본 명세서에서 기술되는 차량은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량등을 모두 포함하는 개념일 수 있다.The vehicle described in this specification may be a concept that includes all types of vehicles, such as internal combustion engine vehicles equipped with an engine as a power source, hybrid vehicles equipped with an engine and an electric motor as a power source, and electric vehicles equipped with an electric motor as a power source.

이하의 설명에서 차량의 좌측은 차량의 주행 방향의 좌측을 의미하고, 차량의 우측은 차량의 주행 방향의 우측을 의미한다.In the following description, the left side of the vehicle means the left side of the vehicle's driving direction, and the right side of the vehicle means the right side of the vehicle's driving direction.

도 1은 본 명세서의 실시예에 따른 차량의 외관을 도시한 도면이다.FIG. 1 is a drawing showing the exterior of a vehicle according to an embodiment of the present specification.

도 2는 본 명세서의 실시예에 따른 차량을 외부의 다양한 각도에서 본 도면이다.FIG. 2 is a drawing of a vehicle according to an embodiment of the present specification viewed from various external angles.

도 3 및 도 4는 본 명세서의 실시예와 관련된 차량의 주행과 관련된 다양한 오브젝트를 도시한 도면이다.FIGS. 3 and 4 are drawings illustrating various objects related to driving of a vehicle according to an embodiment of the present specification.

도 5는 본 명세서의 실시예에 따른 차량을 설명하는데 참조되는 블럭도이다.FIG. 5 is a block diagram for reference in explaining a vehicle according to an embodiment of the present specification.

도 1 내지 도 5를 참조하면, 차량(100)은 동력원에 의해 회전하는 바퀴, 차량(100)의 진행 방향을 조절하기 위한 조향 입력 장치(510)를 포함할 수 있다.Referring to FIGS. 1 to 5, the vehicle (100) may include wheels that rotate by a power source and a steering input device (510) for controlling the direction of travel of the vehicle (100).

차량(100)은 자율 주행 차량일 수 있다. The vehicle (100) may be an autonomous vehicle.

차량(100)은, 사용자 입력에 기초하여, 자율 주행 모드 또는 메뉴얼 모드로 전환될 수 있다. The vehicle (100) can be switched to autonomous driving mode or manual mode based on user input.

예를 들면, 차량(100)은, 사용자 인터페이스 장치(200)를 통해, 수신되는 사용자 입력에 기초하여, 메뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 메뉴얼 모드로 전환될 수 있다.For example, the vehicle (100) can be switched from manual mode to autonomous driving mode or from autonomous driving mode to manual mode based on user input received through the user interface device (200).

차량(100)은, 주행 상황 정보에 기초하여, 자율 주행 모드 또는 메뉴얼 모드로 전환될 수 있다. 주행 상황 정보는, 오브젝트 검출 장치(300)에서 제공된 오브젝트 정보에 기초하여 생성될 수 있다.The vehicle (100) can be switched to autonomous driving mode or manual mode based on driving situation information. The driving situation information can be generated based on object information provided by the object detection device (300).

예를 들면, 차량(100)은, 오브젝트 검출 장치(300)에서 생성되는 주행 상황 정보에 기초하여, 메뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 메뉴얼 모드로 전환될 수 있다.For example, the vehicle (100) can be switched from manual mode to autonomous driving mode or from autonomous driving mode to manual mode based on driving situation information generated by the object detection device (300).

예를 들면, 차량(100)은, 통신 장치(400)를 통해 수신되는 주행 상황 정보에 기초하여, 메뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 메뉴얼 모드로 전환될 수 있다.For example, the vehicle (100) can be switched from manual mode to autonomous driving mode or from autonomous driving mode to manual mode based on driving situation information received through the communication device (400).

차량(100)은, 외부 디바이스에서 제공되는 정보, 데이터, 신호에 기초하여 메뉴얼 모드에서 자율 주행 모드로 전환되거나, 자율 주행 모드에서 메뉴얼 모드로 전환될 수 있다.The vehicle (100) can be switched from manual mode to autonomous driving mode or from autonomous driving mode to manual mode based on information, data, and signals provided from an external device.

차량(100)이 자율 주행 모드로 운행되는 경우, 자율 주행 차량(100)은, 운행 시스템(700)에 기초하여 운행될 수 있다. When the vehicle (100) is operated in autonomous driving mode, the autonomous vehicle (100) can be operated based on the driving system (700).

예를 들면, 자율 주행 차량(100)은, 주행 시스템(710), 출차 시스템(740), 주차 시스템(750)에서 생성되는 정보, 데이터 또는 신호에 기초하여 운행될 수 있다.For example, an autonomous vehicle (100) may be driven based on information, data, or signals generated from a driving system (710), an exit system (740), or a parking system (750).

차량(100)이 메뉴얼 모드로 운행되는 경우, 자율 주행 차량(100)은, 운전 조작 장치(500)를 통해 운전을 위한 사용자 입력을 수신할 수 있다. 운전 조작 장치(500)를 통해 수신되는 사용자 입력에 기초하여, 차량(100)은 운행될 수 있다.When the vehicle (100) is driven in manual mode, the autonomous vehicle (100) can receive user input for driving through the driving control device (500). Based on the user input received through the driving control device (500), the vehicle (100) can be driven.

전장(overall length)은 차량(100)의 앞부분에서 뒷부분까지의 길이, 전폭(width)은 차량(100)의 너비, 전고(height)는 바퀴 하부에서 루프까지의 길이를 의미한다. 이하의 설명에서, 전장 방향(L)은 차량(100)의 전장 측정의 기준이 되는 방향, 전폭 방향(W)은 차량(100)의 전폭 측정의 기준이 되는 방향, 전고 방향(H)은 차량(100)의 전고 측정의 기준이 되는 방향을 의미할 수 있다.The overall length refers to the length from the front to the rear of the vehicle (100), the overall width refers to the width of the vehicle (100), and the overall height refers to the length from the bottom of the wheel to the roof. In the following description, the overall length direction (L) may refer to the direction that serves as a reference for measuring the overall length of the vehicle (100), the overall width direction (W) may refer to the direction that serves as a reference for measuring the overall width of the vehicle (100), and the overall height direction (H) may refer to the direction that serves as a reference for measuring the overall height of the vehicle (100).

도 5에 예시된 바와 같이, 차량(100)은, 사용자 인터페이스 장치(200), 오브젝트 검출 장치(300), 통신 장치(400), 운전 조작 장치(500), 차량 구동 장치(600), 운행 시스템(700), 내비게이션 시스템(770), 센싱부(120), 인터페이스부(130), 메모리(140), 제어부(170) 및 전원 공급부(190)를 포함할 수 있다.As illustrated in FIG. 5, the vehicle (100) may include a user interface device (200), an object detection device (300), a communication device (400), a driving operation device (500), a vehicle driving device (600), a driving system (700), a navigation system (770), a sensing unit (120), an interface unit (130), a memory (140), a control unit (170), and a power supply unit (190).

실시예에 따라, 차량(100)은, 본 명세서에서 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.Depending on the embodiment, the vehicle (100) may include other components in addition to the components described herein, or may not include some of the components described herein.

사용자 인터페이스 장치(200)는, 차량(100)과 사용자와의 소통을 위한 장치이다. 사용자 인터페이스 장치(200)는, 사용자 입력을 수신하고, 사용자에게 차량(100)에서 생성된 정보를 제공할 수 있다. 차량(100)은, 사용자 인터페이스 장치(200)를 통해, UI(User Interfaces) 또는 UX(User Experience)를 구현할 수 있다.The user interface device (200) is a device for communication between a vehicle (100) and a user. The user interface device (200) can receive user input and provide information generated in the vehicle (100) to the user. The vehicle (100) can implement a UI (User Interface) or UX (User Experience) through the user interface device (200).

사용자 인터페이스 장치(200)는, 입력부(210), 내부 카메라(220), 생체 감지부(230), 출력부(250) 및 프로세서(270)를 포함할 수 있다.The user interface device (200) may include an input unit (210), an internal camera (220), a biometric detection unit (230), an output unit (250), and a processor (270).

실시예에 따라, 사용자 인터페이스 장치(200)는, 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수도 있다.Depending on the embodiment, the user interface device (200) may include additional components other than the described components, or may not include some of the described components.

입력부(200)는, 사용자로부터 정보를 입력받기 위한 것으로, 입력부(120)에서 수집한 데이터는, 프로세서(270)에 의해 분석되어, 사용자의 제어 명령으로 처리될 수 있다. The input unit (200) is for receiving information from a user, and data collected from the input unit (120) can be analyzed by a processor (270) and processed into a user's control command.

입력부(200)는, 차량 내부에 배치될 수 있다. 예를 들면, 입력부(200)는, 스티어링 휠(steering wheel)의 일 영역, 인스투루먼트 패널(instrument panel)의 일 영역, 시트(seat)의 일 영역, 각 필러(pillar)의 일 영역, 도어(door)의 일 영역, 센타 콘솔(center console)의 일 영역, 헤드 라이닝(head lining)의 일 영역, 썬바이저(sun visor)의 일 영역, 윈드쉴드(windshield)의 일 영역 또는 윈도우(window)의 일 영역 등에 배치될 수 있다.The input unit (200) may be placed inside the vehicle. For example, the input unit (200) may be placed in an area of a steering wheel, an area of an instrument panel, an area of a seat, an area of each pillar, an area of a door, an area of a center console, an area of a head lining, an area of a sun visor, an area of a windshield, or an area of a window.

입력부(200)는, 음성 입력부(211), 제스쳐 입력부(212), 터치 입력부(213) 및 기계식 입력부(214)를 포함할 수 있다.The input unit (200) may include a voice input unit (211), a gesture input unit (212), a touch input unit (213), and a mechanical input unit (214).

음성 입력부(211)는, 사용자의 음성 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는, 프로세서(270) 또는 제어부(170)에 제공될 수 있다. 제어부(170)는 차량(1) 내의 각 유닛의 전반적인 동작을 제어할 수 있다. 제어부(170)는 ECU(Electronic Contol Unit)로 명명될 수 있다. 프로세서(270)는 영상 내의 객체를 검출하여 객체를 판단할 수 있다. 프로세서(270)는 ADAS 판단부로 명명될 수 있다.The voice input unit (211) can convert a user's voice input into an electrical signal. The converted electrical signal can be provided to the processor (270) or the control unit (170). The control unit (170) can control the overall operation of each unit within the vehicle (1). The control unit (170) can be referred to as an ECU (Electronic Control Unit). The processor (270) can detect an object within an image and determine the object. The processor (270) can be referred to as an ADAS determination unit.

음성 입력부(211)는, 하나 이상의 마이크로 폰을 포함할 수 있다.The voice input unit (211) may include one or more microphones.

제스쳐 입력부(212)는, 사용자의 제스쳐 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는, 프로세서(270) 또는 제어부(170)에 제공될 수 있다.The gesture input unit (212) can convert a user's gesture input into an electrical signal. The converted electrical signal can be provided to a processor (270) or a control unit (170).

제스쳐 입력부(212)는, 사용자의 제스쳐 입력을 감지하기 위한 적외선 센서 및 이미지 센서 중 적어도 어느 하나를 포함할 수 있다.The gesture input unit (212) may include at least one of an infrared sensor and an image sensor for detecting a user's gesture input.

실시예에 따라, 제스쳐 입력부(212)는, 사용자의 3차원 제스쳐 입력을 감지할 수 있다. 이를 위해, 제스쳐 입력부(212)는, 복수의 적외선 광을 출력하는 광출력부 또는 복수의 이미지 센서를 포함할 수 있다.According to an embodiment, the gesture input unit (212) may detect a user's three-dimensional gesture input. To this end, the gesture input unit (212) may include a light output unit that outputs a plurality of infrared lights or a plurality of image sensors.

제스쳐 입력부(212)는, TOF(Time of Flight) 방식, 구조광(Structured light) 방식 또는 디스패러티(Disparity) 방식을 통해 사용자의 3차원 제스쳐 입력을 감지할 수 있다.The gesture input unit (212) can detect a user's 3D gesture input through a TOF (Time of Flight) method, a structured light method, or a disparity method.

터치 입력부(213)는, 사용자의 터치 입력을 전기적 신호로 전환할 수 있다. 전환된 전기적 신호는 프로세서(270) 또는 제어부(170)에 제공될 수 있다.The touch input unit (213) can convert a user's touch input into an electrical signal. The converted electrical signal can be provided to a processor (270) or a control unit (170).

터치 입력부(213)는, 사용자의 터치 입력을 감지하기 위한 터치 센서를 포함할 수 있다.The touch input unit (213) may include a touch sensor for detecting a user's touch input.

실시예에 따라, 터치 입력부(213)는 디스플레이부(251)와 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한, 터치 스크린은, 차량(100)과 사용자 사이의 입력 인터페이스 및 출력 인터페이스를 함께 제공할 수 있다.According to an embodiment, the touch input unit (213) may be formed integrally with the display unit (251), thereby implementing a touch screen. Such a touch screen may provide both an input interface and an output interface between the vehicle (100) and the user.

기계식 입력부(214)는, 버튼, 돔 스위치(dome switch), 조그 휠 및 조그 스위치 중 적어도 어느 하나를 포함할 수 있다. 기계식 입력부(214)에 의해 생성된 전기적 신호는, 프로세서(270) 또는 제어부(170)에 제공될 수 있다.The mechanical input unit (214) may include at least one of a button, a dome switch, a jog wheel, and a jog switch. An electrical signal generated by the mechanical input unit (214) may be provided to a processor (270) or a control unit (170).

기계식 입력부(214)는, 스티어링 휠, 센테 페시아, 센타 콘솔, 칵픽 모듈, 도어 등에 배치될 수 있다.The mechanical input unit (214) can be placed on a steering wheel, center fascia, center console, cockpit module, door, etc.

내부 카메라(220)는, 차량 내부 영상을 획득할 수 있다. 프로세서(270)는, 차량 내부 영상을 기초로, 사용자의 상태를 감지할 수 있다. 프로세서(270)는, 차량 내부 영상에서 사용자의 시선 정보를 획득할 수 있다. 프로세서(270)는, 차량 내부 영상에서 사용자의 제스쳐를 감지할 수 있다.The internal camera (220) can capture images of the vehicle interior. The processor (270) can detect the user's status based on the images of the vehicle interior. The processor (270) can obtain information about the user's gaze from the images of the vehicle interior. The processor (270) can detect the user's gestures from the images of the vehicle interior.

생체 감지부(230)는, 사용자의 생체 정보를 획득할 수 있다. 생체 감지부(230)는, 사용자의 생체 정보를 획득할 수 있는 센서를 포함하고, 센서를 이용하여, 사용자의 지문 정보, 심박동 정보 등을 획득할 수 있다. 생체 정보는 사용자 인증을 위해 이용될 수 있다.The biometric detection unit (230) can obtain the user's biometric information. The biometric detection unit (230) includes a sensor capable of obtaining the user's biometric information, and can use the sensor to obtain the user's fingerprint information, heartbeat information, etc. The biometric information can be used for user authentication.

출력부(250)는, 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것이다. The output unit (250) is for generating output related to vision, hearing, or touch.

출력부(250)는, 디스플레이부(251), 음향 출력부(252) 및 햅틱 출력부(253) 중 적어도 어느 하나를 포함할 수 있다.The output unit (250) may include at least one of a display unit (251), an audio output unit (252), and a haptic output unit (253).

디스플레이부(251)는, 다양한 정보에 대응되는 그래픽 객체를 표시할 수 있다. The display unit (251) can display graphic objects corresponding to various information.

디스플레이부(251)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.The display unit (251) may include at least one of a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), a flexible display, a 3D display, and an e-ink display.

디스플레이부(251)는 터치 입력부(213)와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다.The display unit (251) can implement a touch screen by forming a mutual layer structure with the touch input unit (213) or forming it as an integral part.

디스플레이부(251)는 HUD(Head Up Display), CID(Center Information Display), 계기판(Cluster) 및/또는 RSE(Rear Seat Entertainment)로 구현될 수 있다. 디스플레이부(251)가 HUD로 구현되는 경우, 디스플레이부(251)는 투사 모듈을 구비하여 윈드쉴드 또는 윈도우에 투사되는 이미지를 통해 정보를 출력할 수 있다.The display unit (251) may be implemented as a HUD (Head Up Display), a CID (Center Information Display), a cluster, and/or an RSE (Rear Seat Entertainment). When the display unit (251) is implemented as a HUD, the display unit (251) may be equipped with a projection module to output information through an image projected onto a windshield or window.

디스플레이부(251)는, 투명 디스플레이를 포함할 수 있다. 투명 디스플레이는 윈드쉴드 또는 윈도우에 부착될 수 있다. The display unit (251) may include a transparent display. The transparent display may be attached to a windshield or window.

투명 디스플레이는 소정의 투명도를 가지면서, 소정의 화면을 표시할 수 있다. 투명 디스플레이는, 투명도를 가지기 위해, 투명 디스플레이는 투명 TFEL(Thin Film Elecroluminescent), 투명 OLED(Organic Light-Emitting Diode), 투명 LCD(Liquid Crystal Display), 투과형 투명디스플레이, 투명 LED(Light Emitting Diode) 디스플레이 중 적어도 하나를 포함할 수 있다. 투명 디스플레이의 투명도는 조절될 수 있다.A transparent display can display a predetermined screen while having a predetermined transparency. To have transparency, the transparent display may include at least one of a transparent TFEL (Thin Film Electroluminescent), a transparent OLED (Organic Light-Emitting Diode), a transparent LCD (Liquid Crystal Display), a transmissive transparent display, and a transparent LED (Light Emitting Diode) display. The transparency of the transparent display can be adjusted.

음향 출력부(252)는, 프로세서(270) 또는 제어부(170)로부터 제공되는 전기 신호를 오디오 신호로 변환하여 출력한다. 이를 위해, 음향 출력부(252)는, 하나 이상의 스피커를 포함할 수 있다.The audio output unit (252) converts an electric signal provided from the processor (270) or the control unit (170) into an audio signal and outputs the converted signal. To this end, the audio output unit (252) may include one or more speakers.

햅틱 출력부(253)는, 촉각적인 출력을 발생시킨다. 예를 들면, 햅틱 출력부(253)는, 스티어링 휠, 안전 벨트, 시트(110FL, 110FR, 110RL, 110RR)를 진동시켜, 사용자가 출력을 인지할 수 있게 동작할 수 있다.The haptic output unit (253) generates a tactile output. For example, the haptic output unit (253) can operate by vibrating a steering wheel, a seat belt, or a seat (110FL, 110FR, 110RL, 110RR) so that the user can perceive the output.

프로세서(270)는, 사용자 인터페이스 장치(200)의 각 유닛의 전반적인 동작을 제어할 수 있다.The processor (270) can control the overall operation of each unit of the user interface device (200).

실시예에 따라, 사용자 인터페이스 장치(200)는, 복수의 프로세서(270)를 포함하거나, 프로세서(270)를 포함하지 않을 수도 있다.Depending on the embodiment, the user interface device (200) may include a plurality of processors (270) or may not include a processor (270).

사용자 인터페이스 장치(200)에 프로세서(270)가 포함되지 않는 경우, 사용자 인터페이스 장치(200)는, 차량(100)내 다른 장치의 프로세서 또는 제어부(170)의 제어에 따라, 동작될 수 있다.If the user interface device (200) does not include a processor (270), the user interface device (200) may be operated under the control of a processor or control unit (170) of another device in the vehicle (100).

한편, 사용자 인터페이스 장치(200)는, 차량용 디스플레이 장치로 명명될 수 있다.Meanwhile, the user interface device (200) may be referred to as a vehicle display device.

사용자 인터페이스 장치(200)는, 제어부(170)의 제어에 따라 동작될 수 있다.The user interface device (200) can be operated under the control of the control unit (170).

오브젝트 검출 장치(300)는, 차량(100) 외부에 위치하는 오브젝트를 검출하기 위한 장치이다. 오브젝트는, 차량(100)의 운행과 관련된 다양한 물체들일 수 있다. 도 3 및 도 4를 참조하면, 오브젝트(O)는, 차선(OB10), 타 차량(OB11), 보행자(OB12), 이륜차(OB13), 교통 신호(OB14, OB15), 빛, 도로, 구조물, 과속 방지턱, 지형물, 동물 등을 포함할 수 있다.The object detection device (300) is a device for detecting an object located outside a vehicle (100). The object may be various objects related to the operation of the vehicle (100). Referring to FIGS. 3 and 4, the object (O) may include a lane (OB10), another vehicle (OB11), a pedestrian (OB12), a two-wheeled vehicle (OB13), a traffic signal (OB14, OB15), a light, a road, a structure, a speed bump, a terrain, an animal, etc.

차선(Lane)(OB10)은, 주행 차선, 주행 차선의 옆 차선, 대향되는 차량이 주행하는 차선일 수 있다. 차선(Lane)(OB10)은, 차선(Lane)을 형성하는 좌우측 선(Line)을 포함하는 개념일 수 있다.A lane (OB10) may be a driving lane, a lane adjacent to a driving lane, or a lane in which opposing vehicles drive. A lane (OB10) may be a concept that includes lines on the left and right sides that form a lane.

타 차량(OB11)은, 차량(100)의 주변에서 주행 중인 차량일 수 있다. 타 차량은, 차량(100)으로부터 소정 거리 이내에 위치하는 차량일 수 있다. 예를 들면, 타 차량(OB11)은, 차량(100)보다 선행 또는 후행하는 차량일 수 있다.Another vehicle (OB11) may be a vehicle driving around the vehicle (100). The other vehicle may be a vehicle located within a predetermined distance from the vehicle (100). For example, the other vehicle (OB11) may be a vehicle preceding or following the vehicle (100).

보행자(OB12)는, 차량(100)의 주변에 위치한 사람일 수 있다. 보행자(OB12)는, 차량(100)으로부터 소정 거리 이내에 위치하는 사람일 수 있다. 예를 들면, 보행자(OB12)는, 인도 또는 차도상에 위치하는 사람일 수 있다.A pedestrian (OB12) may be a person located around a vehicle (100). A pedestrian (OB12) may be a person located within a predetermined distance from a vehicle (100). For example, a pedestrian (OB12) may be a person located on a sidewalk or roadway.

이륜차(OB12)는, 차량(100)의 주변에 위치하고, 2개의 바퀴를 이용해 움직이는 탈것을 의미할 수 있다. 이륜차(OB12)는, 차량(100)으로부터 소정 거리 이내에 위치하는 2개의 바퀴를 가지는 탈 것일 수 있다. 예를 들면, 이륜차(OB13)는, 인도 또는 차도상에 위치하는 오토바이 또는 자전거일 수 있다.A two-wheeled vehicle (OB12) may refer to a vehicle that is positioned around a vehicle (100) and moves using two wheels. The two-wheeled vehicle (OB12) may be a vehicle with two wheels that is positioned within a predetermined distance from the vehicle (100). For example, the two-wheeled vehicle (OB13) may be a motorcycle or bicycle positioned on a sidewalk or roadway.

교통 신호는, 교통 신호등(OB15), 교통 표지판(OB14), 도로면에 그려진 문양 또는 텍스트를 포함할 수 있다.Traffic signals may include traffic lights (OB15), traffic signs (OB14), and patterns or text painted on the road surface.

빛은, 타 차량에 구비된 램프에서 생성된 빛일 수 있다. 빛은, 가로등에서 생성된 빛을 수 있다. 빛은 태양광일 수 있다.The light may be generated from a lamp installed in another vehicle. The light may be generated from a streetlight. The light may be sunlight.

도로는, 도로면, 커브, 오르막, 내리막 등의 경사 등을 포함할 수 있다.A road may include slopes such as road surfaces, curves, uphill and downhill slopes, etc.

구조물은, 도로 주변에 위치하고, 지면에 고정된 물체일 수 있다. 예를 들면, 구조물은, 가로등, 가로수, 건물, 전봇대, 신호등, 다리를 포함할 수 있다.Structures may be objects located along roads and fixed to the ground. For example, structures may include streetlights, street trees, buildings, utility poles, traffic lights, and bridges.

지형물은, 산, 언덕, 등을 포함할 수 있다.Landforms may include mountains, hills, etc.

한편, 오브젝트는, 이동 오브젝트와 고정 오브젝트로 분류될 수 있다. 예를 들면, 이동 오브젝트는, 타 차량, 보행자를 포함하는 개념일 수 있다. 예를 들면, 고정 오브젝트는, 교통 신호, 도로, 구조물을 포함하는 개념일 수 있다.Meanwhile, objects can be classified into moving objects and fixed objects. For example, moving objects may include concepts such as other vehicles and pedestrians. For example, fixed objects may include concepts such as traffic signals, roads, and structures.

오브젝트 검출 장치(300)는, 카메라(310), 레이더(320), 라이다(330), 초음파 센서(340), 적외선 센서(350) 및 프로세서(370)를 포함할 수 있다.The object detection device (300) may include a camera (310), a radar (320), a lidar (330), an ultrasonic sensor (340), an infrared sensor (350), and a processor (370).

실시예에 따라, 오브젝트 검출 장치(300)는, 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다.Depending on the embodiment, the object detection device (300) may include other components in addition to the described components, or may not include some of the described components.

카메라(310)는, 차량 외부 영상을 획득하기 위해, 차량의 외부의 적절한 곳에 위치할 수 있다. 카메라(310)는, 모노 카메라, 스테레오 카메라(310a), AVM(Around View Monitoring) 카메라(310b) 또는 360도 카메라일 수 있다.The camera (310) may be positioned at an appropriate location outside the vehicle to capture images of the vehicle's exterior. The camera (310) may be a mono camera, a stereo camera (310a), an AVM (Around View Monitoring) camera (310b), or a 360-degree camera.

예를 들면, 카메라(310)는, 차량 전방의 영상을 획득하기 위해, 차량의 실내에서, 프런트 윈드 쉴드에 근접하게 배치될 수 있다. 또는, 카메라(310)는, 프런트 범퍼 또는 라디에이터 그릴 주변에 배치될 수 있다.For example, the camera (310) may be positioned inside the vehicle, close to the front windshield, to capture an image of the front of the vehicle. Alternatively, the camera (310) may be positioned around the front bumper or radiator grill.

예를 들면, 카메라(310)는, 차량 후방의 영상을 획득하기 위해, 차량의 실내에서, 리어 글라스에 근접하게 배치될 수 있다. 또는, 카메라(310)는, 리어 범퍼, 트렁크 또는 테일 게이트 주변에 배치될 수 있다.For example, the camera (310) may be positioned inside the vehicle, close to the rear glass, to capture images of the rear of the vehicle. Alternatively, the camera (310) may be positioned around the rear bumper, trunk, or tailgate.

예를 들면, 카메라(310)는, 차량 측방의 영상을 획득하기 위해, 차량의 실내에서 사이드 윈도우 중 적어도 어느 하나에 근접하게 배치될 수 있다. 또는, 카메라(310)는, 사이드 미러, 휀더 또는 도어 주변에 배치될 수 있다. 카메라(310)는, 획득된 영상을 프로세서(370)에 제공할 수 있다.For example, the camera (310) may be positioned close to at least one of the side windows inside the vehicle to capture images of the vehicle's sides. Alternatively, the camera (310) may be positioned around a side mirror, fender, or door. The camera (310) may provide the captured images to the processor (370).

통신 장치(400)는, 외부 디바이스와 통신을 수행하기 위한 장치이다. 여기서, 외부 디바이스는, 타 차량, 이동 단말기 또는 서버일 수 있다.The communication device (400) is a device for communicating with an external device. Here, the external device may be another vehicle, a mobile terminal, or a server.

광통신부(440)는, 광을 매개로 외부 디바이스와 통신을 수행하기 위한 유닛이다. 광통신부(440)는, 전기 신호를 광 신호로 전환하여 외부에 발신하는 광발신부 및 수신된 광 신호를 전기 신호로 전환하는 광수신부를 포함할 수 있다. 실시예에 따라, 광발신부는, 차량(100)에 포함된 램프와 일체화되게 형성될 수 있다.The optical communication unit (440) is a unit for communicating with an external device via light. The optical communication unit (440) may include a light transmitter that converts an electrical signal into an optical signal and transmits it to the outside, and a light receiver that converts a received optical signal into an electrical signal. According to an embodiment, the light transmitter may be formed to be integrated with a lamp included in the vehicle (100).

차량 구동 장치(600)는, 차량(100)내 각종 장치의 구동을 전기적으로 제어하는 장치이다. 차량 구동 장치(600)는, 파워 트레인 구동부(610), 샤시 구동부(620), 도어/윈도우 구동부(630), 안전 장치 구동부(640), 헤드 램프(650) 및 램프 제어부(660)를 포함할 수 있다. 램프 제어부(660)는 차량(100) 내의 각종 램프 장치(lamp apparatus)에 대한 전자식 제어를 수행할 수 있다. 실시예에 따라, 차량 구동 장치(600)는, 설명되는 구성 요소외에 다른 구성 요소를 더 포함하거나, 설명되는 구성 요소 중 일부를 포함하지 않을 수 있다. 한편, 차량 구동 장치(600)는 프로세서를 포함할 수 있다. 차량 구동 장치(600)의 각 유닛은, 각각 개별적으로 프로세서를 포함할 수 있다. The vehicle drive unit (600) is a device that electrically controls the operation of various devices within a vehicle (100). The vehicle drive unit (600) may include a power train drive unit (610), a chassis drive unit (620), a door/window drive unit (630), a safety device drive unit (640), a head lamp (650), and a lamp control unit (660). The lamp control unit (660) may perform electronic control of various lamp devices within the vehicle (100). Depending on the embodiment, the vehicle drive unit (600) may include additional components other than the described components, or may not include some of the described components. Meanwhile, the vehicle drive unit (600) may include a processor. Each unit of the vehicle drive unit (600) may individually include a processor.

이하, 본 명세서에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 차량에 대해 설명한다. 이와 관련하여, 도 6은 본 명세서에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 차량의 블록도를 나타낸다. 도 6을 참조하면, 차량(1)은 전방 카메라(311)를 통해 전방의 객체를 촬영하여 객체 패턴(OP)이 포함된 객체 영상을 획득한다. 차량(1)은 램프 제어부(660)를 통해 헤드 램프(650)를 제어하여 램프 패턴(LP)을 형성한다. Hereinafter, a vehicle performing lamp control for improving object recognition according to the present specification will be described. In this regard, Fig. 6 illustrates a block diagram of a vehicle performing lamp control for improving object recognition according to the present specification. Referring to Fig. 6, a vehicle (1) photographs an object in front through a front camera (311) to obtain an object image including an object pattern (OP). The vehicle (1) controls a headlamp (650) through a lamp control unit (660) to form a lamp pattern (LP).

도 7은 본 명세서에 따른 램프 제어부의 발광 패턴의 및 전방 카메라의 셔터 개방의 타이밍도와 각 시점에서의 램프 패턴과 객체 패턴을 나타낸 것이다. 도 6 및 도 7(a)를 참조하면, 램프 제어부(660)에 의한 헤드 램프(650)의 발광 패턴은 펄스 폭 변조(pulse width modulation, PWM) 방식으로 구현될 수 있다. 펄스 폭 변조 값이 HIGH 값이면 헤드 램프(650)는 오프 상태가 되고, 펄스 폭 변조 값이 LOW 값이면 헤드 램프(650)는 온 상태가 된다. Fig. 7 shows a timing diagram of the light emission pattern of the lamp control unit according to the present specification and the shutter opening of the front camera, as well as the lamp pattern and object pattern at each point in time. Referring to Figs. 6 and 7(a), the light emission pattern of the head lamp (650) by the lamp control unit (660) can be implemented using a pulse width modulation (PWM) method. When the pulse width modulation value is a HIGH value, the head lamp (650) is turned off, and when the pulse width modulation value is a LOW value, the head lamp (650) is turned on.

헤드 램프(650)의 발광 패턴에 따른 객체의 대비와 관련하여, 발광 차(luminance difference)가 수학식 1과 같이 정의될 수 있다.With respect to the contrast of an object according to the light emission pattern of a head lamp (650), the luminance difference can be defined as in mathematical expression 1.

수학식 1에서 ΔLth는 눈에서 객체를 인지하기 위해 객체의 대비(contrast)를 정의한 것이다. ΔLth의 절대값이 클수록 객체 인식이 잘되는 것으로 간주될 수 있다. ΔLth가 0보다 작으면 역상 대비(negative contrast), ΔLth가 0보다 크면 정상 대비(positive contrast)라고 할 수 있다. ΔLactual/ΔLth의 비율이 가시성 수준(visibility level, VL)으로 정의된다. 한편, ΔLactual 은 Lt - Lb로 정의되며 Lt 은 타겟 대비(target luminance)이고, Lb은 배경 대비(background luminance)이다.In mathematical expression 1, ΔL th defines the contrast of an object for recognizing the object with the eye. The larger the absolute value of ΔL th , the better the object recognition can be considered. If ΔL th is less than 0, it is called negative contrast, and if ΔL th is greater than 0, it is called positive contrast. The ratio of ΔL actual /ΔL th is defined as the visibility level (VL). Meanwhile, ΔL actual is defined as L t - L b , where L t is the target luminance and L b is the background luminance.

수학식 1에서 k는 검출 확률 요소(detection probability factor), α는 타겟 크기, t는 관측 시간(observation time), FCP는 대비 극성 인자(contrast polarity factor), AF는 age factor를 나타낸다. 한편, 은 luminous flux function 및 luminance function을 나타내고, a(α,Lu)는 Blondel-Rey constant를 나타낸다.In mathematical expression 1, k represents the detection probability factor, α represents the target size, t represents the observation time, FCP represents the contrast polarity factor, and AF represents the age factor. Meanwhile, represents the luminous flux function and luminance function, and a(α,Lu) represents the Blondel-Rey constant.

이론적으로는 야간 도로에서 VL이 1이면 장애물 확인이 가능하다. 그러나 실제 야간 도로를 주행하는 운전자 에게는 여러 가지 운전 태스크(driving task)가 요구되며 이로 인해 장애물 확인을 가능하게 하는 VL의 임계치는 실험실 기반 실험결과로 도출된 값보다 항상 클 수밖에 없다. 실험실 조건과 실제 야간 도로 상황에서 요구되는 VL의 비율로 표현되는 field factor는 대략 1 내지 20의 범위의 값을 갖는다.Theoretically, a VL of 1 allows obstacle detection on night roads. However, drivers driving on actual night roads face multiple driving tasks, which means the threshold VL for obstacle detection is always higher than the values derived from laboratory experiments. The field factor, expressed as the ratio of the VL required under laboratory conditions to the VL required under actual night road conditions, typically ranges from 1 to 20.

한편, 헤드 램프(650)의 밝기 조절은 배경 인식 및 전방 차량 및 보행자를 포함하는 객체 인식을 위한 최적의 발광 차(luminance difference)가 형성되도록 복수의 프레임들 간에 발광 제어가 이루어질 수 있다. 최적의 발광 차를 방법은 실험적 측정 뿐아니라 도로 환경에 데한 데이터를 통해 이루어질 수 있다.Meanwhile, the brightness of the headlamp (650) can be controlled between multiple frames to form an optimal luminance difference for background recognition and object recognition, including vehicles and pedestrians ahead. The optimal luminance difference can be determined through experimental measurements as well as data on the road environment.

램프 제어부(660)에 의한 헤드 램프(650)의 발광 패턴은 온 구간과 오프 구간이 반복적으로 구현될 수 있다. 헤드 램프(650)의 파형은 120Hz의 주파수로 온 구간과 오프 구간이 반복될 수 있다. 헤드 램프(650)가 오프되거나 또는 밝기가 감소되도록 밝기 제어 구간(CI)이 형성될 수 있다. The light emission pattern of the head lamp (650) by the lamp control unit (660) can be implemented by repeating on and off periods. The waveform of the head lamp (650) can repeat on and off periods at a frequency of 120 Hz. A brightness control period (CI) can be formed so that the head lamp (650) is turned off or the brightness is reduced.

도 6 및 도 7(b)를 참조하면, 전방 카메라(311)의 셔터의 개방 구간과 폐쇄 구간이 반복적으로 구현될 수 있다. 전방 카메라(311)의 셔터가 개방되어 객체의 영상을 획득하는 프레임 구간(FI)이 형성될 수 있다. 전방 카메라(311)의 셔터가 개방되는 프레임 구간(FI)은 30fps로 설정될 수 있다. 헤드 램프(650)의 파형은 120Hz의 주파수로 반복되므로 프레임 구간(FI)의 제1 주기가 헤드 램프(650)의 밝기 제어 구간(CI)의 제2 주기보다 4배만큼 더 길게 형성된다. 따라서, 전방 카메라(311)의 셔터가 오프되는 구간에서도 헤드 램프(650)의 밝기 제어 구간(CI)이 3번 더 반복될 수 있다.Referring to FIGS. 6 and 7(b), the open and closed sections of the shutter of the front camera (311) can be repeatedly implemented. A frame section (FI) in which the shutter of the front camera (311) is opened to acquire an image of an object can be formed. The frame section (FI) in which the shutter of the front camera (311) is opened can be set to 30 fps. Since the waveform of the head lamp (650) is repeated at a frequency of 120 Hz, the first cycle of the frame section (FI) is formed to be four times longer than the second cycle of the brightness control section (CI) of the head lamp (650). Therefore, the brightness control section (CI) of the head lamp (650) can be repeated three more times even in the section in which the shutter of the front camera (311) is turned off.

전방 카메라(311)의 프레임 구간(FI)에서 전방 차량과 같은 객체를 인식하기 이전에 헤드 램프(650)가 오프되거나 또는 밝기가 감소되도록 밝기 제어 구간(CI)의 시점이 형성될 수 있다. 전방 카메라(311)의 프레임 구간(FI)의 종점까지 객체 인식이 되도록 밝기 제어 구간(CI)의 종점이 형성될 수 있다. 이와 관련하여, 본 명세서는 전방 카메라(311)와 같은 카메라의 셔터와 헤드 램프(650)의 특정 프레임의 타이밍을 일치시키거나 특정 프레임의 타이밍을 소정 시간만큼 선행하도록 구현될 수 있다.A point in time of a brightness control section (CI) may be formed so that the headlamp (650) is turned off or the brightness is reduced before recognizing an object such as a front vehicle in the frame section (FI) of the front camera (311). An end point of the brightness control section (CI) may be formed so that object recognition is performed until the end point of the frame section (FI) of the front camera (311). In this regard, the present specification may be implemented so that the shutter of a camera such as the front camera (311) and a specific frame of the headlamp (650) are matched or the timing of a specific frame is advanced by a predetermined amount of time.

도 6 및 도 7(c)를 참조하면, 헤드 램프(650)는 LED 램프로 구현될 수 있다. 따라서, 헤드 램프(650)에 의한 램프 패턴은 LED 램프 패턴으로 지칭될 수 있다. 전방 카메라(311)의 셔터가 개방되는 구간에서의 제1 및 제5 램프 패턴(LP1, LP5)이 폐쇄되는 구간에서의 제2, 3, 4 램프 패턴(LP2, LP3, LP4)보다 더 밝게 형성된다. 도 6 및 도 7(d)를 참조하면, 헤드 램프(650)의 밝기 변화에 따른 객체의 대비(contrast) 변화를 나타낸다. Referring to FIGS. 6 and 7(c), the head lamp (650) may be implemented as an LED lamp. Accordingly, the lamp pattern by the head lamp (650) may be referred to as an LED lamp pattern. The first and fifth lamp patterns (LP1, LP5) in the section where the shutter of the front camera (311) is opened are formed brighter than the second, third, and fourth lamp patterns (LP2, LP3, LP4) in the section where the shutter is closed. Referring to FIGS. 6 and 7(d), the change in the contrast of an object according to the change in the brightness of the head lamp (650) is shown.

한편, 본 명세서에 따른 차량의 객체 인식 향상을 위한 램프 제어 방법에 대해 설명한다. 이와 관련하여, 도 8는 본 명세서에 따른 차량의 객체 인식 향상을 위한 램프 제어 방법의 흐름도를 나타낸다. Meanwhile, a lamp control method for improving object recognition of a vehicle according to the present specification is described. In this regard, Fig. 8 illustrates a flowchart of a lamp control method for improving object recognition of a vehicle according to the present specification.

도 6 내지 도 8을 참조하면, 램프 제어 방법은 램프 제어부를 구동하는 제1 구동 과정(S110), 헤드 램프의 출력 및 패턴을 제어하는 출력/패턴 제어 과정(S140) 및 전방 카메라를 구동하는 제2 구동 과정(S210)을 포함할 수 있다. 출력/패턴 제어 과정(S140)에서 주변 상황, 객체의 위치 등 조건에 따라 기존 패턴은 유지한 채 카메라 이미지를 획득을 위한 프레임만 제어되도록 헤드 램프(650)의 출력 및 패턴을 제어할 수 있다.Referring to FIGS. 6 to 8, the lamp control method may include a first driving process (S110) for driving a lamp control unit, an output/pattern control process (S140) for controlling the output and pattern of a head lamp, and a second driving process (S210) for driving a front camera. In the output/pattern control process (S140), the output and pattern of the head lamp (650) may be controlled so that only the frame for acquiring a camera image is controlled while maintaining the existing pattern according to conditions such as the surrounding situation and the position of the object.

램프 제어 방법은 헤드 램프를 통해 광을 출력하는 출력 과정(S120), 출력된 광을 객체에 투사하는 투사 과정(S130)을 더 포함할 수 있다. 투사 과정(S130)에서 헤드 램프의 밝기 제어 및 패턴은 응용에 따라 이하의 도 13 내지 도 17에 따라 형성될 수 있다. 램프 제어 방법은 전방 카메라를 통해 이미지를 획득하는 이미지 획득 과정(S220)을 더 포함할 수 있다. 이미지 획득 과정(S220)에서 헤드 램프의 특정 발광 패턴을 통해 객체 인식을 위한 이미지가 획득될 수 있다. The lamp control method may further include an output process (S120) for outputting light through a head lamp, and a projection process (S130) for projecting the output light onto an object. In the projection process (S130), the brightness control and pattern of the head lamp may be formed according to the following FIGS. 13 to 17 depending on the application. The lamp control method may further include an image acquisition process (S220) for acquiring an image through a front camera. In the image acquisition process (S220), an image for object recognition may be acquired through a specific light emission pattern of the head lamp.

한편, 전방 카메라를 구동하는 제2 구동 과정(S210)에서 셔터가 개방되어 이미지 획득 과정(S220)이 수행되기 이전에 출력/패턴 제어 과정(S140)이 반복적으로 수행될 수 있다. Meanwhile, in the second driving process (S210) for driving the front camera, the shutter is opened and the output/pattern control process (S140) can be repeatedly performed before the image acquisition process (S220) is performed.

출력/패턴 제어 과정(S140)을 통해 헤드 램프(650)의 온/오프, 밝기 제어 및 발광 패턴 제어가 가능하다. 발광 패턴 제어와 관련하여, 그라데이션 패턴 제어, 체크 무늬 패턴 제어 및/또는 사선 패턴 제어 등이 가능하다.Through the output/pattern control process (S140), the on/off, brightness control, and light emission pattern control of the head lamp (650) are possible. With regard to light emission pattern control, gradient pattern control, checkered pattern control, and/or diagonal pattern control are possible.

램프 제어 방법은 이미지 내의 객체를 인식하는 객체 인식 과정(S230) 및 객체 인식 정보를 활용하는 인식 정보 활용 과정(S240)을 더 포함할 수 있다. 객체 인식 과정(S230)에서 객체 인식 알고리즘은 YOLO (You Only Look Once) v8이 사용될 수 있지만, 이에 한정되는 것은 아니고 응용에 따라 변경 가능하다. YOLO 모델은 이미지를 한 번만 보는 1-stage detector 방식을 사용하며 이를 바탕으로 객체의 종류와 위치를 추측하는 딥러닝 기반의 객체 인식 알고리즘이다. 따라서, 본 명세서의 객체 인식 방법은 객체 인식의 최적 값을 찾기 위해 획득된 영상들의 객체 인식을 위해 AI 학습이 이용될 수 있다.The lamp control method may further include an object recognition process (S230) for recognizing an object in an image and a recognition information utilization process (S240) for utilizing object recognition information. In the object recognition process (S230), the object recognition algorithm may use YOLO (You Only Look Once) v8, but is not limited thereto and may be changed depending on the application. The YOLO model is a deep learning-based object recognition algorithm that uses a 1-stage detector method that only looks at the image once and estimates the type and location of the object based on the detector method. Therefore, the object recognition method of the present specification may utilize AI learning for object recognition of acquired images to find the optimal value for object recognition.

한편, small target visibility 모델을 이용하여 차량 도로 및 보행자 도로의 밝기 상태를 판단하여, 밝기 상태에 따른 객체 인식의 정확도를 수치화할 수 있다. 또한, 차량 도로 및 보행자 도로의 밝기 상태에 따라 전방 차량 및 보행자의 인식 정확도를 향상시키면서 해당 차량의 주행 제어 및 주행 성능 평가가 이루어질 수 있다.Meanwhile, the small target visibility model can be used to determine the brightness of vehicle and pedestrian roads, allowing for quantifying the accuracy of object recognition based on brightness. Furthermore, the accuracy of recognizing vehicles and pedestrians ahead can be improved based on the brightness of the vehicle and pedestrian roads, enabling the vehicle's driving control and performance evaluation.

YOLO 모델은 단일 신경망 구조를 사용하기 때문에 구성이 간단하며 The YOLO model is simple to configure because it uses a single neural network structure.

빠르다. 또한, YOLO 모델은 주변 정보까지 학습하므로 이미지 전체를 처리하기 때문에 배경 오류(background error)가 낮다. YOLO 모델은 입력 파일(input file)을 받으면 하나의 컨볼루션 네트워크(convolution network)가 이미지 내에서 찾고자 하는 객체의 바운딩 박스(bounding box)의 위치 정보인 x,y,w,h의 변화를 통해 바운딩 박스(bounding box)의 클래스(class) 확률을 동시에 계산한다. 인식 정보 활용 과정(S240)에서 객체 인식을 통한 정보는 차량 정보 표시창 또는 해당 정보를 이용하는 차량의 각종 기계, 전자 장치의 제어 등에 사용될 수 있다.It is fast. In addition, since the YOLO model learns surrounding information, it processes the entire image, so the background error is low. When the YOLO model receives an input file, a single convolutional network simultaneously calculates the class probability of the bounding box through changes in x, y, w, and h, which are the location information of the bounding box of the object to be found in the image. In the recognition information utilization process (S240), information through object recognition can be used for controlling the vehicle information display window or various machines and electronic devices of the vehicle that utilize the information.

한편, 본 명세서에 따른 램프 제어 방법은 전방 카메라(311)에 의해 이미지 획득 이후 램프 제어부(660)를 구동하도록 구성될 수 있다. 이와 관련하여, 도 9는 본 명세서에 따른 전방 카메라에 의해 이미지 획득 이후 램프 제어부를 구동하도록 구성된 램프 제어 방법을 나타낸다. Meanwhile, the lamp control method according to the present specification may be configured to drive the lamp control unit (660) after image acquisition by the front camera (311). In this regard, FIG. 9 illustrates a lamp control method configured to drive the lamp control unit after image acquisition by the front camera according to the present specification.

도 6 내지 도 9를 참조하면, 램프 제어 방법은 전방 카메라를 구동하는 구동 과정(S10), 전체 배경의 밝기를 측정하는 밝기 측정 과정(S30) 및 헤드 램프의 출력 및 패턴을 제어하는 출력/패턴 제어 과정(S140)을 포함할 수 있다.Referring to FIGS. 6 to 9, the lamp control method may include a driving process (S10) for driving a front camera, a brightness measurement process (S30) for measuring the brightness of the entire background, and an output/pattern control process (S140) for controlling the output and pattern of the head lamp.

전방 카메라를 구동하는 구동 과정(S10)에서 셔터가 개방되어 이미지 획득 과정(S20)이 수행되고 획득된 이미지에서 전체 배경의 밝기를 측정하는 밝기 측정 과정(S30)이 수행될 수 있다. 이와 관련하여, 도 10은 실시예들에 따른 밝기 제어 및 패턴 제어와 연관된 패턴들을 나타낸다.In the driving process (S10) for driving the front camera, the shutter may be opened to perform an image acquisition process (S20), and a brightness measurement process (S30) for measuring the brightness of the entire background from the acquired image may be performed. In this regard, FIG. 10 illustrates patterns associated with brightness control and pattern control according to embodiments.

도 10(a) 내지 도 10(c)는 헤드 램프의 출력을 제어하여 밝기 제어가 수행된 결과를 나타낸다. 도 10(a) 내지 도 10(c)를 참조하면 특정 영역의 밝기가 증가하도록 밝기 제어가 수행될 수 있다. 이와 관련하여, 특정 영역의 밝기는 단순 밝기조절 패턴을 통해 밝기 제어가 수행될 수 있다. 또한, 특정 영역의 밝기는 주변 배경의 광량에 의해 밝기 조절 패턴이 형성되고 이에 따라 밝기 제어가 수행될 수 있다.Figures 10(a) to 10(c) illustrate the results of brightness control performed by controlling the output of a headlamp. Referring to Figures 10(a) to 10(c), brightness control can be performed to increase the brightness of a specific area. In this regard, the brightness of a specific area can be controlled through a simple brightness control pattern. Additionally, the brightness of a specific area can be controlled by forming a brightness control pattern based on the amount of light in the surrounding background, and brightness control can be performed accordingly.

도 10(d)는 획득된 이미지에서 차량 도로 부분과 보행자 도로 부분의 밝기를 상이하게 형성한 것이다. 이와 관련하여, 차량 도로 부분은 가로등과 차량들의 램프의 빛들이 많아서 헤드램프를 켜지 않고 어두운 발광 패턴을 형성할 수 있다. 반면에, 보행자 도로 부분에는 빛을 발산시켜 보행자 및 동물들에 대한 돌발상황에 대비할 수 있다.Figure 10(d) shows the acquired image, with the brightness levels of the vehicle road and pedestrian road areas being different. In this regard, the vehicle road area is heavily illuminated by streetlights and vehicle headlights, allowing for a dark, luminous pattern without the need for headlights. Conversely, the pedestrian road area can be illuminated to provide protection against unexpected situations involving pedestrians and animals.

도 10(e)는 차량 도로 부분의 중심 영역의 객체를 인식하기 위한 그라데이션 패턴을 나타낸다. 도 10(f) 및 도 10(g)의 사선 패턴 및 체크무늬 패턴은 객체 인식을 위한 템플릿 데이터로 이용될 수 있다. 도 10(f)의 사선 패턴은 사선 방향과 같은 특정 방향으로 이동하는 차량을 인식하기 위한 템플릿 패턴이다. 예를 들어, 특정 방향으로 형성된 차량 도로 상에서 진행하는 차량들을 인식할 수 있다. 이와 관련하여, 특정 방향으로 형성된 좌회전 도로에서 좌회전 또는 교차로에서 우회전하는 차량들을 인식하도록 형성될 수 있다. 도 10(g)의 체크무늬 패턴은 특정 영역의 일정 크기 이하의 객체를 인식하기 위한 템플릿 패턴이다. 예를 들어, 전방 차량의 흰색 배경의 번호판에 검은색의 차량 번호를 인식하기 위해 차량 번호 크기에 대응되는 크기를 갖는 체크무늬 패턴을 통해 전방 차량의 번호판을 인식할 수 있다. 또한, 차량 전방의 보행자 도로의 일정 크기 이하의 사람의 특정 부분이나 객체의 크기에 대응되는 크기를 갖는 체크무늬 패턴을 통해 사람의 특정 부분이나 객체를 인식할 수 있다.Fig. 10(e) illustrates a gradient pattern for recognizing objects in the central area of a vehicle road section. The diagonal pattern and checkered pattern of Figs. 10(f) and 10(g) can be used as template data for object recognition. The diagonal pattern of Fig. 10(f) is a template pattern for recognizing vehicles moving in a specific direction, such as a diagonal direction. For example, it can recognize vehicles moving on a vehicle road formed in a specific direction. In this regard, it can be formed to recognize vehicles turning left on a left-turn road formed in a specific direction or turning right at an intersection. The checkered pattern of Fig. 10(g) is a template pattern for recognizing objects of a certain size or less in a specific area. For example, to recognize a black license plate on a white background license plate of a vehicle ahead, a checkered pattern having a size corresponding to the license plate size can be used to recognize the license plate of the vehicle ahead. In addition, a checkered pattern having a size corresponding to the size of a specific part of a person or an object of a certain size or less on a pedestrian road in front of the vehicle can be used to recognize a specific part of a person or an object.

도 6 내지 도 10를 참조하면, 램프 제어 방법은 전방 카메라를 통해 이미지를 획득하는 이미지 획득 과정(S20) 및 램프 제어부를 구동하는 제1 구동 과정(S110)을 더 포함할 수 있다. 램프 제어 방법은 헤드 램프의 빔 패턴을 출력하는 빔 패턴 출력 과정(S150) 및 헤드 램프를 통해 광을 출력하는 출력 과정(S120)을 더 포함할 수 있다.Referring to FIGS. 6 to 10, the lamp control method may further include an image acquisition process (S20) for acquiring an image through a front camera and a first driving process (S110) for driving a lamp control unit. The lamp control method may further include a beam pattern output process (S150) for outputting a beam pattern of a head lamp and an output process (S120) for outputting light through the head lamp.

램프 제어 방법은 램프 제어부를 구동하는 제1 구동 과정(S110), 헤드 램프의 출력 및 패턴을 제어하는 출력/패턴 제어 과정(S140) 및 전방 카메라를 구동하는 제2 구동 과정(S210)을 포함할 수 있다. 출력/패턴 제어 과정(S140)에서 주변 상황, 객체의 위치 등 조건에 따라 기존 패턴은 유지한 채 카메라 이미지를 획득을 위한 프레임만 제어되도록 헤드 램프(650)의 출력 및 패턴을 제어할 수 있다.The lamp control method may include a first driving process (S110) for driving a lamp control unit, an output/pattern control process (S140) for controlling the output and pattern of the head lamp, and a second driving process (S210) for driving a front camera. In the output/pattern control process (S140), the output and pattern of the head lamp (650) may be controlled so that only the frame for acquiring a camera image is controlled while maintaining the existing pattern according to conditions such as the surrounding situation and the position of the object.

출력/패턴 제어 과정(S140)에서 도 10(d)의 차량 도로 부분과 보행자 도로 부분의 밝기를 상이하게 제어하는 출력 제어가 수행될 수 있다. 출력/패턴 제어 과정(S140)에서 차량 도로 부분의 중심 영역의 객체를 인식하기 위해 도 10(e)의 그라데이션 패턴이 사용될 수 있다. 출력/패턴 제어 과정(S140)에서 특정 방향으로 형성된 차량 도로 상에서 진행하는 차량들을 인식하거나 또는 특정 방향으로 형성된 좌회전 도로에서 좌회전 또는 교차로에서 우회전하는 차량들을 인식하도록 도 10(f)의 사선 패턴이 사용될 수 있다. 출력/패턴 제어 과정(S140)에서 전방 차량의 흰색 배경의 번호판에 검은색의 차량 번호를 인식하기 위해 차량 번호 크기에 대응되는 크기를 갖는 체크무늬 패턴이 사용될 수 있다. 출력/패턴 제어 과정(S140)에서 차량 전방의 보행자 도로의 일정 크기 이하의 사람의 특정 부분이나 객체를 인식하도록 대응되는 크기를 갖는 체크무늬 패턴이 사용될 수 있다.In the output/pattern control process (S140), output control may be performed to differently control the brightness of the vehicle road portion and the pedestrian road portion of FIG. 10(d). In the output/pattern control process (S140), the gradient pattern of FIG. 10(e) may be used to recognize an object in the center area of the vehicle road portion. In the output/pattern control process (S140), the diagonal pattern of FIG. 10(f) may be used to recognize vehicles moving on a vehicle road formed in a specific direction or to recognize vehicles turning left on a left-turn road formed in a specific direction or turning right at an intersection. In the output/pattern control process (S140), a checkered pattern having a size corresponding to the size of the vehicle number may be used to recognize a black vehicle number on a white background license plate of a vehicle in front. In the output/pattern control process (S140), a checkered pattern having a size corresponding to the size of the vehicle number may be used to recognize a specific part of a person or an object less than a certain size on the pedestrian road in front of the vehicle.

도 11은 실시예들에 따른 가로등 빛의 유무와 헤드 램프 밝기 변화에 따라 촬영된 영상들을 비교한 것이다. 도 11(a)는 가로등 빛이 없는 경우 헤드 램프가 오프 상태에서의 제1 영상을 나타낸다. 도 11(b)는 가로등 빛이 있는 경우 헤드 램프가 온 상태에서의 제2 영상을 나타낸다. 도 11(c)는 가로등 빛이 있는 경우 헤드 램프가 오프 상태에서의 제1 영상을 나타낸다. 도 11(d)는 가로등 빛이 있는 경우 헤드 램프가 온 상태에서의 제2 영상을 나타낸다.Figure 11 compares images captured according to the presence or absence of streetlights and changes in headlamp brightness according to embodiments. Figure 11(a) shows a first image with the headlamps off when there is no streetlight. Figure 11(b) shows a second image with the headlamps on when there is streetlight. Figure 11(c) shows a first image with the headlamps off when there is streetlight. Figure 11(d) shows a second image with the headlamps on when there is streetlight.

도 11(a) 및 도 11(b)를 참조하면, 가로등이 빛이 없는 경우 헤드 램프가 오프 상태인 경우 영상의 대비가 향상된다. 도 11(c) 및 도 11(d)를 참조하면, 가로등이 빛이 있는 경우 헤드 램프가 온 상태인 경우 영상의 대비가 향상된다.Referring to Figures 11(a) and 11(b), the contrast of the image is improved when the streetlight is off and the headlamp is off. Referring to Figures 11(c) and 11(d), the contrast of the image is improved when the streetlight is on and the headlamp is on.

도 12a 및 도 12b는 차량 도로와 배경이 있는 영상에서 객체 인식 영역을 설정한 실시예들을 나타낸다. 도 11(d) 및 도 12a(a)를 참조하면, 가로등 빛이 있는 경우 헤드 램프가 온 상태에서 배경 영상을 획득한다. 도 12a(b)를 참조하면 차량 도로 부분만 헤드 램프가 오프 상태가 되도록 헤드 램프의 빔 패턴을 형성한다. 도 12a(a) 내지 도 12a(c)를 참조하면, 헤드 램프가 온 상태에서 배경 영상에 차량 도로 부분만 헤드 램프가 오프 상태인 빔 패턴을 합성하여 최종 램프 패턴에 의해 획득된 최종 영상을 나타낸다. 따라서, 보행자 도로 부분이 아닌 차량 도로 부분에서의 전방 차량과 같은 객체 인식 성능이 향상될 수 있다.Figures 12a and 12b illustrate embodiments of setting an object recognition area in an image having a vehicle road and a background. Referring to Figures 11(d) and 12a(a), a background image is acquired with the headlamps turned on when there is streetlight light. Referring to Figure 12a(b), a headlamp beam pattern is formed so that only the vehicle road portion has the headlamps turned off. Referring to Figures 12a(a) to 12a(c), a final image acquired by the final lamp pattern is shown by synthesizing a beam pattern in which only the vehicle road portion has the headlamps turned off with the background image while the headlamps are turned on. Therefore, object recognition performance, such as a front vehicle, can be improved in the vehicle road portion but not in the pedestrian road portion.

도 11(b), 도 11(c) 및 도 12b(a)를 참조하면, 차량 도로 부분에서의 전방 차량과 같은 객체 및 배경 영상을 획득한다. 도 12b(b)를 참조하면 전방 차량 부분만 그라데이션이 형성되도록 헤드 램프의 빔 패턴을 형성한다. 도 12b(a) 내지 도 12b(c)를 참조하면, 차량 도로 부분에서의 전방 차량과 같은 객체 및 배경 영상에 전방 차량 부분만 그라데이션이 형성된 헤드 램프의 빔 패턴을 합성하여 최종 램프 패턴에 의해 획득된 최종 영상을 나타낸다. 따라서, 차량 도로 부분 중에서도 전방 차량이 있는 영역에서의 객체 인식 성능이 더 향상될 수 있다.Referring to FIGS. 11(b), 11(c), and 12b(a), an object and background image, such as a front vehicle, are acquired in a vehicle road portion. Referring to FIG. 12b(b), a beam pattern of a headlamp is formed so that a gradient is formed only in a front vehicle portion. Referring to FIGS. 12b(a) to 12b(c), a final image acquired by a final lamp pattern is shown by synthesizing an object and background image, such as a front vehicle, in a vehicle road portion with a beam pattern of a headlamp in which a gradient is formed only in a front vehicle portion. Therefore, object recognition performance in an area where a front vehicle is present among vehicle road portions can be further improved.

한편, 도 13은 도 6의 램프 제어부와 전방 카메라의 온/오프와 연관된 타이밍도를 나타낸다. 도 13을 참조하면, 제1 프레임(F1) 내지 제4 프레임(F4)의 발광 패턴을 갖도록 헤드 램프(650)가 제어될 수 있다. 제1 프레임(F1) 내지 제4 프레임(F4) 중 제2 프레임(F2)에서만 객체 검출 및 인식을 위해 이미지가 획득될 수 있다. 이와 관련하여, 헤드 램프(650)의 밝기 조절은 객체 인식을 위한 최적의 발광 차(luminance difference)가 형성되도록 복수의 프레임들 간에 발광 제어가 이루어질 수 있다. 최적의 발광 차를 방법은 실험적 측정 뿐아니라 도로 환경에 데한 데이터를 통해 이루어질 수 있다.Meanwhile, Fig. 13 shows a timing diagram related to the on/off of the lamp control unit and the front camera of Fig. 6. Referring to Fig. 13, the head lamp (650) can be controlled to have a light emission pattern of the first frame (F1) to the fourth frame (F4). An image can be acquired for object detection and recognition only in the second frame (F2) among the first frame (F1) to the fourth frame (F4). In this regard, the brightness of the head lamp (650) can be controlled by light emission between multiple frames so that an optimal luminance difference for object recognition is formed. The optimal luminance difference can be determined not only through experimental measurements but also through data on the road environment.

도 6 내지 도 13을 참조하면, 전방 카메라(311)에 의해 객체의 영상을 획득하는 프레임 구간(FI) 동안 헤드 램프(650)의 복수의 발광 소자들이 오프될 수 있다. 전방 카메라(311)의 셔터가 개방되는 타이밍과 연관된 제2 프레임(F2)에서 헤드 램프(650)의 복수의 발광 소자들이 오프되도록 제어할 수 있다. 헤드 램프(650)는 수평 축 방향 및 수직 축 방향으로 인접하게 배열된 복수의 발광 소자들을 구비할 수 있다. 헤드 램프(650)의 복수의 발광 소자들은 6X6 LED들로 표시되었지만, 이에 한정되는 것은 아니고 응용에 따라 변경가능하다. Referring to FIGS. 6 to 13, a plurality of light-emitting elements of a head lamp (650) may be turned off during a frame section (FI) in which an image of an object is acquired by a front camera (311). The plurality of light-emitting elements of the head lamp (650) may be controlled to be turned off in a second frame (F2) associated with the timing at which the shutter of the front camera (311) is opened. The head lamp (650) may be equipped with a plurality of light-emitting elements arranged adjacently in the horizontal axis direction and the vertical axis direction. The plurality of light-emitting elements of the head lamp (650) are indicated as 6X6 LEDs, but are not limited thereto and may be changed according to the application.

한편, 프레임 구간(FI)의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 밝기 제어 구간(CI)의 제1 프레임(F1)이 형성될 수 있다. 프레임 구간(FI) 동안 복수의 발광 소자들이 모두 오프 상태가 되도록 밝기 제어 구간(CI)의 제2 프레임(F2)이 형성될 수 있다. 프레임 구간(FI)의 이후 구간인 제2 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 밝기 제어 구간(CI)의 제3 프레임(F3)이 형성될 수 있다. 제2 구간에 후속하는 제3 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 밝기 제어 구간(CI)의 제4 프레임(F4)이 형성될 수 있다. 따라서, 전방 카메라(311)의 셔터가 개방(open)되는 프레임 구간(FI)에서 헤드 램프(650)의 복수의 발광 소자들을 오프시켜 차량 도로 부분에서 전방 차량과 같은 객체를 인식할 수 있다.Meanwhile, a first frame (F1) of a brightness control section (CI) may be formed so that all of the plurality of light-emitting elements are turned on in a first section, which is a section before a frame section (FI). A second frame (F2) of the brightness control section (CI) may be formed so that all of the plurality of light-emitting elements are turned off during the frame section (FI). A third frame (F3) of the brightness control section (CI) may be formed so that all of the plurality of light-emitting elements are turned on in a second section, which is a section after the frame section (FI). A fourth frame (F4) of the brightness control section (CI) may be formed so that all of the plurality of light-emitting elements are turned on in a third section following the second section. Therefore, in a frame section (FI) in which a shutter of a front camera (311) is opened, the plurality of light-emitting elements of the headlamp (650) may be turned off to recognize an object such as a front vehicle on a road portion of the vehicle.

한편, 전방 차량과 같은 객체를 인식하기 위한 헤드 램프(650)의 복수의 발광 소자들의 밝기 제어와 관련하여 전방 카메라(311)의 셔터 주기, 셔터 동작 시점에 한정되는 것은 아니다. 이와 관련하여, 전방 카메라(311)와 같은 카메라의 셔터 이외에 깊이 센서(depth sensor) 및/또는 광학 센싱 장비가 이용될 수 있다. 따라서, 깊이 센서 및/또는 광학 센싱 장비의 동작 주기 및 시점에 연동된 헤드 램프(650)의 복수의 발광 소자들의 밝기 제어를 통해 객체 인식이 이루어질 수 있다. Meanwhile, in relation to brightness control of multiple light-emitting elements of a headlamp (650) for recognizing an object such as a front vehicle, it is not limited to the shutter cycle or shutter operation timing of the front camera (311). In this regard, in addition to the shutter of a camera such as the front camera (311), a depth sensor and/or optical sensing equipment may be used. Accordingly, object recognition can be achieved through brightness control of multiple light-emitting elements of a headlamp (650) linked to the operation cycle and timing of the depth sensor and/or optical sensing equipment.

도 6 내지 도 13을 참조하여, 본 명세서에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 램프 제어부(660) 및 이를 구비하는 차량(1)에 대해 설명한다. 이와 관련하여, 차량(1)은 전방 카메라(311), 헤드 램프(650) 및 램프 제어부(660)를 포함하도록 구성될 수 있다. 전방 카메라(110)는 차량 전방의 객체의 영상의 획득하도록 구성될 수 있다. 헤드 램프(650)는 전방 카메라(110)와 인접하게 배치될 수 있다. 헤드 램프(650)는 수평 축 방향 및 수직 축 방향으로 인접하게 배열된 복수의 발광 소자들을 구비할 수 있다.Referring to FIGS. 6 to 13, a lamp control unit (660) for performing lamp control for improving object recognition according to the present specification and a vehicle (1) including the same will be described. In this regard, the vehicle (1) may be configured to include a front camera (311), a head lamp (650), and a lamp control unit (660). The front camera (110) may be configured to acquire an image of an object in front of the vehicle. The head lamp (650) may be arranged adjacent to the front camera (110). The head lamp (650) may be equipped with a plurality of light-emitting elements arranged adjacently in the horizontal axis direction and the vertical axis direction.

램프 제어부(660)는 헤드 램프(650)를 제어하도록 구성될 수 있다. 램프 제어부(660)는 전자 제어 유닛(ECU)(170) 및 ADAS 판단부(270)와 동작 가능하게 결합될 수 있다. 램프 제어부(660)는 인터페이스(661) 및 프로세서(662)를 포함하도록 구성될 수 있다. 인터페이스(661)는 차량(1)의 전자 제어 유닛(ECU)(170)과 동작 가능하게 결합될 수 있다. 프로세서(662)는 인터페이스(661)를 통해 ECU(170)로부터 헤드 램프(650)의 제어 정보를 수신하도록 구성될 수 있다.The lamp control unit (660) may be configured to control the head lamp (650). The lamp control unit (660) may be operably coupled with an electronic control unit (ECU) (170) and an ADAS determination unit (270). The lamp control unit (660) may be configured to include an interface (661) and a processor (662). The interface (661) may be operably coupled with the electronic control unit (ECU) (170) of the vehicle (1). The processor (662) may be configured to receive control information of the head lamp (650) from the ECU (170) via the interface (661).

프로세서(662)는 전방 카메라(311)로부터 획득한 객체의 영상을 기준으로 ADAS 판단부(270)가 영상 내의 객체를 판단하도록 ADAS 판단부(270)를 제어할 수 있다. 프로세서(662)는 객체를 조향하기 위한 헤드 램프(650)의 제어 정보를 ECU(170)로부터 수신할 수 있다. 프로세서(662)는 헤드 램프(650)의 제어 정보에 기초하여, 전방 카메라(311)에 의해 객체의 영상을 획득하는 프레임에 대응되도록 헤드 램프(650)를 오프하거나 또는 밝기를 감소시킬 수 있다.The processor (662) can control the ADAS judgment unit (270) to judge an object in an image based on an image of the object acquired from the front camera (311). The processor (662) can receive control information of the head lamp (650) for steering the object from the ECU (170). Based on the control information of the head lamp (650), the processor (662) can turn off or reduce the brightness of the head lamp (650) to correspond to a frame in which an image of the object is acquired by the front camera (311).

ADAS 판단부(270)에 의해 판단된 객체에 대한 ADAS 판단 정보는 차량의 ECU(170)로 전송될 수 있다. ADAS 판단 정보에 따라 ECU(170)에서 생성된 헤드 램프(650)의 제어 정보는 헤드 램프 제어부(660)로 전송될 수 있다. 프로세서(662)는 헤드 램프(650)의 제어 정보에 기초하여 프레임 동안 헤드 램프(650)가 오프되거나 또는 밝기가 감소되도록 헤드 램프(650)를 제어할 수 있다.ADAS judgment information on an object judged by the ADAS judgment unit (270) may be transmitted to the vehicle's ECU (170). Control information for the head lamp (650) generated by the ECU (170) according to the ADAS judgment information may be transmitted to the head lamp control unit (660). The processor (662) may control the head lamp (650) to be turned off or have its brightness reduced during a frame based on the control information for the head lamp (650).

프로세서(662)는 전방 카메라(311)에 의해 객체의 영상을 획득하는 프레임 구간(FI) 동안 헤드 램프(650)가 오프되도록 헤드 램프(650)의 밝기 제어 구간(CI)을 설정할 수 있다. 또는, 프로세서(662)는 전방 카메라(311)에 의해 객체의 영상을 획득하는 프레임 구간(FI) 동안 헤드 램프(650)의 밝기가 감소되도록 헤드 램프(650)의 밝기 제어 구간(CI)을 설정할 수 있다. The processor (662) may set a brightness control section (CI) of the head lamp (650) so that the head lamp (650) is turned off during a frame section (FI) in which an image of an object is acquired by the front camera (311). Alternatively, the processor (662) may set a brightness control section (CI) of the head lamp (650) so that the brightness of the head lamp (650) is reduced during a frame section (FI) in which an image of an object is acquired by the front camera (311).

프레임 구간(FI)의 시점보다 밝기 제어 구간(CI)의 시점이 더 빨리 설정될 수 있다. 프레임 구간(FI)의 종점보다 밝기 제어 구간(CI)의 종점이 더 늦게 설정될 수 있다. 이에 따라, 전방 카메라(311)에 의해 객체의 영상을 획득하는 프레임 구간(FI)은 헤드 램프(650)의 밝기 제어 구간(CI) 내에 포함될 수 있다.The start point of the brightness control section (CI) may be set earlier than the start point of the frame section (FI). The end point of the brightness control section (CI) may be set later than the end point of the frame section (FI). Accordingly, the frame section (FI) in which an image of an object is acquired by the front camera (311) may be included within the brightness control section (CI) of the head lamp (650).

한편, 본 명세서에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 차량(1)에서 램프의 밝기 제어 구간은 셔터 주기를 고려하여 동적으로 제어할 수 있다. 차량(1)에서 램프의 밝기 제어 구간은 불연속 프레임 제어 방식으로 수행될 수 있다. 이와 관련하여, 도 14a는 램프의 밝기 제어 구간이 불연속 프레임 제어 방식으로 구현되는 타이밍도와 발광 소자들의 발광 패턴을 나타낸 것이다.Meanwhile, in a vehicle (1) that performs lamp control for improving object recognition according to the present specification, the brightness control section of the lamp can be dynamically controlled by considering the shutter cycle. The brightness control section of the lamp in the vehicle (1) can be performed using a discontinuous frame control method. In this regard, Fig. 14a is a timing diagram illustrating a lamp brightness control section implemented using a discontinuous frame control method and a light emission pattern of light-emitting elements.

도 6 내지 도 12b 및 도 14a를 참조하면, 램프 제어부(660)의 프로세서(662)는 프레임 구간(FI)의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 밝기 제어 구간(CI)의 제1 프레임(F1)을 제어할 수 있다. 프로세서(662)는 프레임 구간(FI) 동안 복수의 발광 소자들이 모두 오프되도록 밝기 제어 구간(CI)의 제2 프레임(F2)을 제어할 수 있다. 프로세서(662)는 프레임 구간(FI)의 이후 구간인 제2 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 밝기 제어 구간(CI)의 제3 프레임(F3)을 제어할 수 있다. 프로세서(662)는 제2 구간에 후속하는 제3 구간에서 복수의 발광 소자들이 모두 오프 상태가 되도록 밝기 제어 구간(CI)의 제4 프레임(F4)을 제어할 수 있다. 이에 따라, 복수의 발광 소자들이 구간 별로 반복적으로 온 상태 및 오프 상태가 되어 전방 차량과 같은 객체를 보다 더 짧은 주기로 검출할 수 있다.Referring to FIGS. 6 to 12B and 14A, the processor (662) of the lamp control unit (660) can control the first frame (F1) of the brightness control section (CI) so that all of the plurality of light-emitting elements are turned on in the first section, which is a section prior to the frame section (FI). The processor (662) can control the second frame (F2) of the brightness control section (CI) so that all of the plurality of light-emitting elements are turned off during the frame section (FI). The processor (662) can control the third frame (F3) of the brightness control section (CI) so that all of the plurality of light-emitting elements are turned on in the second section, which is a section subsequent to the frame section (FI). The processor (662) can control the fourth frame (F4) of the brightness control section (CI) so that all of the plurality of light-emitting elements are turned off in the third section following the second section. Accordingly, the plurality of light-emitting elements are repeatedly turned on and off for each section, so that an object such as a front vehicle can be detected in a shorter cycle.

한편, 본 명세서에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 차량(1)에서 램프 제어 방식은 연속 프레임 제어 방식으로 수행될 수 있다. 이와 관련하여, 도 14b는 램프의 밝기 제어 구간이 연속 프레임 제어 방식으로 구현되는 타이밍도와 발광 소자들의 발광 패턴을 나타낸 것이다. 도 6 내지 도 12b 및 도 14b를 참조하면, 램프 제어부(660)의 프로세서(662)는 프레임 구간(FI)을 포함하는 복수의 구간들에서 복수의 발광 소자들이 모두 오프되도록 밝기 제어 구간(CI)의 연속되는 프레임들을 형성할 수 있다. Meanwhile, in a vehicle (1) that performs lamp control for improving object recognition according to the present specification, the lamp control method may be performed as a continuous frame control method. In this regard, FIG. 14b is a timing diagram in which a brightness control section of a lamp is implemented as a continuous frame control method and illustrates a light-emitting pattern of light-emitting elements. Referring to FIGS. 6 to 12b and FIG. 14b, a processor (662) of a lamp control unit (660) may form continuous frames of a brightness control section (CI) such that a plurality of light-emitting elements are all turned off in a plurality of sections including a frame section (FI).

구체적으로, 프로세서(662)는 프레임 구간(FI)의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 밝기 제어 구간(CI)의 제1 프레임(F1)을 제어할 수 있다. 프로세서(662)는 프레임 구간(FI) 동안 복수의 발광 소자들이 모두 오프되도록 밝기 제어 구간(CI)의 제2 프레임(F2)을 제어할 수 있다. 프로세서(662)는 프레임 구간(FI)의 이후 구간인 제2 구간에서 복수의 발광 소자들이 모두 오프 상태를 유지하도록 밝기 제어 구간(CI)의 제3 프레임(F3)을 제어할 수 있다. 프로세서(662)는 제2 구간에 후속하는 제3 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 밝기 제어 구간(CI)의 제4 프레임(F4)을 제어할 수 있다. 제2 프레임(F2) 및 제3 프레임(F3)의 연속하는 프레임에서 복수의 발광 소자들이 계속하여 오프 상태를 유지할 수 있다. 따라서, 전방 차량과 같은 객체의 검출 주기는 증가하지만, 영상 획득 시간 지연에 따른 타이밍 오차 등의 민감도를 감소시킬 수 있다.Specifically, the processor (662) can control the first frame (F1) of the brightness control section (CI) so that all of the plurality of light-emitting elements are turned on in the first section, which is a previous section of the frame section (FI). The processor (662) can control the second frame (F2) of the brightness control section (CI) so that all of the plurality of light-emitting elements are turned off during the frame section (FI). The processor (662) can control the third frame (F3) of the brightness control section (CI) so that all of the plurality of light-emitting elements remain in the off state in the second section, which is a subsequent section of the frame section (FI). The processor (662) can control the fourth frame (F4) of the brightness control section (CI) so that all of the plurality of light-emitting elements are turned on in the third section following the second section. The plurality of light-emitting elements can continue to remain in the off state in consecutive frames of the second frame (F2) and the third frame (F3). Therefore, the detection period of an object such as a front vehicle increases, but the sensitivity to timing errors due to image acquisition time delays can be reduced.

한편, 본 명세서에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 차량(1)에서 인접한 일부 발광 소자만 오프되도록 제어할 수 있다. 이와 관련하여, 도 15a는 인접한 일부 발광 소자만 오프되는 타이밍도와 발광 소자들의 발광 패턴을 나타낸 것이다.Meanwhile, in a vehicle (1) performing lamp control for improving object recognition according to the present specification, only some adjacent light-emitting elements can be controlled to be turned off. In this regard, Fig. 15a illustrates a timing diagram in which only some adjacent light-emitting elements are turned off and the light-emitting patterns of the light-emitting elements.

도 6 내지 도 12b 및 도 15a를 참조하면, 램프 제어부(660)의 프로세서(662)는 프레임 구간(FI)의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간(CI)의 제1 프레임(F1)을 제어할 수 있다. 이후, 프로세서(662)는 프레임 구간(FI) 동안 복수의 발광 소자들 중 이웃하는 발광 소자들이 오프되도록 밝기 제어 구간(CI)의 제2 프레임(F2)을 제어할 수 있다. 프로세서(662)는 프레임 구간(FI)의 이후 구간인 제2 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 밝기 제어 구간(CI)의 제3 프레임(F3)을 제어할 수 있다.Referring to FIGS. 6 to 12B and 15A, the processor (662) of the lamp control unit (660) can control the first frame (F1) of the brightness control section (CI) so that all of the plurality of light-emitting elements are turned on in the first section, which is a previous section of the frame section (FI). Thereafter, the processor (662) can control the second frame (F2) of the brightness control section (CI) so that neighboring light-emitting elements among the plurality of light-emitting elements are turned off during the frame section (FI). The processor (662) can control the third frame (F3) of the brightness control section (CI) so that all of the plurality of light-emitting elements are turned on in the second section, which is a subsequent section of the frame section (FI).

이에 따라, 복수의 발광 소자들 중 이웃하는 발광 소자들만 오프되거나 밝기를 감소시켜 전방 차량과 같은 객체의 특정 서브 객체가 배치된 영역에 대한 밝기만 선택적으로 조절 가능하다. 따라서, 차량(1)은 전방 차량과 같은 객체의 특정 위치의 특정 서브 객체만 보다 효율적으로 인식하여 특정 서브 객체의 인식률을 향상시킬 수 있다. Accordingly, among the plurality of light-emitting elements, only neighboring light-emitting elements can be turned off or have their brightness reduced, so that the brightness of only the area where a specific sub-object of an object, such as a front vehicle, is placed can be selectively adjusted. Accordingly, the vehicle (1) can more efficiently recognize only a specific sub-object at a specific location of an object, such as a front vehicle, thereby improving the recognition rate of the specific sub-object.

한편, 본 명세서에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 차량(1)에서 이웃하지 않고 이격된 발광 소자가 오프되도록 제어할 수 있다. 이와 관련하여, 도 15b는 이격된 일부 발광 소자만 오프되는 타이밍도와 발광 소자들의 발광 패턴을 나타낸 것이다.Meanwhile, in a vehicle (1) performing lamp control for object recognition enhancement according to the present specification, non-adjacent and spaced-apart light-emitting elements can be controlled to turn off. In this regard, Fig. 15b illustrates a timing diagram in which only some spaced-apart light-emitting elements are turned off and the light-emitting patterns of the light-emitting elements.

도 6 내지 도 12b 및 도 15b를 참조하면, 램프 제어부(660)의 프로세서(662)는 프레임 구간(FI)의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간(CI)의 제1 프레임(F1)을 제어할 수 있다. 이후, 프로세서(662)는 프레임 구간(FI) 동안 복수의 발광 소자들 중 이웃하지 않는 발광 소자들이 오프되도록 밝기 제어 구간(CI)의 제2 프레임(F2)을 제어할 수 있다. 이와 관련하여, 복수의 발광 소자들 중 일정 간격만큼 규칙적으로 이격된 발광 소자들이 오프되도록 제2 프레임(F2)이 제어될 수 있다. 한편, 복수의 발광 소자들 중 비규칙적으로 이격된 발광 소자들이 오프되도록 제2 프레임(F2)이 제어될 수 있다. 프로세서(662)는 프레임 구간(FI)의 이후 구간인 제2 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 밝기 제어 구간(CI)의 제2 프레임(F2)을 제어할 수 있다.Referring to FIGS. 6 to 12B and 15B, the processor (662) of the lamp control unit (660) may control the first frame (F1) of the brightness control section (CI) so that all of the plurality of light-emitting elements are turned on in the first section, which is a previous section of the frame section (FI). Thereafter, the processor (662) may control the second frame (F2) of the brightness control section (CI) so that non-adjacent light-emitting elements among the plurality of light-emitting elements are turned off during the frame section (FI). In this regard, the second frame (F2) may be controlled so that light-emitting elements that are regularly spaced apart from each other by a certain interval among the plurality of light-emitting elements are turned off. Meanwhile, the second frame (F2) may be controlled so that light-emitting elements that are irregularly spaced apart from each other are turned off. The processor (662) may control the second frame (F2) of the brightness control section (CI) so that all of the plurality of light-emitting elements are turned on in the second section, which is a subsequent section of the frame section (FI).

이에 따라, 복수의 발광 소자들 중 일정 간격 이상 이격된 발광 소자들만 오프되거나 밝기를 감소시켜 전방 차량과 같은 객체의 복수의 특정 서브 객체들이 배치된 영역들에 대한 밝기만 선택적으로 조절 가능하다. 따라서, 차량(1)은 전방 차량과 같은 객체의 특정 위치의 특정 서브 객체들만 보다 효율적으로 인식하여 특정 서브 객체들의 인식률을 향상시킬 수 있다. Accordingly, among the plurality of light-emitting elements, only those light-emitting elements spaced apart by a certain distance or more can be turned off or have their brightness reduced, so that the brightness of only the areas where multiple specific sub-objects of an object, such as a front vehicle, are arranged can be selectively adjusted. Accordingly, the vehicle (1) can more efficiently recognize only specific sub-objects at specific locations of an object, such as a front vehicle, thereby improving the recognition rate of specific sub-objects.

한편, 본 명세서에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 차량(1)에서 발광 소자들의 밝기가 감소되도록 디밍 제어가 수행될 수 있다. 이와 관련하여, 도 16a는 발광 소자들의 밝기가 감소되도록 디밍 제어가 수행되는 타이밍도와 발광 소자들의 발광 패턴을 나타낸 것이다.Meanwhile, in a vehicle (1) performing lamp control for improving object recognition according to the present specification, dimming control may be performed to reduce the brightness of light-emitting elements. In this regard, Fig. 16a illustrates a timing diagram for performing dimming control to reduce the brightness of light-emitting elements and a light-emitting pattern of the light-emitting elements.

도 6 내지 도 12b 및 도 16a를 참조하면, 램프 제어부(660)의 프로세서(662)는 프레임 구간(FI)의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 밝기 제어 구간(CI)의 제1 프레임(F1)을 제어할 수 있다. 프로세서(662)는 복수의 발광 소자들이 모두 오프되도록 밝기 제어 구간(CI)의 제2 프레임(F2)을 제어할 수 있다. 프로세서(662)는 프레임 구간(FI)의 이후 구간인 제2 구간에서 온 상태보다 복수의 발광 소자들의 밝기가 감소되도록 밝기 제어 구간(CI)의 제3 프레임(F3)을 제어할 수 있다. 프로세서(662)는 프레임 구간(FI)의 이후 구간인 제2 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 밝기 제어 구간(CI)의 제4 프레임(F4)을 제어할 수 있다. Referring to FIGS. 6 to 12B and FIG. 16A, the processor (662) of the lamp control unit (660) can control the first frame (F1) of the brightness control section (CI) so that all of the plurality of light-emitting elements are turned on in the first section, which is a previous section of the frame section (FI). The processor (662) can control the second frame (F2) of the brightness control section (CI) so that all of the plurality of light-emitting elements are turned off. The processor (662) can control the third frame (F3) of the brightness control section (CI) so that the brightness of the plurality of light-emitting elements is reduced from the on state in the second section, which is a subsequent section of the frame section (FI). The processor (662) can control the fourth frame (F4) of the brightness control section (CI) so that all of the plurality of light-emitting elements are turned on in the second section, which is a subsequent section of the frame section (FI).

이에 따라, 전방 차량과 같은 객체를 검출한 이후에도 헤드 램프를 디밍 제어하여 영상 획득 시간 지연에 따른 타이밍 오차 등을 감소시키면서도 헤드 램프 오프에 따른 안전성 저하를 방지할 수 있다. 한편, 디밍 제어는 전방 차량과 같은 객체의 특정 서브 객체가 배치된 영역에 대한 밝기만 선택적으로 조절하도록 수행될 수 있다. 이와 관련하여, 도 16b는 일부 발광 소자만 밝기가 감소되도록 디밍 제어가 수행되는 타이밍도와 발광 소자들의 발광 패턴을 나타낸 것이다.Accordingly, even after detecting an object such as a front vehicle, the headlamps can be dimmed to reduce timing errors due to image acquisition time delays, while preventing safety degradation due to the headlamps being turned off. Meanwhile, the dimming control can be performed to selectively adjust the brightness only for an area where a specific sub-object of an object such as a front vehicle is placed. In this regard, Fig. 16b illustrates a timing diagram in which dimming control is performed so that the brightness of only some light-emitting elements is reduced, and the light-emitting patterns of the light-emitting elements.

도 6 내지 도 12b 및 도 16b를 참조하면, 램프 제어부(660)의 프로세서(662)는 프레임 구간(FI)의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 밝기 제어 구간(CI)의 제1 프레임(F1)을 제어할 수 있다. 프로세서(662)는 복수의 발광 소자들 중 하나가 오프되도록 밝기 제어 구간(CI)의 제2 프레임(F2)을 제어할 수 있다. 프로세서(662)는 프레임 구간(FI)의 이후 구간인 제2 구간에서 복수의 발광 소자들 중 하나의 밝기가 온 상태보다 감소되도록 밝기 제어 구간(CI)의 제3 프레임(F3)을 제어할 수 있다. 프로세서(662)는 프레임 구간(FI)의 이후 구간인 제2 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 밝기 제어 구간(CI)의 제4 프레임(F4)을 제어할 수 있다. 복수의 발광 소자들 중 하나는 차량의 전방 차량의 특정 서브 객체를 조향하도록 구성될 수 있다.Referring to FIGS. 6 to 12B and 16B, the processor (662) of the lamp control unit (660) may control the first frame (F1) of the brightness control section (CI) so that all of the plurality of light-emitting elements are turned on in the first section, which is a previous section of the frame section (FI). The processor (662) may control the second frame (F2) of the brightness control section (CI) so that one of the plurality of light-emitting elements is turned off. The processor (662) may control the third frame (F3) of the brightness control section (CI) so that the brightness of one of the plurality of light-emitting elements is reduced from the on state in the second section, which is a subsequent section of the frame section (FI). The processor (662) may control the fourth frame (F4) of the brightness control section (CI) so that all of the plurality of light-emitting elements are turned on in the second section, which is a subsequent section of the frame section (FI). One of the plurality of light-emitting elements may be configured to steer a specific sub-object of a vehicle ahead of the vehicle.

한편, 본 명세서에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 차량(1)에서 헤드 램프(650)의 중심부와 주변부의 밝기를 상이하게 하여 그라데이션 제어가 가능하다. 이와 관련하여, 도 17은 헤드 램프의 중심부와 주변부의 밝기를 상이하게 하여 그라데이션 제어를 수행하는 타이밍도와 발광 소자들의 발광 패턴을 나타낸 것이다. Meanwhile, in a vehicle (1) performing lamp control for object recognition enhancement according to the present specification, gradient control is possible by making the brightness of the center and periphery of the headlamp (650) different. In this regard, Fig. 17 illustrates a timing diagram for performing gradient control by making the brightness of the center and periphery of the headlamp different, and the light emission pattern of the light emitting elements.

도 6 내지 도 12b 및 도 17을 참조하면, 램프 제어부(660)의 프로세서(662)는 프레임 구간(FI)의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 밝기 제어 구간의 제1 프레임(F1)을 제어할 수 있다. 프로세서(662)는 프레임 구간(FI) 동안 복수의 발광 소자들 중 일부는 제1 밝기 상태가 되고 나머지는 제2 밝기 상태가 되도록 밝기 제어 구간(CI)의 제2 프레임(F2)을 제어할 수 있다. 복수의 발광 소자들 중 일부는 헤드 램프(650)의 중심부(CP)에 배치되고, 복수의 발광 소자들 중 나머지는 헤드 램프(650)의 주변부(PP)에 배치될 수 있다. 프로세서(662)는 프레임 구간(FI)의 이후 구간인 제2 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 밝기 제어 구간(CI)의 제3 프레임(F3)을 제어할 수 있다. 프로세서(662)는 제2 구간에 후속하는 제3 구간에서 복수의 발광 소자들이 모두 온 상태를 유지하도록 밝기 제어 구간(CI)의 제4 프레임(F4)을 제어할 수 있다.Referring to FIGS. 6 to 12b and 17, the processor (662) of the lamp control unit (660) can control the first frame (F1) of the brightness control section so that all of the plurality of light-emitting elements are turned on in the first section, which is a previous section of the frame section (FI). The processor (662) can control the second frame (F2) of the brightness control section (CI) so that some of the plurality of light-emitting elements are in the first brightness state and the rest are in the second brightness state during the frame section (FI). Some of the plurality of light-emitting elements may be arranged in the center (CP) of the head lamp (650), and the rest of the plurality of light-emitting elements may be arranged in the periphery (PP) of the head lamp (650). The processor (662) can control the third frame (F3) of the brightness control section (CI) so that all of the plurality of light-emitting elements are in the second section, which is a subsequent section of the frame section (FI). The processor (662) can control the fourth frame (F4) of the brightness control section (CI) so that all of the plurality of light-emitting elements remain on in the third section following the second section.

이에 따라, 영상 내의 중심부에 배치된 전방 차량을 포함하는 차량 도로에 대응되게 헤드 램프(650)의 중심부(CP)에 배치된 복수의 발광 소자들 중 일부를 오프하거나 낮은 밝기로 발광 제어할 수 있다. 한편, 보행자 도로에 대응되게 헤드 램프(650)의 주변부(PP)에 배치된 복수의 발광 소자들 중 나머지들보다 높은 밝기로 발광 제어할 수 있다.Accordingly, some of the light emitting elements arranged in the center (CP) of the headlamp (650) can be turned off or controlled to emit light at a low brightness in response to a vehicle road including a front vehicle arranged in the center of the image. Meanwhile, some of the light emitting elements arranged in the periphery (PP) of the headlamp (650) in response to a pedestrian road can be controlled to emit light at a higher brightness than the rest.

복수의 발광 소자들 중 일정 간격 이상 이격된 발광 소자들만 오프되거나 밝기를 감소시켜 전방 차량과 같은 객체의 복수의 특정 서브 객체들이 배치된 영역들에 대한 밝기만 선택적으로 조절 가능하다. 따라서, 차량(1)은 전방 차량과 같은 객체의 특정 위치의 특정 서브 객체들만 보다 효율적으로 인식하여 특정 서브 객체들의 인식률을 향상시킬 수 있다. Among the plurality of light-emitting elements, only those light-emitting elements spaced apart from each other by a certain distance are turned off or have their brightness reduced, so that the brightness of only the areas where multiple specific sub-objects of an object, such as a front vehicle, are arranged can be selectively adjusted. Accordingly, the vehicle (1) can more efficiently recognize only specific sub-objects at specific locations of an object, such as a front vehicle, thereby improving the recognition rate of specific sub-objects.

한편, 본 명세서에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 차량(1)에서 가로등과 같은 외부 조명 여부에 따른 제어가 수행될 수 있다. 도 6 내지 도 12b를 참조하면, 램프 제어부(660)의 프로세서(662)는 외부 조명이 있는 것으로 판단되면, 프레임 구간(FI) 동안 헤드 램프가 오프 상태가 되도록 제어할 수 있다. 프로세서(662)는 외부 조명이 없는 것으로 판단되면, 프레임 구간(FI) 동안 헤드 램프가 온 상태 또는 온 상태보다 밝기가 감소되도록 제어할 수 있다. Meanwhile, in a vehicle (1) that performs lamp control for improving object recognition according to the present specification, control may be performed depending on the presence of external lighting such as streetlights. Referring to FIGS. 6 to 12B, if the processor (662) of the lamp control unit (660) determines that there is external lighting, it may control the headlamp to be turned off during the frame section (FI). If the processor (662) determines that there is no external lighting, it may control the headlamp to be turned on or to have its brightness reduced from the on state during the frame section (FI).

한편, 프로세서(662)는 외부 조명의 밝기가 임계 밝기 미만이면, 프레임 구간(FI) 동안 헤드 램프가 온 상태보다 밝기가 감소되도록 제어할 수 있다. 프로세서(662)는 외부 조명의 밝기가 임계 밝기 이상이면, 프레임 구간(FI) 동안 헤드 램프가 오프 상태가 되도록 제어할 수 있다. 램프 제어부(660)는 외부 조명이 없는 것으로 판단되면, 프레임 구간(FI) 동안 헤드 램프가 온 상태가 되도록 제어할 수 있다. Meanwhile, if the brightness of the external light is lower than the threshold brightness, the processor (662) can control the head lamp to be turned off during the frame period (FI). If the brightness of the external light is higher than the threshold brightness, the processor (662) can control the head lamp to be turned on during the frame period (FI). If it is determined that there is no external light, the lamp control unit (660) can control the head lamp to be turned on during the frame period (FI).

한편, 본 명세서에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 차량(1)에서 차량 도로, 보행자 도로에 따른 발광 제어가 이루어질 수 있다. 이와 관련하여, 도 18은 차량의 헤드 램프를 통해 차량 도로 및 보행자 도로에 따른 서로 다른 발광 제어를 수행하는 개념도이다. 도 18을 참조하면, 차량 도로의 전방 차량과 같은 타 차량(OB11)을 검출할 수 있다. 차량(1)은 차량 도로의 반대 방향의 차량(OB2)를 검출할 수 있다. 차량(1)은 보행자 도로의 보행자(OB12, OB12´)을 검출할 수 있다. Meanwhile, in a vehicle (1) that performs lamp control for improving object recognition according to the present specification, light emission control can be performed according to a vehicle road and a pedestrian road. In this regard, Fig. 18 is a conceptual diagram for performing different light emission controls according to a vehicle road and a pedestrian road through a headlamp of the vehicle. Referring to Fig. 18, another vehicle (OB11), such as a vehicle ahead on a vehicle road, can be detected. The vehicle (1) can detect a vehicle (OB2) in the opposite direction of the vehicle road. The vehicle (1) can detect pedestrians (OB12, OB12´) on a pedestrian road.

도 19는 시나리오 별로 촬영된 영상들과 헤드 램프의 빔 패턴들을 나타낸다. 도 18 및 도 19(a)를 참조하면, 차량(1)은 전방 차량과 같은 타 차량(OB11)을 검출할 수 있다. 도 6, 도 7, 도 17, 도 18, 도 19(a) 및 도 19(b)를 참조하면, 타 차량(OB11)을 검출하도록 차량 도로의 제2 영역(R2)에 대응되는 헤드 램프(650)의 중심부(CP)가 온 상태가 되도록 할 수 있다. Fig. 19 shows images captured by scenario and beam patterns of headlamps. Referring to Figs. 18 and 19(a), the vehicle (1) can detect another vehicle (OB11) such as a front vehicle. Referring to Figs. 6, 7, 17, 18, 19(a), and 19(b), the center (CP) of the headlamp (650) corresponding to the second region (R2) of the vehicle road can be turned on to detect another vehicle (OB11).

도 18 및 도 19(c)를 참조하면, 차량(1)은 보행자 도로의 보행자(OB12)를 검출할 수 있다. 도 6, 도 7, 도 17, 도 18, 도 19(c) 및 도 19(d)를 참조하면, 보행자(OB12)를 검출하도록 보행자 도로에 대응되는 제1 영역(R1a, R1b)에 대응되는 헤드 램프(650)의 주변부(PP)가 온 상태가 되도록 할 수 있다. 타 차량(OB11)을 촬영하는 프레임 구간(FI) 동안 헤드 램프(650)의 중심부(CP)가 오프 상태가 되도록 할 수 있다.Referring to FIGS. 18 and 19(c), the vehicle (1) can detect a pedestrian (OB12) on a pedestrian road. Referring to FIGS. 6, 7, 17, 18, 19(c), and 19(d), the peripheral portion (PP) of the headlamp (650) corresponding to the first region (R1a, R1b) corresponding to the pedestrian road can be turned on to detect the pedestrian (OB12). The central portion (CP) of the headlamp (650) can be turned off during the frame section (FI) in which another vehicle (OB11) is photographed.

도 18 및 도 19(e)를 참조하면, 차량(1)은 차량 도로의 반대 방향의 차량(OB2)를 검출할 수 있다. 도 6, 도 7, 도 17, 도 18, 도 19(e) 및 도 19(f)를 참조하면, 반대 방향의 차량(OB2)이 접근하는 경우 이에 따른 발광 제어를 수행할 수 있다. 반대 방향의 차량(OB2)이 있는 제3 영역(R3)에 대응하는 헤드 램프(650)의 발광 소자들 중 일부가 오프되게 제어할 수 있다. Referring to FIGS. 18 and 19(e), the vehicle (1) can detect a vehicle (OB2) in the opposite direction of the vehicle road. Referring to FIGS. 6, 7, 17, 18, 19(e), and 19(f), when a vehicle (OB2) in the opposite direction approaches, light emission control can be performed accordingly. Some of the light emitting elements of the headlamp (650) corresponding to the third region (R3) where the vehicle (OB2) in the opposite direction is located can be controlled to be turned off.

도 6 내지 도 12b, 도 17 내지 도 19를 참조하여, 차량 도로, 보행자 도로에 따른 발광 제어에 대해 설명한다. 램프 제어부(660)의 프로세서(662)는 프레임 구간(FI) 동안 보행자 도로가 있는 제1 영역(R1a, R1b)에 대응되는 복수의 발광 소자들 중 일부 영역은 온 상태가 되도록 제어할 수 있다. 프로세서(662)는 프레임 구간(FI) 동안 차량 도로가 있는 제2 영역(R2)에 대응되는 복수의 발광 소자들 중 나머지 영역은 오프 상태가 되도록 제어할 수 있다. Referring to FIGS. 6 to 12b and FIGS. 17 to 19, light emission control according to a vehicle road and a pedestrian road will be described. The processor (662) of the lamp control unit (660) can control some areas among the plurality of light emitting elements corresponding to the first area (R1a, R1b) where the pedestrian road is located during the frame section (FI) to be turned on. The processor (662) can control the remaining areas among the plurality of light emitting elements corresponding to the second area (R2) where the vehicle road is located during the frame section (FI) to be turned off.

복수의 발광 소자들 중 일부 영역의 제1 발광 소자들은 보행자 도로가 있는 제1 방향을 지향하도록 소정 각도를 갖는 곡면 상에 배치될 수 있다. 이에 따라, 제1 발광 소자들은 밝은 상태에서 보행자 도로의 보행자를 검출할 수 있다. 복수의 발광 소자들 중 나머지 영역의 제2 발광 소자들은 차량 도로가 있는 제2 방향을 지향하도록 소정 각도를 갖는 곡면 또는 전면을 지향하도록 평면 상에 배치될 수 있다. 이에 따라, 제2 발광 소자들은 어두운 상태에서 전방 카메라(110)에 의해 차량 도로의 다른 차량을 검출할 수 있다. Among the plurality of light-emitting elements, first light-emitting elements in some areas may be arranged on a curved surface having a predetermined angle so as to face a first direction where a pedestrian road is located. Accordingly, the first light-emitting elements can detect pedestrians on the pedestrian road in a bright state. Among the plurality of light-emitting elements, second light-emitting elements in other areas may be arranged on a curved surface having a predetermined angle so as to face a second direction where a vehicle road is located or on a flat surface so as to face the front. Accordingly, the second light-emitting elements can detect other vehicles on the vehicle road by the front camera (110) in a dark state.

램프 제어부(660)는 도 18 및 도 19의 제1 내지 제3 영역(R1a, R1b, R2, R3) 별로 발광 제어를 수행할 수 있다. 도 6 내지 도 12b, 도 17 내지 도 19를 참조하면, 램프 제어부(660)의 영역 별 발광 제어에 대해 설명한다. 램프 제어부(660)의 프로세서(662)는 프레임 구간(FI)의 제1 구간에서 차량(1)의 전방의 타 차량(OB11)을 검출하도록 차량 도로의 제2 영역에 대응되는 헤드 램프(650)의 중심부(CP)가 온 상태가 되도록 제어할 수 있다. The lamp control unit (660) can perform light emission control for each of the first to third regions (R1a, R1b, R2, R3) of FIGS. 18 and 19. Referring to FIGS. 6 to 12b and FIGS. 17 to 19, the light emission control for each region of the lamp control unit (660) will be described. The processor (662) of the lamp control unit (660) can control the center (CP) of the head lamp (650) corresponding to the second region of the vehicle road to be turned on so as to detect another vehicle (OB11) in front of the vehicle (1) in the first region of the frame section (FI).

프로세서(662)는 타 차량(OB11)을 촬영하는 프레임 구간(FI) 동안 보행자(OB12, OB12´)를 검출하도록 보행자 도로에 대응되는 제1 영역(R1a, R1b)에 대응되는 헤드 램프(650)의 주변부(PP)가 온 상태가 되도록 제어할 수 있다. 프로세서(662)는 타 차량(OB11)을 촬영하는 프레임 구간(FI) 동안 차량 도로의 제2 영역(R2)에 대응되는 헤드 램프(650)의 중심부(CP)가 오프 상태가 되도록 제어할 수 있다.The processor (662) can control the peripheral portion (PP) of the head lamp (650) corresponding to the first region (R1a, R1b) corresponding to the pedestrian road to be turned on so as to detect a pedestrian (OB12, OB12´) during the frame section (FI) for photographing another vehicle (OB11). The processor (662) can control the central portion (CP) of the head lamp (650) corresponding to the second region (R2) of the vehicle road to be turned off during the frame section (FI) for photographing another vehicle (OB11).

프로세서(662)는 차량 도로의 반대 방향의 차량(OB2)이 접근하는 경우, 프레임 구간(FI) 동안 반대 방향의 차량(OB2)이 있는 제3 영역(R3)에 대응하는 헤드 램프(650)의 발광 소자들 중 일부가 오프되게 제어할 수 있다. 또는, 프로세서(662)는 프레임 구간(FI) 동안 반대 방향의 차량(OB2)이 있는 제3 영역(R3)에 대응하는 헤드 램프(650)의 발광 소자들 중 일부가 온 상태보다 밝기가 감소되도록 제어할 수 있다. When a vehicle (OB2) in the opposite direction of the road approaches, the processor (662) may control some of the light-emitting elements of the head lamp (650) corresponding to the third region (R3) where the vehicle (OB2) in the opposite direction is present during the frame section (FI) to be turned off. Alternatively, the processor (662) may control some of the light-emitting elements of the head lamp (650) corresponding to the third region (R3) where the vehicle (OB2) in the opposite direction is present during the frame section (FI) to be reduced in brightness from the on state.

이에 따라, 차량 도로의 반대 방향의 차량이 접근하면 반대 방향의 차량(OB2)의 움직임을 검출하여 안전 제어를 수행할 수 있다. 또한, 차량 도로의 반대 방향의 차량(OB2)이 접근하면 반대 방향의 차량(OB2)의 움직임을 검출하면서 반대 방향의 차량(OB2)의 운전에 방해가 되지 않도록 헤드 램프(650)의 해당 부분을 오프하거나 밝기를 감소시킬 수 있다.Accordingly, when a vehicle in the opposite direction of the road approaches, the movement of the vehicle in the opposite direction (OB2) can be detected to perform safety control. In addition, when a vehicle in the opposite direction of the road approaches, the movement of the vehicle in the opposite direction (OB2) can be detected, and the corresponding part of the headlamp (650) can be turned off or the brightness reduced so as not to interfere with the driving of the vehicle in the opposite direction (OB2).

한편, 본 명세서에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 램프 제어부(660)는 전술한 바와 같이 다양한 패턴들을 상황에 따라 형성하여 객체 인식 정확도를 향상시킬 수 있다. 도 6 내지 도 19를 참조하여 다양한 패턴들을 상황에 따라 형성하여 객체 인식 정확도를 향상시키는 램프 제어를 수행하는 램프 제어부(660)에 대해 설명한다. Meanwhile, the lamp control unit (660) that performs lamp control for improving object recognition according to the present specification can improve object recognition accuracy by forming various patterns according to the situation as described above. Referring to FIGS. 6 to 19, the lamp control unit (660) that performs lamp control for improving object recognition accuracy by forming various patterns according to the situation will be described.

램프 제어부(660)의 프로세서(662)는 헤드 램프(650)를 통해 광을 출력하고, 전방 카메라(311)의 셔터가 개방되어 구동되면 헤드 램프(650)의 온 또는 오프 제어, 밝기 제어 및 발광 패턴 제어를 수행할 수 있다. 프로세서(662)는 차량 도로의 중심 영역의 객체를 인식하도록 중심 영역의 중심점에서 수평 축 방향으로 밝기가 점진적으로 증가하는 그라데이션 패턴을 형성할 수 있다. 그라데이션 패턴은 차량 도로의 제2 영역(R2)에만 형성될 수 있다. 보행자 도로의 제2 영역(R2)의 밝기는 차량 도로의 제1 영역(R1a, R1b) 보다 더 밝게 형성될 수 있다.The processor (662) of the lamp control unit (660) can output light through the head lamp (650), and when the shutter of the front camera (311) is opened and driven, perform on or off control, brightness control, and light emission pattern control of the head lamp (650). The processor (662) can form a gradient pattern in which brightness gradually increases in the horizontal axis direction from the center point of the center area to recognize an object in the center area of the vehicle road. The gradient pattern can be formed only in the second area (R2) of the vehicle road. The brightness of the second area (R2) of the pedestrian road can be formed to be brighter than the first areas (R1a, R1b) of the vehicle road.

램프 제어부(660)의 프로세서(662)는 어두운 패턴과 밝은 패턴이 사선 방향으로 형성되는 사선 패턴이 형성되도록 헤드 램프(650)를 제어할 수 있다. 프로세서(662)는 특정 방향으로 제1 밝기의 제3 영역 및 제3 영역의 양 측에 제1 밝기보다 어두운 제2 밝기로 형성된 제4 영역을 갖는 사선 패턴들을 형성할 수 있다. 프로세서(662)는 특정 방향으로 방향으로 형성된 좌회전 도로에서 좌회전 또는 교차로에서 우회전하는 차량들을 사선 패턴의 제4 영역을 통해 인식할 수 있다.The processor (662) of the lamp control unit (660) can control the headlamp (650) to form a diagonal pattern in which dark patterns and bright patterns are formed in a diagonal direction. The processor (662) can form diagonal patterns having a third region of a first brightness in a specific direction and a fourth region formed with a second brightness darker than the first brightness on both sides of the third region. The processor (662) can recognize vehicles turning left on a left-turn road formed in a specific direction or turning right at an intersection through the fourth region of the diagonal pattern.

프로세서(662)는 어두운 패턴들과 밝은 패턴들이 수평 및 수직 축 방향으로 교대로 나타나는 체크 무늬 패턴이 형성되도록 헤드 램프(650)를 제어할 수 있다. 체크 무늬 패턴은 2차원 영역에서 수평 축 및 수직 방향으로 밝은 영역과 어두운 영역이 교대로 배치되는 구조로 형성될 수 있다. 체크 무늬 패턴을 통해 전방 객체의 일부 영역이 다른 영역에 대해 평면 상에서 돌출되었는지 여부를 판단할 수 있다. 이와 관련하여, 전방 차량의 차량 번호 또는 상태 정보를 나타내는 영역이 다른 영역보다 돌출되어 형성될 수 있다.The processor (662) can control the headlamp (650) to form a checkered pattern in which dark and bright patterns alternate in the horizontal and vertical axes. The checkered pattern can be formed in a structure in which bright and dark areas alternate in the horizontal and vertical directions in a two-dimensional area. The checkered pattern can be used to determine whether a certain area of a front object protrudes from another area on a plane. In this regard, an area indicating the vehicle number or status information of the front vehicle can be formed to protrude from other areas.

램프 제어부(660)의 프로세서(662)는 전방 객체의 일부 영역이 다른 영역에 대해 평면 상에서 돌출되었는지를 인식하도록 체크 무늬 패턴을 형성할 수 있다. 프로세서(662)는 전방 차량의 차량 번호 또는 상태 정보를 인식하도록 수평 축 및 수직 방향으로 밝은 패턴들과 어두운 패턴들이 교대로 반복되는 체크 무늬 패턴을 형성할 수 있다. 프로세서(662)는 체크 무늬 패턴의 어두운 패턴들을 통해 전방 차량의 차량 번호 또는 상태 정보를 인식할 수 있다. 전방 차량의 차량 번호 또는 상태 정보는 전방 차량의 특정 영역 내에서 배경 영역 (예: 번호판, 상태 정보가 표시되는 후면 유리)보다 돌출되어 표시될 수 있다. 예를 들어, 전방 차량의 상태 정보를 표시하는 인디케이터가 표시되는 제1 평면이 차량의 후면 유리가 형성된 제2 평면보다 더 돌출되어 형성될 수 있다.The processor (662) of the lamp control unit (660) can form a checkered pattern to recognize whether a certain area of a front object protrudes from a plane relative to another area. The processor (662) can form a checkered pattern in which bright patterns and dark patterns alternately repeat in the horizontal and vertical directions to recognize the vehicle number or status information of the front vehicle. The processor (662) can recognize the vehicle number or status information of the front vehicle through the dark patterns of the checkered pattern. The vehicle number or status information of the front vehicle can be displayed to protrude from a background area (e.g., a license plate, a rear window on which status information is displayed) within a specific area of the front vehicle. For example, a first plane on which an indicator indicating the status information of the front vehicle is displayed can be formed to protrude more than a second plane on which the rear window of the vehicle is formed.

전방 차량의 상태 정보는 전방 차량의 제동 상태 또는 이상 상태와 연관된 정보일 수 있다. 전방 차량의 제동 상태는 전방 차량과의 거리에 따라 검출될 수 있거나 또는 제동 등의 온/오프 상태에 따라 검출될 수 있다. 전방 차량의 이상 상태는 전방 카메라(311)를 통해 검출된 영상 또는 전방 차량에서 후면 유리 또는 차량 내부 및 외부의 계기판을 통해 표시된 정보일 수 있다.The status information of the preceding vehicle may be information related to the braking status or abnormal condition of the preceding vehicle. The braking status of the preceding vehicle may be detected based on the distance from the preceding vehicle or the on/off status of the braking system. The abnormal condition of the preceding vehicle may be information displayed on the image detected by the front camera (311) or on the rear window of the preceding vehicle or on the instrument panel inside or outside the vehicle.

램프 제어부(660)의 프로세서(662)는 어두운 패턴들과 밝은 패턴들이 상이한 객체들을 검출하도록 헤드 램프(650)를 제어할 수 있다. 프로세서(662)는 어두운 패턴들을 통해 전방 차량의 차량 번호 또는 상태 정보를 인식하면서 동시에 밝은 패턴들을 통해 보행자 도로의 보행자들의 특정 부위 또는 객체를 인식할 수 있다. 이에 따라, 차량은 전방 차량의 상태를 감시하면서 동시에 횡단 보도를 횡단하려는 보행자 도로의 보행자들의 상태를 감시할 수 있다.The processor (662) of the lamp control unit (660) can control the headlamp (650) to detect objects with different dark and bright patterns. The processor (662) can recognize the license plate number or status information of the preceding vehicle through the dark patterns, while simultaneously recognizing specific parts or objects of pedestrians on the pedestrian road through the bright patterns. Accordingly, the vehicle can monitor the status of the preceding vehicle while simultaneously monitoring the status of pedestrians on the pedestrian road attempting to cross the crosswalk.

램프 제어부(660)의 프로세서(662)는 차량 도로와 보행자 도로를 포함하는 전체 배경의 밝기를 측정한 이후, 헤드 램프(650)의 온 또는 오프 제어, 밝기 제어 및 발광 패턴 제어를 수행할 수 있다. 이와 관련하여, 프로세서(662)는 전방 카메라(311)를 통해 획득된 이미지를 통해 차량 도로와 보행자 도로를 포함하는 전체 배경의 밝기를 측정할 수 있다. 프로세서(662)는 차량 도로의 제1 밝기와 보행자 도로의 제2 밝기에 기초하여 헤드 램프(650)의 온 또는 오프 제어, 밝기 제어 및 발광 패턴 제어를 수행할 수 있다. 가로등이 켜져 있는 야간 상황에서 차량 도로의 제1 밝기가 보행자 도로의 제2 밝기보다 임계 치 이상만큼 더 밝게 설정될 수 있다.The processor (662) of the lamp control unit (660) can perform on or off control, brightness control, and light pattern control of the head lamp (650) after measuring the brightness of the entire background including the vehicle road and the pedestrian road. In this regard, the processor (662) can measure the brightness of the entire background including the vehicle road and the pedestrian road through an image acquired through the front camera (311). The processor (662) can perform on or off control, brightness control, and light pattern control of the head lamp (650) based on the first brightness of the vehicle road and the second brightness of the pedestrian road. In a nighttime situation where streetlights are on, the first brightness of the vehicle road can be set to be brighter than the second brightness of the pedestrian road by a threshold or more.

램프 제어부(660)의 프로세서(662)는 차량 도로 부분에 대응하는 헤드 램프(650)의 특정 영역이 오프 상태이고 나머지 영역이 온 상태인 빔 패턴을 합성할 수 있다. 프로세서(662)는 빔 패턴에 따라 차량 도로의 전방 차량 및 보행자 도로의 보행자를 검출할 수 있다. 프로세서(662)는 전방 차량이 제동 상태 또는 이상 상태와 연관된 상태 정보를 전달하면, 체크 무늬 패턴의 발광 패턴을 형성할 수 잇다. 체크 무늬 패턴의 발광 패턴은 전방 차량의 차량 번호 또는 상태 정보를 인식하도록 수평 축 및 수직 방향으로 밝은 패턴들과 어두운 패턴들이 교대로 반복되게 형성될 수 있다. The processor (662) of the lamp control unit (660) can synthesize a beam pattern in which a specific area of the headlamp (650) corresponding to a portion of a vehicle road is off and the remaining area is on. The processor (662) can detect a vehicle ahead on the vehicle road and a pedestrian on the pedestrian road according to the beam pattern. When the vehicle ahead transmits status information related to a braking state or an abnormal state, the processor (662) can form a light-emitting pattern in a checkered pattern. The light-emitting pattern in the checkered pattern can be formed by alternately repeating bright patterns and dark patterns in the horizontal and vertical directions to recognize the vehicle number or status information of the vehicle ahead.

램프 제어부(660)의 프로세서(662)는 체크 무늬 패턴 중 어두운 패턴들을 통해 전방 차량의 차량 번호 또는 상태 정보를 인식하면서, 밝은 패턴들을 통해 보행자 도로의 보행자들의 특정 부위 또는 객체를 인식할 수 있다. 또한, 프로세서(662)는 특정 방향에 따른 사선 패턴을 통해 좌회전 도로에서 좌회전 또는 교차로에서 우회전하는 차량들을 검출할 수도 있다. 이와 관련하여, 차량 도로가 특정 방향으로 형성된 좌회전 도로이거나 교차로인지 여부가 먼저 검출될 수 있다. The processor (662) of the lamp control unit (660) can recognize the license plate number or status information of the vehicle ahead through dark patterns in the checkered pattern, and can recognize specific parts or objects of pedestrians on the pedestrian road through light patterns. In addition, the processor (662) can also detect vehicles turning left on a left-turn road or right at an intersection through diagonal patterns according to a specific direction. In this regard, whether the vehicle road is a left-turn road formed in a specific direction or an intersection can be detected first.

한편, 본 명세서에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 차량(1)은 복수의 카메라들을 이용하여 차량 전방의 객체까지의 거리를 검출할 수 있다. 이와 관련하여, 도 20은 본 명세서에 따른 전방의 객체까지의 거리를 검출할 수 있는 차량의 블록도를 나타낸다. 도 20을 참조하면, 차량(1)은 적외선 (infra-red, IR) 카메라(312), TOF 카메라(313) 및 센서 퓨전 제어부(370)를 더 포함할 수 있다. 따라서, 차량(1)은 카메라(310), 센서 퓨전 제어부(370), 헤드 램프(650) 및 램프 제어부(660)를 포함할 수 있다. 카메라(310)는 전방 카메라(311), IR 카메라(312) 및 TOF 카메라(313)를 포함하도록 구성될 수 있다.Meanwhile, a vehicle (1) that performs lamp control for improving object recognition according to the present specification can detect a distance to an object in front of the vehicle using a plurality of cameras. In this regard, FIG. 20 shows a block diagram of a vehicle that can detect a distance to an object in front of the vehicle according to the present specification. Referring to FIG. 20, the vehicle (1) may further include an infrared (IR) camera (312), a TOF camera (313), and a sensor fusion control unit (370). Accordingly, the vehicle (1) may include a camera (310), a sensor fusion control unit (370), a headlamp (650), and a lamp control unit (660). The camera (310) may be configured to include a front camera (311), an IR camera (312), and a TOF camera (313).

도 1 내지 도 20을 참조하여, 본 명세서에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 램프 제어부(660) 및 이를 구비하는 차량(1)에 대해 설명한다. IR 카메라(312)는 적외선 신호를 통해 제2 영상을 획득하고, 차량 전방의 객체까지의 거리를 검출하도록 구성될 수 있다. TOF 카메라(313)는 펄스 변조된 적외선 빔을 통해 제3 영상을 획득하고 차량 전방의 객체까지의 거리를 검출하도록 구성될 수 있다.Referring to FIGS. 1 to 20, a lamp control unit (660) for performing lamp control for improving object recognition according to the present specification and a vehicle (1) equipped with the same are described. An IR camera (312) may be configured to acquire a second image through an infrared signal and detect a distance to an object in front of the vehicle. A TOF camera (313) may be configured to acquire a third image through a pulse-modulated infrared beam and detect a distance to an object in front of the vehicle.

센서 퓨전 제어부(370)는 전방 카메라(110)를 통해 검출된 영상, IR 카메라(312)를 통해 검출된 제2 영상 및 TOF 카메라(313)를 통해 검출된 제3 영상을 이용할 수 있다. 센서 퓨전 제어부(370)는 복수의 영상들을 통해 차량 도로에 차량 전방의 타 차량(OB11) 및 보행자 도로에 보행자(OB12, OB12´)를 검출할 수 있다. The sensor fusion control unit (370) can use an image detected through the front camera (110), a second image detected through the IR camera (312), and a third image detected through the TOF camera (313). The sensor fusion control unit (370) can detect another vehicle (OB11) in front of the vehicle on the vehicle road and pedestrians (OB12, OB12´) on the pedestrian road through the multiple images.

램프 제어부(660)는 인터페이스(661) 및 프로세서(662)를 포함하도로 구성될 수 있다. 램프 제어부(660)의 프로세서(662)는 전방 카메라(110)의 영상, IR 카메라(312)의 제2 영상 및 TOF 카메라(313)의 제3 영상을 통해 차량 도로에 차량 전방의 타 차량 및 보행자 도로에 보행자를 검출하도록 센서 퓨전 제어부(370)를 제어할 수 있다. 프로세서(662)는 IR 카메라(312) 및 TOF 카메라(313)를 통해 제2 차량까지의 제1 거리에 기초하여 헤드 램프(650)의 밝기 제어 구간(CI)의 시점과 종점을 제어할 수 있다. 프로세서(662)는 IR 카메라(312) 및 TOF 카메라(313)를 통해 제2 차량까지의 제1 거리에 기초하여 프레임 구간(FI)이 밝기 제어 구간(CI)에 포함되도록 밝기 제어 구간(CI)의 시점과 종점을 제어할 수 있다. IR 카메라(312)는 적외선 신호를 통해 제2 영상을 획득하고, 차량 전방의 객체까지의 거리를 검출하도록 구성될 수 있다. TOF 카메라(313)는 펄스 변조된 적외선 빔을 통해 제3 영상을 획득하고 차량 전방의 객체까지의 거리를 검출하도록 구성될 수 있다.The lamp control unit (660) may be configured to include an interface (661) and a processor (662). The processor (662) of the lamp control unit (660) may control the sensor fusion control unit (370) to detect other vehicles in front of the vehicle on the road and pedestrians on the pedestrian road through the image of the front camera (110), the second image of the IR camera (312), and the third image of the TOF camera (313). The processor (662) may control the start and end points of the brightness control section (CI) of the head lamp (650) based on the first distance to the second vehicle through the IR camera (312) and the TOF camera (313). The processor (662) may control the start and end points of the brightness control section (CI) so that the frame section (FI) is included in the brightness control section (CI) based on the first distance to the second vehicle through the IR camera (312) and the TOF camera (313). The IR camera (312) may be configured to acquire a second image via an infrared signal and detect the distance to an object in front of the vehicle. The TOF camera (313) may be configured to acquire a third image via a pulse-modulated infrared beam and detect the distance to an object in front of the vehicle.

한편, 램프 제어부(660)는 보행자 도로의 보행자와 차량 도로의 차량을 동시에 검출하도록 헤드 램프(650)를 제어할 수 있다. 램프 제어부(660)의 프로세서(662)는 전방 카메라(311), IR 카메라(312) 및 TOF 카메라(313)를 통해 보행자까지의 제2 거리와 위치를 검출할 수 있다. 프로세서(662)는 센서 퓨전 제어부(370)를 통해 검출된 보행자의 위치에 기초하여, 프레임 구간(FI) 동안 보행자 도로가 있는 제1 영역에 대응되는 복수의 발광 소자들 중 일부 영역은 온 상태가 되도록 제어할 수 있다. 프로세서(662)는 프레임 구간(FI) 동안 차량 도로가 있는 제2 영역에 대응되는 복수의 발광 소자들 중 나머지 영역은 오프 상태가 되도록 제어할 수 있다. Meanwhile, the lamp control unit (660) can control the headlamp (650) to simultaneously detect a pedestrian on a pedestrian road and a vehicle on a vehicle road. The processor (662) of the lamp control unit (660) can detect the second distance and position to the pedestrian through the front camera (311), the IR camera (312), and the TOF camera (313). Based on the position of the pedestrian detected through the sensor fusion control unit (370), the processor (662) can control some areas among the plurality of light-emitting elements corresponding to the first area where the pedestrian road is located during the frame section (FI) to be in an on state. The processor (662) can control the remaining areas among the plurality of light-emitting elements corresponding to the second area where the vehicle road is located during the frame section (FI) to be in an off state.

복수의 발광 소자들 중 일부 영역의 제1 발광 소자들은 보행자 도로의 보행자가 있는 제1 방향을 지향하도록 소정 각도를 갖는 곡면 상에 배치될 수 있다. 이에 따라, 제1 발광 소자들은 밝은 상태에서 보행자 도로의 보행자를 검출할 수 있다. 복수의 발광 소자들 중 나머지 영역의 제2 발광 소자들은 차량 도로의 제2 차량이 있는 제2 방향을 지향하도록 소정 각도를 갖는 곡면 또는 전면을 지향하도록 평면 상에 배치될 수 있다. 이에 따라, 제2 발광 소자들은 어두운 상태에서 전방 카메라(110)에 의해 차량 도로의 다른 차량을 검출할 수 있다. 또한, IR 카메라(312) 및 TOF 카메라(313)에 의해 다른 차량까지의 거리 및 방향을 검출할 수 있다. Among the plurality of light-emitting elements, first light-emitting elements in some areas may be arranged on a curved surface having a predetermined angle to face a first direction in which a pedestrian is present on a pedestrian road. Accordingly, the first light-emitting elements can detect pedestrians on the pedestrian road in a bright state. Among the plurality of light-emitting elements, second light-emitting elements in the remaining areas may be arranged on a curved surface having a predetermined angle to face a second direction in which a second vehicle is present on the vehicle road or on a flat surface to face the front. Accordingly, the second light-emitting elements can detect other vehicles on the vehicle road by the front camera (110) in a dark state. In addition, the distance and direction to other vehicles can be detected by the IR camera (312) and the TOF camera (313).

한편, 본 명세서에 따른 램프 제어 방법은 복수의 카메라들에 의해 획득된 이미지에 기초하여 이루어질 수 있다. 이와 관련하여, 도 21은 전방 카메라, IR 카메라 및 TOF 카메라에 의해 이미지 획득 이후 램프 제어부를 구동하도록 구성된 램프 제어 방법을 나타낸다. Meanwhile, the lamp control method according to the present specification can be performed based on images acquired by multiple cameras. In this regard, FIG. 21 illustrates a lamp control method configured to drive a lamp control unit after images are acquired by a front camera, an IR camera, and a TOF camera.

도 20 및 도 21을 참조하면, 램프 제어 방법은 복수의 카메라들을 구동하는 구동 과정(S10, S10b, S10c), 센서 퓨전 제어부를 구동하는 센서 퓨전 제어 과정(S15), 전체 배경의 밝기를 측정하는 밝기 측정 과정(S30) 및 헤드 램프의 출력 및 패턴을 제어하는 출력/패턴 제어 과정(S140)을 포함할 수 있다.Referring to FIGS. 20 and 21, the lamp control method may include a driving process (S10, S10b, S10c) for driving a plurality of cameras, a sensor fusion control process (S15) for driving a sensor fusion control unit, a brightness measurement process (S30) for measuring the brightness of the entire background, and an output/pattern control process (S140) for controlling the output and pattern of the head lamp.

전방 카메라(311)를 구동하는 구동 과정(S10)에서 셔터가 개방되어 이미지 획득 과정(S20)이 수행될 수 있다. IR 카메라(312)를 구동하는 구동 과정(S10b)에서 적외선 신호가 객체로 전달되어 이미지 획득 과정(S20)이 수행될 수 있다. TOF 카메라(313)를 구동하는 구동 과정(S10c)에서 펄스 변조된 적외선 빔이 객체로 전달되어 이미지 획득 과정(S20)이 수행될 수 있다.In the driving process (S10) for driving the front camera (311), the shutter may be opened to perform an image acquisition process (S20). In the driving process (S10b) for driving the IR camera (312), an infrared signal may be transmitted to an object to perform an image acquisition process (S20). In the driving process (S10c) for driving the TOF camera (313), a pulse-modulated infrared beam may be transmitted to an object to perform an image acquisition process (S20).

센서 퓨전 제어 과정(S15)에서 전방 카메라(311), IR 카메라(312) 및 TOF 카메라(313)에 의한 이미지들이 검출되도록 각각의 카메라들의 신호 및 빔의 송출 구간을 제어할 수 있다. 이미지 획득 과정(S20)에서 전방 카메라(311)의 셔터 개방에 따른 영상, IR 카메라(312)의 적외선 신호에 의한 제2 영상 및 TOF 카메라(313)의 펄스 변조된 적외선 빔에 의한 제3 영상이 획득될 수 있다. In the sensor fusion control process (S15), the signal and beam transmission sections of each camera can be controlled so that images by the front camera (311), IR camera (312), and TOF camera (313) are detected. In the image acquisition process (S20), an image according to the shutter opening of the front camera (311), a second image by the infrared signal of the IR camera (312), and a third image by the pulse-modulated infrared beam of the TOF camera (313) can be acquired.

적외선 신호를 통해 제2 영상을 획득하고, 차량 전방의 객체까지의 거리를 검출할 수 있다. TOF 카메라(313)를 구동하는 구동 과정(S10c)에서 펄스 변조된 적외선 빔을 통해 제3 영상을 획득하고 차량 전방의 객체까지의 거리를 검출할 수 있다.A second image can be acquired through an infrared signal, and the distance to an object in front of the vehicle can be detected. In the driving process (S10c) of driving the TOF camera (313), a third image can be acquired through a pulse-modulated infrared beam, and the distance to an object in front of the vehicle can be detected.

도 18 내지 도 21을 참조하면, 밝기 측정 과정(S30) 이하의 과정들에 대해 설명한다. 밝기 측정 과정(S30)을 통해 차량 도로 부분 및 보행자 도로 부분이 포함된 전체 배경 영상에 대한 밝기 측정이 이루어질 수 있다. 이후, 램프 제어 방법은 램프 제어부(660)를 구동하는 제1 구동 과정(S110)을 더 포함할 수 있다. 램프 제어 방법은 헤드 램프의 빔 패턴을 출력하는 빔 패턴 출력 과정(S150) 및 헤드 램프를 통해 광을 출력하는 출력 과정(S120)을 더 포함할 수 있다.Referring to FIGS. 18 to 21, the processes following the brightness measurement process (S30) will be described. Through the brightness measurement process (S30), brightness measurement can be performed on the entire background image including the vehicle road portion and the pedestrian road portion. Thereafter, the lamp control method may further include a first driving process (S110) for driving the lamp control unit (660). The lamp control method may further include a beam pattern output process (S150) for outputting a beam pattern of a head lamp and an output process (S120) for outputting light through the head lamp.

출력/패턴 제어 과정(S140)에서 주변 상황, 객체의 위치 등 조건에 따라 기존 패턴은 유지한 채 카메라 이미지를 획득을 위한 프레임만 제어되도록 헤드 램프(650)의 출력 및 패턴을 제어할 수 있다. 빔 패턴 출력 과정(S150)에서 차량 도로 부분 및 보행자 도로 부분에 상이한 밝기 또는 상이한 패턴을 갖도록 헤드 램프(650)의 빔 패턴을 형성할 수 있다. 출력 과정(S120)에서 상이한 밝기 또는 패턴을 갖는 빔 패턴이 형성된 광 신호를 헤드 램프(650)를 통해 출력할 수 있다.In the output/pattern control process (S140), the output and pattern of the head lamp (650) can be controlled so that only the frame for acquiring the camera image is controlled while maintaining the existing pattern according to conditions such as the surrounding situation and the position of the object. In the beam pattern output process (S150), the beam pattern of the head lamp (650) can be formed to have different brightness or different patterns for the vehicle road portion and the pedestrian road portion. In the output process (S120), an optical signal in which a beam pattern having different brightness or pattern is formed can be output through the head lamp (650).

도 8, 도 18 내지 도 21을 참조하면, 이미지 획득 과정(S220)에서 전방 카메라(110), IR 카메라(312) 및 TOF 카메라(313)를 통해 검출된 이미지들이 형성될 수 있다. 이미지 내의 객체를 인식하는 객체 인식 과정(S230)을 통해 차량 도로에 차량 전방의 타 차량(OB11) 및 보행자 도로에 보행자(OB12, OB12´)를 검출할 수 있다. 이후, 인식 정보 활용 과정(S240)에서 객체 인식을 통한 정보는 차량 정보 표시창 또는 해당 정보를 이용하는 차량의 각종 기계, 전자 장치의 제어 등에 사용될 수 있다.Referring to FIGS. 8, 18 to 21, images detected through a front camera (110), an IR camera (312), and a TOF camera (313) can be formed in an image acquisition process (S220). Through an object recognition process (S230) of recognizing an object in an image, another vehicle (OB11) in front of the vehicle on the road and pedestrians (OB12, OB12´) on the pedestrian road can be detected. Thereafter, in a recognition information utilization process (S240), information obtained through object recognition can be used for controlling a vehicle information display window or various machines and electronic devices of the vehicle that utilize the information.

이상에서는 본 명세세에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 차량에 대해 설명하였다. 본 명세세에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 차량의 기술적 효과는 아래와 같이 요약될 수 있지만, 이에 한정되는 것은 아니다.The above describes a vehicle that performs lamp control to enhance object recognition according to this specification. The technical effects of the vehicle that performs lamp control to enhance object recognition according to this specification can be summarized as follows, but are not limited thereto.

본 명세서에 따른 객체 인식 향상을 위한 램프 제어를 수행하는 차량의 기술적 특징은 다음과 같이 요약될 수 있다.The technical features of a vehicle performing lamp control for improving object recognition according to this specification can be summarized as follows.

본 명세서에 따르면, 카메라의 셔터와 헤드 램프의 특정 프레임의 타이밍을 조절하여, 헤드 램프의 특정 프레임을 조절하여 카메라의 객체 인식의 성능을 향상시킬 수 있다.According to this specification, the performance of object recognition of a camera can be improved by controlling the timing of a specific frame of a camera shutter and a specific frame of a head lamp.

본 명세서에 따르면, 기존의 헤드램프 기능을 유지하면서도 카메라의 셔터와 헤드 램프의 특정 프레임의 타이밍을 일치시키거나 특정 프레임의 타이밍을 소정 시간만큼 선행하게 하여, 객체 인식 성능을 최적으로 향상시킬 수 있다.According to this specification, object recognition performance can be optimally improved by maintaining the existing headlamp function while matching the timing of a camera shutter and a specific frame of a headlamp or advancing the timing of a specific frame by a predetermined amount of time.

본 명세서에 따르면, 가로등이 켜져 있으면 전방 카메라의 셔터 온 동작이 이루어지기 전의 적절한 시점에 헤드 램프를 오프하여 차량의 전방 카메라에 의해 객체 인식 성능을 향상시킬 수 있다.According to this specification, when streetlights are on, the object recognition performance by the front camera of the vehicle can be improved by turning off the headlamp at an appropriate time before the shutter-on operation of the front camera is performed.

본 명세서에 따르면, 차량 도로와 보행자 도로의 밝기 상태에 따라 헤드 램프의 복수의 발광 소자들을 영역 별로 선택적으로 밝기를 제어하여 전방 차량과 보행자 도로에서 모두 객체 인식 성능을 향상시킬 수 있다.According to this specification, the brightness of multiple light-emitting elements of a headlamp can be selectively controlled by region according to the brightness conditions of the vehicle road and the pedestrian road, thereby improving object recognition performance both on the vehicle ahead and on the pedestrian road.

본 명세서에 따르면, 헤드 램프의 밝기 제어와 연관된 특정 프레임만을 변경하기 때문에 헤드 램프의 자동차 규정 및 사용자에게 익숙한 기존 헤드 램프의 시스템에 영향을 주지 않고 카메라의 객체 인식 능력만 향상시킬 수 있다.According to this specification, only the specific frame related to the brightness control of the headlamp can be changed, so that the object recognition capability of the camera can be improved without affecting the automotive regulations of the headlamp and the existing headlamp system that the user is familiar with.

본 명세서의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of this specification are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The present invention described above can be implemented as computer-readable code on a medium having a program recorded thereon. Computer-readable media include all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include hard disk drives (HDDs), solid-state disks (SSDs), silicon disk drives (SDDs), ROMs, RAMs, CD-ROMs, magnetic tapes, floppy disks, and optical data storage devices. Furthermore, the computer may include a processor or a control unit. Therefore, the above detailed description should not be construed as limiting in any respect, but rather as illustrative. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are intended to be included within the scope of the present invention.

Claims (20)

램프 제어부에 있어서,
차량의 전자 제어 유닛(ECU)과 동작 가능하게 결합되는 인터페이스; 및
상기 인터페이스를 통해 상기 ECU로부터 헤드 램프의 제어 정보를 수신하도록 구성된 프로세서를 포함하고,
상기 프로세서는,
전방 카메라로부터 획득한 객체의 영상을 기준으로 ADAS 판단부가 상기 영상 내의 객체를 판단하도록 상기 ADAS 판단부를 제어하고,
상기 객체를 조향하기 위한 헤드 램프의 제어 정보를 상기 ECU로부터 수신하고,
상기 제어 정보에 기초하여, 상기 전방 카메라에 의해 상기 객체의 영상을 획득하는 프레임에 대응되도록 상기 헤드 램프를 오프하거나 또는 밝기를 감소시키는, 램프 제어부.
In the lamp control unit,
An interface operable to be coupled with the vehicle's electronic control unit (ECU); and
A processor configured to receive control information of a head lamp from the ECU through the interface,
The above processor,
Control the ADAS judgment unit so that the ADAS judgment unit judges an object in the image based on the image of the object acquired from the front camera,
Receive control information of the head lamp for steering the above object from the ECU,
A lamp control unit that turns off or reduces the brightness of the head lamp to correspond to a frame in which an image of the object is acquired by the front camera based on the above control information.
제1 항에 있어서,
상기 ADAS 판단부에 의해 판단된 상기 객체에 대한 ADAS 판단 정보는 차량의 상기 ECU로 전송되고,
상기 ADAS 판단 정보에 따라 상기 ECU에서 생성된 상기 헤드 램프의 제어 정보는 상기 램프 제어부로 전송되고,
상기 프로세서는 상기 제어 정보에 기초하여 상기 프레임 동안 상기 헤드 램프가 오프되거나 또는 밝기가 감소되도록 상기 헤드 램프를 제어하는, 램프 제어부.
In the first paragraph,
The ADAS judgment information for the object judged by the ADAS judgment unit is transmitted to the ECU of the vehicle,
The control information of the head lamp generated by the ECU according to the ADAS judgment information is transmitted to the lamp control unit,
A lamp control unit, wherein the processor controls the head lamp to be turned off or have its brightness reduced during the frame based on the control information.
제1 항에 있어서,
상기 프로세서는,
상기 제어 정보에 기초하여, 상기 카메라에 의해 상기 객체의 영상을 획득하는 프레임 구간 동안 상기 헤드 램프가 오프되거나 또는 상기 헤드 램프의 밝기가 감소되도록 상기 헤드 램프의 밝기 제어 구간을 설정하고,
상기 프레임 구간의 시점보다 상기 밝기 제어 구간의 시점이 더 빨리 설정되고,
상기 프레임 구간의 종점보다 상기 밝기 제어 구간의 종점이 더 늦게 설정되는, 램프 제어부.
In the first paragraph,
The above processor,
Based on the above control information, a brightness control section of the head lamp is set so that the head lamp is turned off or the brightness of the head lamp is reduced during a frame section in which an image of the object is acquired by the camera,
The point in time of the brightness control section is set earlier than the point in time of the frame section,
A lamp control unit in which the end point of the brightness control section is set later than the end point of the frame section.
제3 항에 있어서,
상기 프로세서는,
상기 프레임 구간의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제1 프레임을 제어하고,
상기 프레임 구간 동안 상기 복수의 발광 소자들이 모두 오프되도록 상기 밝기 제어 구간의 제2 프레임을 제어하고,
상기 프레임 구간의 이후 구간인 제2 구간에서 상기 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제3 프레임을 제어하는, 램프 제어부.
In the third paragraph,
The above processor,
Controlling the first frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in the first section, which is the previous section of the above frame section,
Controlling the second frame of the brightness control section so that all of the plurality of light-emitting elements are turned off during the frame section;
A lamp control unit that controls the third frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in the second section, which is the section after the frame section.
제3 항에 있어서,
상기 프로세서는,
상기 프레임 구간을 포함하는 복수의 구간들에서 복수의 발광 소자들이 모두 오프 상태가 되도록 상기 밝기 제어 구간의 연속되는 프레임들을 형성하는, 램프 제어부.
In the third paragraph,
The above processor,
A lamp control unit that forms consecutive frames of the brightness control section so that all of the plurality of light-emitting elements are turned off in a plurality of sections including the above frame section.
제3 항에 있어서,
상기 프로세서는,
상기 프레임 구간의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제1 프레임을 제어하고,
상기 프레임 구간 동안 상기 복수의 발광 소자들 중 이웃하는 발광 소자들이 오프되도록 상기 밝기 제어 구간의 제2 프레임을 제어하고,
상기 프레임 구간의 이후 구간인 제2 구간에서 상기 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제3 프레임을 제어하는, 램프 제어부.
In the third paragraph,
The above processor,
Controlling the first frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in the first section, which is the previous section of the above frame section,
Controlling the second frame of the brightness control section so that neighboring light-emitting elements among the plurality of light-emitting elements are turned off during the frame section;
A lamp control unit that controls the third frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in the second section, which is the section after the frame section.
제3 항에 있어서,
상기 프로세서는,
상기 프레임 구간의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제1 프레임을 제어하고,
상기 프레임 구간 동안 상기 복수의 발광 소자들 중 이웃하지 않는 발광 소자들이 오프되도록 상기 밝기 제어 구간의 제2 프레임을 제어하고,
상기 프레임 구간의 이후 구간인 제2 구간에서 상기 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제3 프레임을 제어하는, 램프 제어부.
In the third paragraph,
The above processor,
Controlling the first frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in the first section, which is the previous section of the above frame section,
Controlling the second frame of the brightness control section so that non-adjacent light-emitting elements among the plurality of light-emitting elements are turned off during the frame section;
A lamp control unit that controls the third frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in the second section, which is the section after the frame section.
제3 항에 있어서,
상기 프로세서는,
상기 프레임 구간의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제1 프레임을 제어하고,
상기 프레임 구간 동안 상기 복수의 발광 소자들이 모두 오프되도록 상기 밝기 제어 구간의 제2 프레임을 제어하고,
상기 프레임 구간의 이후 구간인 제2 구간에서 상기 온 상태보다 상기 복수의 발광 소자들이 밝기가 감소되도록 상기 밝기 제어 구간의 제3 프레임을 제어하고,
상기 제2 구간에 후속하는 제3 구간에서 상기 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제4 프레임을 제어하는, 램프 제어부.
In the third paragraph,
The above processor,
Controlling the first frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in the first section, which is the previous section of the above frame section,
Controlling the second frame of the brightness control section so that all of the plurality of light-emitting elements are turned off during the frame section;
In the second section, which is a subsequent section of the above frame section, the third frame of the brightness control section is controlled so that the brightness of the plurality of light-emitting elements is reduced compared to the on state,
A lamp control unit that controls the fourth frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in the third section following the second section.
제3 항에 있어서,
상기 프로세서는,
상기 프레임 구간의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제1 프레임을 제어하고,
상기 프레임 구간 동안 상기 복수의 발광 소자들 중 하나가 오프되도록 상기 밝기 제어 구간의 제2 프레임을 제어하고,
상기 프레임 구간의 이후 구간인 제2 구간에서 상기 복수의 발광 소자들 중 하나의 밝기가 온 상태보다 감소되도록 상기 밝기 제어 구간의 제3 프레임을 제어하고,
상기 제2 구간에 후속하는 제3 구간에서 상기 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제4 프레임을 제어하고,
상기 복수의 발광 소자들 중 하나는 상기 차량의 전방 차량의 특정 서브 객체를 조향하도록 구성되는, 램프 제어부.
In the third paragraph,
The above processor,
Controlling the first frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in the first section, which is the previous section of the above frame section,
Controlling the second frame of the brightness control section so that one of the plurality of light-emitting elements is turned off during the frame section;
In the second section, which is a subsequent section of the above frame section, the third frame of the brightness control section is controlled so that the brightness of one of the plurality of light-emitting elements is reduced from the on state,
In the third section following the second section, the fourth frame of the brightness control section is controlled so that all of the plurality of light-emitting elements are turned on,
A lamp control unit, wherein one of the plurality of light emitting elements is configured to steer a specific sub-object of a front vehicle of the vehicle.
제3 항에 있어서,
상기 프로세서는,
상기 프레임 구간의 이전 구간인 제1 구간에서 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제1 프레임을 제어하고,
상기 프레임 구간 동안 상기 복수의 발광 소자들 중 일부는 제1 밝기 상태가 되고 나머지는 제2 밝기 상태가 되도록 상기 밝기 제어 구간의 제2 프레임을 제어하고,
상기 프레임 구간의 이후 구간인 제2 구간에서 상기 복수의 발광 소자들이 모두 온 상태가 되도록 상기 밝기 제어 구간의 제3 프레임을 제어하고,
상기 복수의 발광 소자들 중 일부는 상기 헤드 램프의 중심부에 배치되고, 상기 복수의 발광 소자들 중 나머지는 상기 헤드 램프의 주변부에 배치되는, 램프 제어부.
In the third paragraph,
The above processor,
Controlling the first frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in the first section, which is the previous section of the above frame section,
Controlling the second frame of the brightness control section so that some of the plurality of light-emitting elements are in the first brightness state and the rest are in the second brightness state during the frame section;
Controlling the third frame of the brightness control section so that all of the plurality of light-emitting elements are turned on in the second section, which is the section after the frame section,
A lamp control unit, wherein some of the plurality of light-emitting elements are arranged at the center of the head lamp, and the rest of the plurality of light-emitting elements are arranged at the periphery of the head lamp.
제3 항에 있어서,
상기 프로세서는,
외부 조명이 있는 것으로 판단되면, 상기 프레임 구간 동안 상기 헤드 램프가 오프 상태가 되도록 제어하고,
상기 외부 조명이 없는 것으로 판단되면, 상기 프레임 구간 동안 상기 헤드 램프가 온 상태 또는 상기 온 상태보다 밝기가 감소되도록 제어하는, 램프 제어부.
In the third paragraph,
The above processor,
If it is determined that there is external light, the head lamp is controlled to be off during the frame period,
A lamp control unit that controls the head lamp to be on or to have its brightness reduced from the on state during the frame period when it is determined that there is no external light.
제11 항에 있어서,
상기 프로세서는,
상기 외부 조명의 밝기가 임계 밝기 미만이면, 상기 프레임 구간 동안 상기 헤드 램프가 온 상태보다 밝기가 감소되도록 제어하고,
상기 외부 조명의 밝기가 상기 임계 밝기 이상이면, 상기 프레임 구간 동안 상기 헤드 램프가 오프 상태가 되도록 제어하는, 램프 제어부.
In Article 11,
The above processor,
If the brightness of the external light is lower than the threshold brightness, the head lamp is controlled to have a brightness lower than that of the on state during the frame period,
A lamp control unit that controls the head lamp to be turned off during the frame period when the brightness of the external light is higher than the threshold brightness.
제3 항에 있어서,
상기 프로세서는,
상기 프레임 구간 동안 보행자 도로가 있는 제1 영역에 대응되는 복수의 발광 소자들 중 일부 영역은 온 상태가 되도록 제어하고,
상기 프레임 구간 동안 차량 도로가 있는 제2 영역에 대응되는 상기 복수의 발광 소자들 중 나머지 영역은 오프 상태가 되도록 제어하는, 램프 제어부.
In the third paragraph,
The above processor,
During the above frame section, some areas of the plurality of light-emitting elements corresponding to the first area where the pedestrian road is located are controlled to be in an on state,
A lamp control unit that controls the remaining areas of the plurality of light-emitting elements corresponding to the second area where the vehicle road is located during the above frame section to be in an off state.
제3 항에 있어서,
상기 프로세서는,
상기 프레임 구간의 이전의 제1 구간에서 상기 차량의 전방의 타 차량을 검출하도록 차량 도로의 제2 영역에 대응되는 상기 헤드 램프의 중심부가 온 상태가 되도록 제어하고,
상기 타 차량을 촬영하는 상기 프레임 구간 동안 보행자를 검출하도록 보행자 도로에 대응되는 제1 영역에 대응되는 상기 헤드 램프의 주변부가 온 상태가 되도록 제어하고,
상기 프레임 구간 동안 차량 도로의 상기 제2 영역에 대응되는 상기 헤드 램프의 상기 중심부가 오프 상태가 되도록 제어하고,
상기 차량 도로의 반대 방향의 차량이 접근하는 경우, 상기 프레임 구간 동안 상기 반대 방향의 차량이 있는 제3 영역에 대응하는 상기 헤드 램프의 발광 소자들 중 일부가 오프되거나 또는 온 상태보다 밝기가 감소되도록 제어하는, 램프 제어부.
In the third paragraph,
The above processor,
Controlling the center of the headlamp corresponding to the second area of the vehicle road to be turned on so as to detect another vehicle in front of the vehicle in the previous first section of the frame section,
Controlling the peripheral portion of the headlamp corresponding to the first area corresponding to the pedestrian road to be turned on so as to detect a pedestrian during the frame section in which the above-described vehicle is photographed,
Controlling the center of the headlamp corresponding to the second area of the vehicle road during the frame section to be in an off state,
A lamp control unit that controls some of the light-emitting elements of the headlamp corresponding to a third area where the vehicle in the opposite direction is located during the frame section to be turned off or have their brightness reduced from the on state when a vehicle in the opposite direction of the vehicle road approaches.
제14 항에 있어서,
상기 프로세서는,
상기 전방 카메라의 영상, IR 카메라의 제2 영상 및 TOF 카메라의 제3 영상을 통해 차량 도로에 차량 전방의 타 차량 및 보행자 도로에 보행자를 검출하도록 센서 퓨전 제어부를 제어하고,
상기 IR 카메라 및 상기 TOF 카메라를 통해 상기 타 차량까지의 제1 거리에 기초하여 상기 프레임 구간이 상기 밝기 제어 구간에 포함되도록 상기 밝기 제어 구간의 시점과 종점을 제어하고,
상기 IR 카메라는 적외선 신호를 통해 상기 제2 영상을 획득하고, 상기 차량 전방의 객체까지의 거리를 검출하도록 구성되고,
상기 TOF 카메라는 펄스 변조된 적외선 빔을 통해 상기 제3 영상을 획득하고 상기 차량 전방의 객체까지의 거리를 검출하도록 구성되는, 램프 제어부.
In Article 14,
The above processor,
Control the sensor fusion control unit to detect other vehicles in front of the vehicle on the road and pedestrians on the pedestrian road through the image of the front camera, the second image of the IR camera, and the third image of the TOF camera.
Control the start and end points of the brightness control section so that the frame section is included in the brightness control section based on the first distance to the other vehicle through the IR camera and the TOF camera,
The above IR camera is configured to obtain the second image through an infrared signal and detect the distance to an object in front of the vehicle,
The lamp control unit is configured to acquire the third image through a pulse-modulated infrared beam and detect the distance to an object in front of the vehicle.
제15 항에 있어서,
상기 프로세서는,
상기 센서 퓨전 제어부가 상기 전방 카메라, 상기 IR 카메라 및 상기 TOF 카메라를 통해 상기 보행자까지의 제2 거리와 위치를 검출하도록 상기 센서 퓨전 제어부를 제어하고,
상기 보행자의 위치에 기초하여, 상기 프레임 구간 동안 보행자 도로가 있는 제1 영역에 대응되는 복수의 발광 소자들 중 일부 영역은 온 상태가 되도록 제어하고,
상기 프레임 구간 동안 차량 도로가 있는 제2 영역에 대응되는 상기 복수의 발광 소자들 중 나머지 영역은 오프 상태가 되도록 제어하는, 램프 제어부.
In Article 15,
The above processor,
The sensor fusion control unit controls the sensor fusion control unit to detect the second distance and position to the pedestrian through the front camera, the IR camera, and the TOF camera,
Based on the position of the pedestrian, some areas of a plurality of light-emitting elements corresponding to a first area where a pedestrian road is present during the frame section are controlled to be turned on,
A lamp control unit that controls the remaining areas of the plurality of light-emitting elements corresponding to the second area where the vehicle road is located during the above frame section to be in an off state.
제13 항에 있어서,
상기 프로세서는,
상기 헤드 램프를 통해 광을 출력하고, 상기 전방 카메라의 셔터가 개방되어 구동되면 상기 헤드 램프의 온 또는 오프 제어, 밝기 제어 및 발광 패턴 제어를 수행하고,
상기 차량 도로의 중심 영역의 객체를 인식하도록 상기 중심 영역의 중심점에서 수평 축 방향으로 밝기가 점진적으로 증가하는 그라데이션 패턴을 형성하고,
상기 그라데이션 패턴은 상기 차량 도로의 제1 영역에만 형성되고 상기 보행자 도로의 제2 영역의 밝기는 상기 제1 영역보다 더 밝은, 램프 제어부.
In the 13th paragraph,
The above processor,
Light is output through the head lamp, and when the shutter of the front camera is opened and driven, on or off control, brightness control, and light emission pattern control of the head lamp are performed.
To recognize an object in the central area of the vehicle road, a gradient pattern is formed in which the brightness gradually increases in the horizontal axis direction from the central point of the central area,
A lamp control unit in which the gradient pattern is formed only in the first area of the vehicle road and the brightness of the second area of the pedestrian road is brighter than the first area.
제13 항에 있어서,
상기 프로세서는,
특정 방향으로 제1 밝기의 제3 영역 및 상기 제3 영역의 양 측에 상기 제1 밝기보다 어두운 제2 밝기로 형성된 제4 영역을 갖는 사선 패턴들을 형성하고,
상기 특정 방향으로 형성된 좌회전 도로 상에서 좌회전하는 차량들을 상기 사선 패턴의 상기 제4 영역을 통해 인식하는, 램프 제어부.
In the 13th paragraph,
The above processor,
Forming diagonal patterns having a third region of first brightness in a specific direction and a fourth region formed with a second brightness darker than the first brightness on both sides of the third region,
A lamp control unit that recognizes vehicles turning left on a left-turn road formed in the specific direction through the fourth area of the diagonal pattern.
제13 항에 있어서,
상기 프로세서는,
전방 차량의 차량 번호 또는 상태 정보를 인식하도록 수평 축 및 수직 방향으로 밝은 패턴들과 어두운 패턴들이 교대로 반복되는 체크 무늬 패턴을 형성하고,
상기 어두운 패턴들을 통해 상기 전방 차량의 특정 영역 내에서 배경 영역보다 돌출되어 표시된 상기 전방 차량의 차량 번호 또는 상태 정보를 인식하고,
상기 밝은 패턴들을 통해 상기 보행자 도로의 보행자들의 상태를 인식하는, 램프 제어부.
In the 13th paragraph,
The above processor,
A checkered pattern is formed by alternating bright and dark patterns in the horizontal and vertical directions to recognize the vehicle number or status information of the vehicle in front,
Recognize the vehicle number or status information of the preceding vehicle displayed protruding from the background area within a specific area of the preceding vehicle through the above dark patterns,
A lamp control unit that recognizes the status of pedestrians on the pedestrian road through the above bright patterns.
제13 항에 있어서,
상기 프로세서는,
상기 전방 카메라를 통해 획득된 이미지를 통해 상기 차량 도로와 상기 보행자 도로를 포함하는 전체 배경의 밝기를 측정하고,
상기 차량 도로의 제1 밝기와 상기 보행자 도로의 제2 밝기에 기초하여 상기 헤드 램프의 온 또는 오프 제어, 밝기 제어 및 발광 패턴 제어를 수행하고,
상기 차량 도로 부분에 대응하는 상기 헤드 램프의 특정 영역이 오프 상태이고 나머지 영역이 온 상태인 빔 패턴을 합성하고,
상기 빔 패턴에 따라 상기 차량 도로의 전방 차량 및 상기 보행자 도로의 보행자를 검출하고,
상기 전방 차량이 제동 상태 또는 이상 상태와 연관된 상태 정보를 전달하면, 전방 차량의 차량 번호 또는 상태 정보를 인식하도록 수평 축 및 수직 방향으로 밝은 패턴들과 어두운 패턴들이 교대로 반복되는 체크 무늬 패턴을 형성하고,
상기 어두운 패턴들을 통해 상기 전방 차량의 차량 번호 또는 상태 정보를 인식하고,
상기 차량 도로가 특정 방향으로 형성된 좌회전 도로이면, 상기 특정 방향에 따른 사선 패턴을 통해 상기 좌회전 도로 상에서 좌회전하는 차량들을 검출하는, 램프 제어부.
In the 13th paragraph,
The above processor,
Measure the brightness of the entire background including the vehicle road and the pedestrian road through the image acquired through the front camera,
On or off control, brightness control and light emission pattern control of the headlamp are performed based on the first brightness of the vehicle road and the second brightness of the pedestrian road,
Synthesize a beam pattern in which a specific area of the headlamp corresponding to the vehicle road portion is off and the remaining area is on,
Detecting a vehicle ahead of the vehicle road and a pedestrian on the pedestrian road according to the beam pattern,
When the preceding vehicle transmits status information related to a braking state or an abnormal state, a checkered pattern is formed in which light and dark patterns are alternately repeated in the horizontal and vertical directions to recognize the vehicle number or status information of the preceding vehicle.
Recognize the vehicle number or status information of the preceding vehicle through the above dark patterns,
A lamp control unit that detects vehicles turning left on the left turn road through a diagonal pattern according to the specific direction, if the above vehicle road is a left turn road formed in a specific direction.
KR1020257036707A 2024-06-18 2024-06-18 A vehicle that performs lamp control to improve object recognition Pending KR20260000580A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2024/008388 WO2025263648A1 (en) 2024-06-18 2024-06-18 Vehicle for controlling lamp for improving object recognition

Publications (1)

Publication Number Publication Date
KR20260000580A true KR20260000580A (en) 2026-01-02

Family

ID=98213275

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020257036707A Pending KR20260000580A (en) 2024-06-18 2024-06-18 A vehicle that performs lamp control to improve object recognition

Country Status (2)

Country Link
KR (1) KR20260000580A (en)
WO (1) WO2025263648A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018167879A1 (en) * 2017-03-15 2018-09-20 三菱電機株式会社 Light quantity adjustment device, light quantity adjustment method, and light quantity adjustment program
JP7053409B2 (en) * 2018-08-30 2022-04-12 日産自動車株式会社 Headlamp control method and headlamp control device
KR102220950B1 (en) * 2019-07-31 2021-02-26 엘지전자 주식회사 Method for controlling vehicle in autonomous driving system and apparatus thereof
KR20210128132A (en) * 2020-04-16 2021-10-26 한국광기술원 Apparatus for controlling headlamp of vehicle
KR20230121256A (en) * 2022-02-11 2023-08-18 현대모비스 주식회사 Forward headlamp control system and control method thereof

Also Published As

Publication number Publication date
WO2025263648A1 (en) 2025-12-26

Similar Documents

Publication Publication Date Title
US10611293B2 (en) Lamp for vehicle
CN111183063B (en) side mirrors for vehicles
US9969320B2 (en) Lamp and autonomous vehicle
US10809738B2 (en) Vehicle control device mounted on vehicle and method for controlling the vehicle
EP3093193B1 (en) Lamp for vehicle
US11046291B2 (en) Vehicle driver assistance apparatus and vehicle
KR102924246B1 (en) Vehicle display device and control method thereof
US10421391B2 (en) Vehicle control device mounted on vehicle and method for controlling the vehicle
KR101768500B1 (en) Drive assistance apparatus and method for controlling the same
US20200202535A1 (en) Driver assistance apparatus and vehicle
US10414328B2 (en) Lamp for vehicle and vehicle comprising the same
US10768618B2 (en) Vehicle driving control apparatus and vehicle driving method
CN107972569A (en) Car light group control method, device, system and vehicle
US20210323469A1 (en) Vehicular around view image providing apparatus and vehicle
KR102721365B1 (en) Vehicle control method, device, delivery service method and system using vehicle
CN109572712B (en) Method for controlling a vehicle operating system
KR20250036833A (en) Vehicle light control device
KR20260000580A (en) A vehicle that performs lamp control to improve object recognition
KR20200082841A (en) A method for controlling a camera zoom magnification
KR20250031193A (en) Driver monitoring device for vehicle and its operating method
KR102922426B1 (en) Vehicle display device
KR102942821B1 (en) Vehicle display device

Legal Events

Date Code Title Description
PA0105 International application

St.27 status event code: A-0-1-A10-A15-nap-PA0105

PA0201 Request for examination

St.27 status event code: A-1-2-D10-D11-exm-PA0201

PG1501 Laying open of application

St.27 status event code: A-1-1-Q10-Q12-nap-PG1501

Q12 Application published

Free format text: ST27 STATUS EVENT CODE: A-1-1-Q10-Q12-NAP-PG1501 (AS PROVIDED BY THE NATIONAL OFFICE)