KR20140056510A - Automatic exposure control apparatus and automatic exposure control method - Google Patents

Automatic exposure control apparatus and automatic exposure control method Download PDF

Info

Publication number
KR20140056510A
KR20140056510A KR1020120120083A KR20120120083A KR20140056510A KR 20140056510 A KR20140056510 A KR 20140056510A KR 1020120120083 A KR1020120120083 A KR 1020120120083A KR 20120120083 A KR20120120083 A KR 20120120083A KR 20140056510 A KR20140056510 A KR 20140056510A
Authority
KR
South Korea
Prior art keywords
image
region
sub
exposure
unit
Prior art date
Application number
KR1020120120083A
Other languages
Korean (ko)
Other versions
KR101510189B1 (en
Inventor
김명우
Original Assignee
주식회사 만도
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 만도 filed Critical 주식회사 만도
Priority to KR20120120083A priority Critical patent/KR101510189B1/en
Publication of KR20140056510A publication Critical patent/KR20140056510A/en
Application granted granted Critical
Publication of KR101510189B1 publication Critical patent/KR101510189B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/106Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using night vision cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)

Abstract

The present invention relates to an automatic exposure control device and an automatic exposure control method capable of improving the detection performance of a lane or a front vehicle. The automatic exposure control device comprises at least one camera acquiring a first image taken from surroundings of a vehicle; an image analysis unit for detecting either or both of a lane or/and an object from the first image, dividing the first image into a plurality of areas based on the detected results, and applying different weighted values on each divided area; and an exposure control unit for computing exposure time required for acquiring a second image based on the weighted value applied to each divided area and controlling the exposure of the camera depending on the computed exposure time.

Description

자동 노출 제어 장치 및 자동 노출 제어 방법{Automatic exposure control apparatus and automatic exposure control method}[0001] The present invention relates to an automatic exposure control apparatus and an automatic exposure control method,

본 발명은 자동차용 카메라를 위한 자동 노출 제어 장치 및 자동 노출 제어 방법에 관한 것으로, 더욱 상세하게는 차선 또는 전방 차량 검출 능력을 향상시킬 수 있는 자동 노출 제어 장치 및 자동 노출 제어 방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic exposure control apparatus and an automatic exposure control method for an automobile camera, and more particularly, to an automatic exposure control apparatus and an automatic exposure control method capable of improving lane or front vehicle detection capability.

전자기술이 보편화되기 이전까지만 해도 자동차는 기계적인 원리만으로 제어가 되었다. 그러나 정보통신기술이 발달함에 따라 자동차도 정보통신기술과 결합되고 있으며, 이에 따라 자동차 자체에 대한 안전 기술뿐만 아니라 자동차의 주변 상황과 연관된 안전 기술에 대한 연구가 증가하고 있는 추세이다. Until electronic technology became popular, automobiles were controlled only by mechanical principles. However, as information and communication technology develops, automobiles are also being combined with information and communication technologies. Accordingly, research on safety technologies related to automobile surroundings as well as safety technologies for automobiles is increasing.

최근 출시되고 있는 자동차에는 자동차 안전 제어 시스템에 탑재된다. 자동차 안전 제어 시스템은 자동차의 주변 상황을 감지하고, 이를 운전자에게 알림으로써, 자동차의 안전성을 높인다. Recently released vehicles are being installed in automobile safety control systems. The automobile safety control system detects the surroundings of the vehicle and informs the driver of the situation, thereby enhancing the safety of the vehicle.

자동차의 주변 상황을 감지하기 위해서는 자동차의 전방에 각종 센서나 카메라를 설치하고, 센서나 카메라를 통해 감지된 결과에 근거하여 차선 유지, 충돌 방지, 및 전조등 제어 등의 자동차 안전 제어를 수행한다. In order to detect the surroundings of the vehicle, various sensors or cameras are installed in front of the vehicle, and vehicle safety control such as lane keeping, collision prevention, and headlight control is performed based on the result detected by the sensor or the camera.

자동차 안전 제어를 위해 설치된 자동차용 카메라는 카메라의 노출을 자동으로 결정하는 자동 노출 기능을 갖는다. 그런데, 차량용 카메라는 일반 카메라와는 달리 '도로'라는 특수한 환경을 촬영하는 것이기 때문에, 일반 카메라에 적용되는 자동 노출 제어 방법을 그대로 적용하는 경우, 차량용 카메라를 통해 획득된 영상의 밝기가 지나치게 높거나 지나치게 낮아진다는 문제가 있다. An automobile camera installed for automobile safety control has an automatic exposure function that automatically determines the exposure of the camera. However, unlike a general camera, a vehicle camera captures a special environment called a 'road'. Therefore, when the automatic exposure control method applied to a general camera is applied as it is, the brightness of the image obtained through the vehicle camera is excessively high There is a problem that it becomes too low.

예를 들면, 도 1과 같이, 차량의 전방에는 터널이 존재하고, 차량의 좌우에는 산이 존재하는 도로 위를 달리고 있는 경우, 전방의 터널과 양 옆의 산에 의해 차량용 카메라로 입사되는 빛의 양이 줄어들게 되고, 이는 자동 노출 제어 시에 반영된다. 그 결과, 차량용 카메라에서는 밝기가 지나치게 밝은 영상이 획득된다. For example, as shown in Fig. 1, when a tunnel is present in front of the vehicle and the vehicle is running on a road where mountains are present, the amount of light incident on the vehicle camera by the front tunnel and mountains on both sides , Which is reflected in the automatic exposure control. As a result, in the vehicle camera, an image with an excessively bright brightness is obtained.

다른 예로, 차량이 밤에 도로 위를 주행하고 있는 경우에는 햇빛과 같은 자연광이 거의 없기 때문에 차량용 카메라에서는 도 2의 (a)와 같은 정상적인 영상이 아닌, 도 2의 (b)와 같이 밝기가 지나치게 어두운 영상이 획득된다. As another example, when the vehicle is traveling on the road at night, there is almost no natural light such as sunlight. Therefore, in the vehicle camera, not the normal image as shown in FIG. 2 (a) A dark image is acquired.

이처럼 차량용 카메라를 통해 획득된 영상의 밝기가 지나치게 밝거나 지나치게 어두운 경우, 영상 내에서 주변 차량이나 차선이 명확하게 나타나지 않는다. 때문에, 주변 차량이나 차선을 검출하는 것이 용이하지 않으며, 주변 차량이나 차선 검출 효율이 저하됨에 따라 자동차 안전 제어의 정확성도 저하되는 문제가 있다. If the brightness of the image obtained through the vehicle camera is excessively bright or too dark, the surrounding vehicle or lane is not clearly displayed in the image. Therefore, it is not easy to detect a nearby vehicle or a lane, and there is a problem that the accuracy of the automobile safety control deteriorates as the efficiency of detecting a nearby vehicle or lane decreases.

본 발명이 해결하고자 하는 과제는 차선 또는 전방 차량 검출 능력을 향상시킬 수 있는 자동 노출 제어 장치 및 방법을 제공하는 것이다. SUMMARY OF THE INVENTION It is an object of the present invention to provide an automatic exposure control apparatus and method capable of improving lane or front vehicle detection capability.

그러나 본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems which are not mentioned can be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 자동 노출 제어 장치는 차량의 주변 상황을 촬영한 제1 영상을 획득하는 하나 이상의 카메라; 상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하고, 상기 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할한 다음, 상기 각 분할 영역에 대하여 서로 다른 노출 가중치를 적용하는 영상 분석부; 및 상기 각 분할 영역 별로 적용된 노출 가중치에 기초하여 제2 영상을 획득하는데 필요한 노출 시간을 계산하고, 상기 계산된 노출 시간에 따라 상기 하나 이상의 카메라의 노출을 제어하는 노출 제어부를 포함할 수 있다. According to an embodiment of the present invention, there is provided an automatic exposure control apparatus comprising: at least one camera for acquiring a first image of a surrounding situation of a vehicle; An image analyzing unit that detects at least one of a lane and an object from the first image, divides the first image into a plurality of regions based on the detection result, and applies different exposure weights to the respective divided regions, ; And an exposure control unit for calculating an exposure time required to acquire a second image based on the exposure weight applied to each of the divided areas and controlling the exposure of the one or more cameras according to the calculated exposure time.

상기 영상 분석부는 상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하는 검출부; 상기 검출부의 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할하는 영역 분할부; 및 상기 각 분할 영역 별로 서로 다른 노출 가중치를 적용하는 가중치 적용부를 포함할 수 있다. Wherein the image analyzer comprises: a detector for detecting at least one of a lane and an object from the first image; An area dividing unit dividing the first image into a plurality of areas based on a detection result of the detecting unit; And a weight applying unit for applying different exposure weights to the respective divided regions.

상기 영역 분할부는 상기 제1 영상에서 검출된 차선의 연장선이 만나는 소실점 및 상기 소실점을 포함하는 수평선인 지평선을 설정하고, 상기 지평선을 기준으로 상기 제1 영상을 상부 영역과 하부 영역으로 분할하되, 상기 제1 영상으로부터 검출된 물체가 존재하는지에 따라, 상기 하부 영역을 복수의 서브 영역으로 분할할 수 있다. Wherein the region dividing unit sets a horizon line that is a horizontal line including a vanishing point where an extension line of the lane detected in the first image meets and a vanishing point and divides the first image into an upper region and a lower region based on the horizon, The lower region may be divided into a plurality of sub regions according to whether an object detected from the first image exists.

상기 영역 분할부는 상기 제1 영상으로부터 검출된 물체가 없는 경우에는 상기 소실점을 포함하도록 기준 서브 영역을 설정하고, 상기 제1 영상으로부터 검출된 물체가 있는 경우에는 상기 검출된 물체를 포함하도록 기준 서브 영역을 설정하되, 상기 복수의 서브 영역 중에서 상기 기준 서브 영역을 제외한 서브 영역들은 상기 기준 서브 영역에서 멀어질수록 그 크기가 증가할 수 있다. Wherein the region dividing unit sets the reference sub-region so as to include the vanishing point when there is no object detected from the first image, and sets the reference sub-region to include the detected object if the object is detected from the first image, The sub-areas excluding the reference sub-area may increase in size as the distance from the reference sub-area increases.

상기 가중치 적용부는 상기 상부 영역에 비하여 상기 하부 영역에 더 높은 노출 가중치를 적용하고, 상기 기준 서브 영역으로부터 하부에 위치한 서브 영역일수록 높은 노출 가중치를 적용하고, 상기 기준 서브 영역으로부터 좌우로 멀리 위치한 서브 영역일수록 낮은 노출 가중치를 적용할 수 있다. The weight applying unit applies a higher exposure weight to the lower region than the upper region, applies a higher exposure weight to the sub region located below the reference sub region, and applies a higher exposure weight to the sub region located farther from the reference sub region, The lower the exposure weight, the better.

상기 하나 이상의 카메라는 상기 차량의 전방, 후방 및 측면 중 적어도 한 곳에 설치될 수 있다. The at least one camera may be installed in at least one of a front, a rear, and a side of the vehicle.

상술한 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 자동차 안전 제어 시스템은 차량의 주변 상황을 촬영한 제1 영상을 획득하는 하나 이상의 카메라와, 상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하고, 상기 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할한 다음, 상기 각 분할 영역에 대하여 서로 다른 노출 가중치를 적용하는 영상 분석부와, 상기 각 분할 영역 별로 적용된 노출 가중치에 기초하여 제2 영상을 획득하는데 필요한 노출 시간을 계산하고, 상기 계산된 노출 시간에 따라 상기 하나 이상의 카메라의 노출을 제어하는 노출 제어부를 포함하는 자동 노출 제어 장치; 및 상기 제2 영상으로부터 차선 및 물체 중 적어도 하나를 검출한 검출 결과에 따라, 자동차의 안전 제어를 수행하는 안전 제어부를 포함할 수 있다. According to an aspect of the present invention, there is provided an automobile safety control system including at least one camera for acquiring a first image of a vehicle's surroundings, at least one of a lane and an object from the first image, An image analysis unit that divides the first image into a plurality of areas based on the detection result and applies different exposure weights to the respective divided areas; An exposure controller for calculating an exposure time required to acquire a second image and controlling exposure of the at least one camera according to the calculated exposure time; And a safety controller for performing safety control of the vehicle according to the detection result of detecting at least one of the lane and the object from the second image.

상기 영상 분석부는 상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하는 검출부; 상기 검출부의 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할하는 영역 분할부; 및 상기 각 분할 영역 별로 서로 다른 노출 가중치를 적용하는 가중치 적용부를 포함할 수 있다. Wherein the image analyzer comprises: a detector for detecting at least one of a lane and an object from the first image; An area dividing unit dividing the first image into a plurality of areas based on a detection result of the detecting unit; And a weight applying unit for applying different exposure weights to the respective divided regions.

상기 영역 분할부는 상기 제1 영상에서 검출된 차선의 연장선이 만나는 소실점 및 상기 소실점을 포함하는 수평선인 지평선을 설정하고, 상기 지평선을 기준으로 상기 제1 영상을 상부 영역과 하부 영역으로 분할하되, 상기 제1 영상으로부터 검출된 물체가 존재하는지에 따라, 상기 하부 영역을 복수의 서브 영역으로 분할할 수 있다. Wherein the region dividing unit sets a horizon line that is a horizontal line including a vanishing point where an extension line of the lane detected in the first image meets and a vanishing point and divides the first image into an upper region and a lower region based on the horizon, The lower region may be divided into a plurality of sub regions according to whether an object detected from the first image exists.

상기 영역 분할부는 상기 제1 영상으로부터 검출된 물체가 없는 경우에는 상기 소실점을 포함하도록 기준 서브 영역을 설정하고, 상기 제1 영상으로부터 검출된 물체가 있는 경우에는 상기 검출된 물체를 포함하도록 기준 서브 영역을 설정하되, 상기 복수의 서브 영역 중에서 상기 기준 서브 영역을 제외한 서브 영역들은 상기 기준 서브 영역에서 멀어질수록 그 크기가 증가할 수 있다. Wherein the region dividing unit sets the reference sub-region so as to include the vanishing point when there is no object detected from the first image, and sets the reference sub-region to include the detected object if the object is detected from the first image, The sub-areas excluding the reference sub-area may increase in size as the distance from the reference sub-area increases.

상기 가중치 적용부는 상기 상부 영역에 비하여 상기 하부 영역에 더 높은 노출 가중치를 적용하고, 상기 기준 서브 영역으로부터 하부에 위치한 서브 영역일수록 높은 노출 가중치를 적용하고, 상기 기준 서브 영역으로부터 좌우로 멀리 위치한 서브 영역일수록 낮은 노출 가중치를 적용할 수 있다. The weight applying unit applies a higher exposure weight to the lower region than the upper region, applies a higher exposure weight to the sub region located below the reference sub region, and applies a higher exposure weight to the sub region located farther from the reference sub region, The lower the exposure weight, the better.

상기 하나 이상의 카메라는 상기 차량의 전방, 후방 및 측면 중 적어도 한 곳에 설치될 수 있다. The at least one camera may be installed in at least one of a front, a rear, and a side of the vehicle.

상술한 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 자동 노출 제어 방법은 하나 이상의 카메라를 통해 차량의 주변 상황을 촬영한 제1 영상을 획득하는 단계; 상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하고, 상기 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할한 다음, 상기 각 분할 영역에 대하여 서로 다른 노출 가중치를 적용하는 단계; 및 상기 각 분할 영역 별로 적용된 노출 가중치에 기초하여 제2 영상을 획득하는데 필요한 노출 시간을 계산하고, 상기 계산된 노출 시간에 따라 상기 하나 이상의 카메라의 노출을 제어하는 단계를 포함할 수 있다. According to an embodiment of the present invention, there is provided an automatic exposure control method comprising: acquiring a first image of a surrounding environment of a vehicle through one or more cameras; Detecting at least one of a lane and an object from the first image, dividing the first image into a plurality of regions based on the detection result, and applying different exposure weights to the respective divided regions; And calculating an exposure time required to acquire a second image based on the exposure weight applied to each of the divided regions, and controlling exposure of the one or more cameras according to the calculated exposure time.

상기 서로 다른 노출 가중치를 적용하는 단계는 상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하는 단계; 상기 검출부의 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할하는 단계; 및 상기 각 분할 영역 별로 서로 다른 노출 가중치를 적용하는 단계를 포함할 수 있다. Wherein applying the different exposure weights comprises: detecting at least one of a lane and an object from the first image; Dividing the first image into a plurality of regions based on the detection result of the detection unit; And applying different exposure weights to each of the divided regions.

상기 제1 영상을 복수의 영역으로 분할하는 단계는 상기 제1 영상에서 검출된 차선의 연장선이 만나는 소실점 및 상기 소실점을 포함하는 수평선인 지평선을 설정하는 단계; 상기 지평선을 기준으로 상기 제1 영상을 상부 영역과 하부 영역으로 분할하는 단계; 및 상기 제1 영상으로부터 검출된 물체가 존재하는지에 따라, 상기 하부 영역을 복수의 서브 영역으로 분할하는 단계를 포함할 수 있다. Wherein the step of dividing the first image into a plurality of regions comprises: setting a horizon line that is a horizontal line including a vanishing point where an extension line of the lane detected in the first image meets and a vanishing point; Dividing the first image into an upper region and a lower region based on the horizon; And dividing the lower region into a plurality of sub regions according to whether there is an object detected from the first image.

상기 하부 영역을 복수의 서브 영역으로 분할하는 단계는 상기 제1 영상으로부터 검출된 물체가 없는 경우에는 상기 소실점을 포함하도록 기준 서브 영역을 설정하고, 상기 제1 영상으로부터 검출된 물체가 있는 경우에는 상기 검출된 물체를 포함하도록 기준 서브 영역을 설정하는 단계를 포함하되, 상기 복수의 서브 영역 중에서 상기 기준 서브 영역을 제외한 서브 영역들은 상기 기준 서브 영역에서 멀어질수록 그 크기가 증가할 수 있다. Wherein the step of dividing the lower area into a plurality of sub areas includes setting a reference sub area to include the vanishing point when there is no object detected from the first image, And setting a reference sub-region including the detected object, wherein the sub-regions excluding the reference sub-region among the plurality of sub-regions may increase in size as the distance from the reference sub-region increases.

상기 각 분할 영역 별로 서로 다른 노출 가중치를 적용하는 단계는 상기 상부 영역에 비하여 상기 하부 영역에 더 높은 노출 가중치를 적용하는 단계; 및 상기 기준 서브 영역으로부터 하부에 위치한 서브 영역일수록 높은 노출 가중치를 적용하고, 상기 기준 서브 영역으로부터 좌우로 멀리 위치한 서브 영역일수록 낮은 노출 가중치를 적용하는 단계를 포함할 수 있다. Wherein applying different exposure weights to each of the divided regions comprises: applying a higher exposure weight to the lower region than the upper region; And applying a higher exposure weight to a sub region located below the reference sub region and applying a lower exposure weight to a sub region located far from the reference sub region.

상기 하나 이상의 카메라는 상기 차량의 전방, 후방 및 측면 중 적어도 한 곳에 설치될 수 있다.The at least one camera may be installed in at least one of a front, a rear, and a side of the vehicle.

본 발명에 의한 자동 노출 제어 장치 및 자동 노출 제어 방법에 따르면 다음과 같은 효과가 있다. The automatic exposure control apparatus and the automatic exposure control method according to the present invention have the following effects.

카메라를 통해 획득된 제1 영상을 복수의 영역으로 분할하고, 각 분할 영역 별로 적용된 서로 다른 노출 가중치에 기초하여 제2 영상을 획득하는데 필요한 노출 시간을 계산하고, 산출된 노출 시간에 따라 제2 영상을 획득하므로써, 제2 영상에서 차량이나 차선을 검출할 때, 검출 성능을 향상시킬 수 있다. A first image obtained through a camera is divided into a plurality of regions, an exposure time necessary to acquire a second image is calculated based on different exposure weights applied to the respective divided regions, and a second image The detection performance can be improved when the vehicle or the lane is detected in the second image.

차량 또는 차선에 대한 검출 성능이 향상되므로, 차량 또는 차선 검출 결과에 근거한 자동차의 안전 제어 시, 그 성능을 향상시킬 수 있다. The detection performance for the vehicle or the lane is improved, so that the performance can be improved in the safety control of the vehicle based on the result of detection of the vehicle or the lane.

도 1은 종래의 자동 노출 제어 기능이 적용된 자동차용 카메라에서 획득된 영상을 예시한 도면이다.
도 2는 종래의 자동 노출 제어 기능이 적용된 자동차용 카메라에서 획득된 영상을 예시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 자동 노출 제어 장치가 적용된 자동차 안전 제어 시스템의 구성을 도시한 블럭도이다.
도 4는 본 발명의 일 실시예에 따른 자동 노출 제어 장치에 의한 영역 분할 모습을 예시한 도면이다.
도 5는 도 4에 예시된 영상에서 분할 영역 별로 서로 다른 노출 가중치가 적용된 모습을 예시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 자동 노출 제어 방법을 도시한 흐름도이다.
FIG. 1 is a view illustrating an image obtained from an automobile camera to which a conventional automatic exposure control function is applied.
2 is a view illustrating an image obtained from a camera for a vehicle to which a conventional automatic exposure control function is applied.
3 is a block diagram illustrating a configuration of a vehicle safety control system to which an automatic exposure control apparatus according to an embodiment of the present invention is applied.
4 is a view illustrating an area division by the automatic exposure control apparatus according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating a state in which different exposure weights are applied to the divided regions in the image illustrated in FIG.
6 is a flowchart illustrating an automatic exposure control method according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 설명한다. 도면에서 동일한 도면 부호는 동일한 구성 요소를 나타낸다. Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the drawings, like reference numerals designate like elements.

도 3은 본 발명의 일 실시예에 따른 자동 노출 제어 장치(100)가 적용된 자동차 안전 제어 시스템(1)의 제어 구성을 도시한 도면이다. 3 is a view showing a control configuration of an automobile safety control system 1 to which an automatic exposure control apparatus 100 according to an embodiment of the present invention is applied.

도 3에 도시된 바와 같이, 본 발명의 일실시예에 따른 자동차 안전 제어 시스템(1)은 자동 노출 제어 장치(100) 및 안전 제어부(200)를 포함할 수 있다. 3, the automotive safety control system 1 according to an embodiment of the present invention may include an automatic exposure control apparatus 100 and a safety control unit 200. [

자동 노출 제어 장치(100)는 카메라(110)를 통해 획득된 제1 영상을 복수의 영역으로 분할한 다음, 각 분할 영역 별로 서로 다른 노출 가중치를 적용할 수 있다. 그리고 분할 영역 별로 적용된 노출 가중치에 기초하여, 제2 영상을 획득하는데 필요한 노출 시간(Exposure Time)을 계산하고, 계산된 노출 시간에 따라 카메라(110)의 노출을 제어하여 제2 영상을 획득할 수 있다. 이를 위하여 자동 노출 제어 장치(100)는 카메라(110), 영상 분석부(130), 노출 제어부(140), 및 저장부(150)를 포함할 수 있다. The automatic exposure control apparatus 100 may divide the first image acquired through the camera 110 into a plurality of regions and then apply different exposure weights to the respective divided regions. The exposure time required to acquire the second image is calculated based on the exposure weight applied to each divided region, and the exposure of the camera 110 is controlled according to the calculated exposure time to acquire the second image have. The automatic exposure control apparatus 100 may include a camera 110, an image analysis unit 130, an exposure control unit 140, and a storage unit 150.

카메라(110)는 차량 내부의 전면 유치 상단부에 위치할 수 있다. 카메라(110)는 복수개가 구비될 수도 있는데, 이 경우, 복수의 카메라(110)는 차량 내부의 전면 유치 상단부, 차량 내부의 후면 유치 상단부 및 차량 내부의 측면 상단부 중 적어도 한 곳에 설치될 수 있다. 이하의 설명에서는 설명의 편의를 위하여 카메라(110)가 차량 내부의 전면 유치 상단부에 위치한 경우를 예로 들어 설명하기로 한다. The camera 110 may be located at the upper end of the front end of the vehicle. In this case, the plurality of cameras 110 may be installed in at least one of a front end upper portion inside the vehicle, a rear upper end portion inside the vehicle, and a side upper end portion inside the vehicle. In the following description, the case where the camera 110 is located at the upper end portion of the front surface of the vehicle for convenience of explanation will be described as an example.

차량 내부의 전면 유치 상단부에 설치된 카메라(110)는 차량의 전방이나 주변 상황을 촬영하고, 이에 대한 영상을 획득할 수 있다. 카메라(110)는 2차원 영상을 획득하는 2차원 카메라(110)나 2차원 영상에 깊이 정보가 매핑된 3차원 영상을 획득하는 카메라(110)로 구현될 수 있다. 앞서 설명하였듯이, 카메라(110)를 통해 획득되는 영상은 노출 가중치가 적용되는 시점을 기준으로 구분될 수 있다. 즉, 노출 가중치가 적용되기 이전에, 카메라(110)를 통해 획득된 영상은 제1 영상으로 이해될 수 있다. 이에 비하여, 노출 가중치가 적용된 이후에 카메라(110)를 통해 획득된 영상은 제2 영상으로 이해될 수 있다. The camera 110 installed in the upper end portion of the inside of the vehicle can take a picture of the front or surrounding situation of the vehicle and acquire an image thereof. The camera 110 may be implemented as a two-dimensional camera 110 for acquiring a two-dimensional image or a camera 110 for acquiring a three-dimensional image having depth information mapped to the two-dimensional image. As described above, the image obtained through the camera 110 may be classified based on a point of time when the exposure weight is applied. That is, before the exposure weight is applied, the image obtained through the camera 110 can be understood as a first image. On the other hand, the image obtained through the camera 110 after the exposure weight is applied can be understood as the second image.

영상 분석부(130)는 카메라(110)를 통해 획득된 제1 영상을 분석하여, 분석 결과에 따라 제1 영상을 복수의 영역으로 분할할 수 있으며, 각 분할 영역별로 서로 다른 노출 가중치를 적용할 수 있다. 이를 위하여 영상 분석부(130)는 검출부(132), 영역 분할부(134) 및 가중치 적용부(136)를 포함할 수 있다. 여기서, 영상 분석부(130)의 각 구성요소에 대해 좀 더 상세히 설명하기로 한다. The image analysis unit 130 may analyze the first image acquired through the camera 110, divide the first image into a plurality of regions according to the analysis result, apply different exposure weights to the respective regions, . For this, the image analysis unit 130 may include a detection unit 132, an area dividing unit 134, and a weight applying unit 136. Here, each component of the image analysis unit 130 will be described in more detail.

검출부(132)는 카메라(110)를 통해 획득된 제1 영상에서 차선 및 물체 중 적어도 하나를 검출할 수 있다. 여기서, 차선은 자차가 주행 중인 차선을 포함할 수 있다. 그리고 물체는 전방 차량 및 보행자 중 적어도 하나를 포함할 수 있다. 검출 결과는 영역 분할부(134)로 제공될 수 있다. The detection unit 132 may detect at least one of the lane and the object in the first image acquired through the camera 110. [ Here, the lane may include a lane in which the vehicle is traveling. And the object may include at least one of a front vehicle and a pedestrian. The detection result may be provided to the area dividing unit 134. [

영역 분할부(134)는 검출부(132)의 검출 결과에 근거하여, 제1 영상을 복수의 영역으로 분할할 수 있다. 이를 위해 영역 분할부(134)는 우선, 영상 내에 소실점(P)을 설정한 다음, 소실점(P)을 포함하는 지평선을 설정할 수 있다. 이 때, 소실점(P)은 검출된 차선의 연장선(L)을 그었을 때, 선과 선이 만나는 점으로 정의될 수 있으며, 지평선은 소실점(P)을 포함하는 수평선으로 정의될 수 있다. The region dividing unit 134 can divide the first image into a plurality of regions based on the detection result of the detecting unit 132. [ To this end, the region dividing unit 134 may set a horizon including the vanishing point P after setting a vanishing point P in the image. At this time, the vanishing point P can be defined as a point where a line and a line meet when the extension line L of the detected lane is drawn, and the horizon line can be defined as a horizontal line including the vanishing point P.

이 후, 영역 분할부(134)는 설정된 지평선을 기준으로 제1 영상을 상부 영역(Rup)과 하부 영역(Rdown)으로 분할할 수 있다. 여기서 상부 영역(Rup)은 지평선 위쪽의 분할 영역을 말하며, 하부 영역(Rdown)은 지평선 아래쪽의 분할 영역을 말한다. Thereafter, the region dividing unit 134 may divide the first image into the upper region R up and the lower region R down with respect to the set horizon line. Here, the upper region R up refers to a divided region above the horizon line, and the lower region R down refers to a divided region below the horizon.

이 후, 영역 분할부(134)는 하부 영역(Rdown)을 다수의 서브 영역으로 분할할 수 있다. 이 때, 서브 영역의 크기나 개수는 사전에 지정될 수도 있고, 영상에서 검출된 물체의 크기에 따라 달라질 수도 있다. 여기서, 서브 영역에 대한 보다 구체적인 설명을 위해서 도 4를 참조하기로 한다. Thereafter, the area dividing unit 134 may divide the lower area R down into a plurality of sub areas. At this time, the size and the number of the sub-regions may be designated in advance or may be different depending on the size of the object detected in the image. Here, FIG. 4 will be referred to for a more detailed description of the sub-area.

도 4는 영상 분할부에 의해 복수의 영역으로 분할된 제1 영상을 예시한 도면이다. 4 is a diagram illustrating a first image divided into a plurality of regions by the image dividing unit.

도 4를 참조하면, 하부 영역(Rdown)은 4행 5열의 서브 영역으로 분할되어 있으며, 각 서브 영역은 서로 다른 크기를 갖는 것을 알 수 있다. 그리고 복수의 서브 영역들 중에서 전방 차량을 포함하는 서브 영역의 크기가 가장 작은 것을 알 수 있다. 이하의 설명에서는 설명의 편의를 위해 전방 차량을 포함하는 서브 영역을 '기준 서브 영역(R1)'이라 칭하기로 한다. Referring to FIG. 4, the lower region R down is divided into sub-regions of 4 rows and 5 columns, and each sub region has a different size. It can be seen that the sub-region including the front vehicle among the plurality of sub-regions has the smallest size. In the following description, the sub-region including the forward vehicle will be referred to as a " reference sub-region R 1 "

기준 서브 영역(R1)을 제외한 나머지 서브 영역들(R2, R3)의 크기는 기준 서브 영역(R1)에서 멀어질수록 그 크기가 커지는 것을 알 수 있다. 구체적으로, 같은 행에 위치한 서브 영역들을 살펴보면, 기준 서브 영역(R1)과 먼 곳에 위치한 서브 영역일수록 가로 길이가 긴 것을 알 수 있다. 구체적으로, 서브 영역(R3)의 가로 길이는 서브 영역(R2)의 가로 길이보다 긴 것을 알 수 있다. 또한 같은 열에 위치한 서브 영역들을 살펴보면, 기준 서브 영역(R1)과 먼 곳에 위치한 서브 영역일수록 세로 길이가 긴 것을 알 수 있다. 구체적으로, 서브 영역(R3)의 세로 길이는 서브 영역(R2)의 세로 길이보다 긴 것을 알 수 있다. With the exception of the reference sub-area (R 1) remaining sub-area (R 2, R 3 ) increases as the distance from the reference sub-area R 1 increases. In more detail, the sub-areas located in the same row are longer in the sub-area located farther from the reference sub-area R 1 . Specifically, it can be seen that the width of the sub-area R 3 is longer than the width of the sub-area R 2 . Also, the sub-areas located in the same column are longer in the sub-area located farther from the reference sub-area R 1 . Specifically, it can be seen that the vertical length of the sub-area R 3 is longer than the vertical length of the sub-area R 2 .

이처럼 카메라(110)를 통해 획득된 제1 영상에서 전방 차량이나 보행자가 검출된 경우라면, 검출된 전방 차량이나 보행자를 포함하도록 기준 서브 영역(R1)이 설정될 수 있다. 이에 비하여, 카메라(110)를 통해 획득된 제1 영상에서 전방 차량이나 보행자가 검출되지 않은 경우라면, 기준 서브 영역(R1)은 소실점(P)을 포함하도록 설정될 수 있으며, 이 경우 전체 서브 영역의 개수 및 각 서브 영역의 크기는 사전 지정된 값을 따를 수 있다. If the front vehicle or the pedestrian is detected in the first image obtained through the camera 110, the reference sub-area R 1 may be set to include the detected front vehicle or the pedestrian. On the other hand, if no forward vehicle or pedestrian is detected in the first image acquired through the camera 110, the reference sub-region R 1 may be set to include the vanishing point P, The number of regions and the size of each sub-region may follow predetermined values.

다시 도 3을 참조하면, 가중치 적용부(136)는 각 분할 영역에 대하여 서로 다른 노출 가중치를 적용할 수 있다. 이 때, 상부 영역(Rup) 보다는 하부 영역(Rdown)에 더 높은 노출 가중치가 적용될 수 있다. 그리고 하부 영역(Rdown)에 속한 서브 영역들 중에서는 기준 서브 영역(R1)을 기준으로 아래쪽에 위치한 서브 영역일수록 높은 노출 가중치가 적용될 수 있으며, 기준 서브 영역(R1)을 기준으로 좌우로 멀어질수록 낮은 노출 가중치가 적용될 수 있다. 즉, 지평선에서 제1 영상의 하부로 갈수록 높은 노출 가중치가 적용되고, 자차가 주행 중인 차선을 기준으로 양옆으로 갈수록 낮은 가중치가 적용될 수 있다. 각 분할 영역 별로 적용되는 노출 가중치를 예시하면 도 5와 같다. Referring again to FIG. 3, the weight applying unit 136 may apply different exposure weights to the respective divided regions. At this time, a higher exposure weight may be applied to the lower region R down rather than the upper region R up . And on the way the sub-area belonging to the lower region (R down) may have a high exposure to weight the more the sub-area located at the bottom on the basis of the reference sub-area (R 1) is applied, to the left or right relative to the reference sub-area (R 1) The farther away, the lower exposure weights can be applied. That is, a higher exposure weight is applied to the lower part of the first image on the horizon, and a lower weight is applied to both sides of the lane on which the vehicle is traveling. An example of the exposure weight applied to each divided area is shown in FIG.

다시 도 3을 참조하면, 노출 제어부(140)는 각 분할 영역별로 적용된 노출 가중치에 기초하여, 제2 영상을 획득하는데 필요한 노출 시간을 계산할 수 있다. 그리고 계산된 노출 시간에 따라 카메라(110)의 노출을 제어하여 카메라(110)를 통해 제2 영상이 획득될 수 있도록 한다. 카메라(110)를 통해 획득된 제2 영상은 영상 분석부(130)의 검출부(132)로 제공될 수 있다. Referring back to FIG. 3, the exposure controller 140 may calculate the exposure time required to acquire the second image based on the exposure weight applied to each of the divided regions. Then, the exposure of the camera 110 is controlled according to the calculated exposure time so that the second image can be acquired through the camera 110. The second image obtained through the camera 110 may be provided to the detection unit 132 of the image analysis unit 130.

검출부(132)는 제2 영상에서 차선 및 물체 중 적어도 하나를 검출하여, 검출 결과를 안전 제어부(200)로 제공할 수 있다. The detection unit 132 may detect at least one of the lane and the object in the second image and provide the detection result to the safety control unit 200. [

저장부(150)는 카메라(110)를 통해 획득된 제1 영상을 분석하는데 필요한 알고리즘이나 데이터와, 제1 영상에 대한 분석 결과를 저장할 수 있다. 예를 들면, 저장부(150)는 제1 영상의 각 분할 영역에 대한 위치 정보, 각 분할 영역에 적용된 노출 가중치에 대한 정보를 저장할 수 있다. 이외에도 저장부(150)는 노출 제어에 필요한 알고리즘이나 데이터를 저장할 수도 있으며, 카메라(110)를 통해 획득된 제2 영상에서 차선 및 물체 등을 검출하는데 필요한 알고리즘이나 데이터 등을 저장할 수도 있다. The storage unit 150 may store an algorithm or data required for analyzing the first image acquired through the camera 110 and an analysis result for the first image. For example, the storage unit 150 may store positional information on each of the divided regions of the first image and information on the exposure weight applied to each of the divided regions. In addition, the storage unit 150 may store algorithms and data necessary for exposure control, and may store algorithms, data, and the like necessary for detecting lanes and objects in the second image acquired through the camera 110. [

이러한 저장부(150)는 롬(Read Only Memory: ROM), 램(Random Access Memory: RAM), 피롬(Programmable Read Only Memory: PROM), 이피롬(Erasable Programmable Read Only Memory: EPROM), 플래시 메모리와 같은 비휘발성 메모리 소자, 또는 램(Random Access Memory: RAM)과 같은 휘발성 메모리 소자, 또는 하드 디스크, 광 디스크와 같은 저장 매체로 구현되거나, 이들의 조합으로 구현될 수 있다. 그러나 상술한 예로 한정되는 것은 아니며, 저장부(150)는 당업계에 알려져 있는 임의의 다른 형태로 구현될 수도 있음은 물론이다.The storage unit 150 may include a ROM, a RAM, a PROM, an EPROM, an EPROM, a flash memory, Or a volatile memory device such as a random access memory (RAM), or a storage medium such as a hard disk or an optical disk, or a combination thereof. However, the present invention is not limited to the above-described example, and it goes without saying that the storage unit 150 may be implemented in any other form known in the art.

안전 제어부(200)는 영상 분석부(130)의 검출부(132)로부터 제공받은 검출 결과에 근거하여, 자동차의 안전 제어를 수행할 수 있다. 이러한 안전 제어부(200)는 차선 유지 제어부(210), 충돌 방지 제어부(220) 및 전조등 제어부(230)를 포함하여 구성될 수 있다. The safety control unit 200 can perform safety control of the vehicle based on the detection result provided from the detection unit 132 of the image analysis unit 130. [ The safety control unit 200 may include a lane-keeping control unit 210, an anti-collision control unit 220, and a headlight control unit 230.

차선 유지 제어부(210)는 검출부(132)의 차선 검출 결과에 근거하여, 차량이 차선을 이탈하지 않도록 차량의 동작을 제어할 수 있다. 일 예로, 차선 유지 제어부(210)는 차량이 차선을 이탈하려는 경우, 이를 경고등, 스피커 등의 출력부(미도시)를 통해 출력하여 운전자에게 경고할 수 있다. 다른 예로, 차선 유지 제어부(210)는 차량이 차선을 이탈하려는 경우, 운전자가 차량을 조작하지 않더라도 차량이 차선을 따라 주행할 수 있도록 스티어링(steering)을 제어할 수도 있다. The lane-keeping control unit 210 can control the operation of the vehicle so that the vehicle does not deviate from the lane on the basis of the lane detection result of the detection unit 132. [ For example, when the vehicle leaves the lane, the lane-keeping control unit 210 outputs the warning through an output unit (not shown) such as a warning lamp or a speaker to warn the driver. As another example, the lane-keeping control unit 210 may control the steering so that the vehicle can travel along the lane even if the driver does not operate the vehicle, when the vehicle is leaving the lane.

충돌 방지 제어부(220)는 검출부(132)의 전방 차량 검출 결과에 근거하여, 자차가 전방 차량과 충돌하지 않도록 차량의 동작을 제어할 수 있다. 구체적으로, 충돌 방지 제어부(220)는 전방 차량과 자차 사이의 거리가 일정하게 유지되도록 차량의 동작을 제어할 수 있다. 또한 충돌 방지 제어부(220)는 전방 차량과 자차 사이의 거리가 기준 거리 미만으로 가까워지는 경우, 이를 경고등, 스피커 등의 출력부를 통해 출력하여 운전자에게 경고할 수 있다. The collision avoidance control unit 220 can control the operation of the vehicle so that the vehicle does not collide with the preceding vehicle based on the result of the detection of the preceding vehicle by the detection unit 132. [ Specifically, the anti-collision control unit 220 can control the operation of the vehicle such that the distance between the front vehicle and the vehicle is kept constant. In addition, when the distance between the preceding vehicle and the preceding vehicle becomes less than the reference distance, the collision avoidance control unit 220 can output the warning through an output unit such as a warning lamp or a speaker to warn the driver.

전조등 제어부(230)는 검출부(132)의 전방 차량 또는 보행자 검출 결과에 근거하여, 전조등의 밝기나 조사방향을 제어할 수 있다. 예를 들어, 전조등 제어부(230)는 전방 차량이나 보행자를 향하여 전조등이 적절한 강도로 조사되도록 제어할 수 있다. The headlamp control unit 230 can control the brightness and the irradiation direction of the headlamp based on the detection result of the front vehicle or the pedestrian of the detection unit 132. [ For example, the headlamp controller 230 can control the headlamps to be irradiated with appropriate intensity toward the front vehicle or the pedestrian.

도 6은 본 발명의 일 실시예에 따른 자동 노출 제어 방법을 도시한 흐름도이다. 6 is a flowchart illustrating an automatic exposure control method according to an embodiment of the present invention.

카메라(110)를 통해 제1 영상이 획득되면(S610), 검출부(132)는 획득된 제1 영상에서 차선 및 물체 중 적어도 하나를 검출할 수 있다(S620). 여기서, 차선은 자차가 주행 중인 차선을 포함할 수 있으며, 물체는 전방 차량 및 보행자 중 적어도 하나를 포함할 수 있다. If the first image is acquired through the camera 110 in step S610, the detecting unit 132 may detect at least one of the lane and the object in the first image obtained in step S620. Here, the lane may include a lane in which the vehicle is traveling, and the object may include at least one of a front vehicle and a pedestrian.

제1 영상이 획득되면, 영역 분할부(134)는 검출부(132)의 검출 결과에 근거하여 제1 영상을 다수의 영역으로 분할할 수 있다(S630). 상기 S630 단계는 제1 영상에서 검출된 차선에 근거하여 소실점(P)을 설정하는 단계와, 소실점(P)을 포함하는 지평선을 설정하는 단계와, 지평선을 기준으로 제1 영상을 상부 영역(Rup)과 하부 영역(Rdown)으로 분할하는 단계와, 제1 영상에서 검출된 물체의 유무에 따라 하부 영역(Rdown)을 복수의 서브 영역으로 분할하는 단계를 포함할 수 있다. When the first image is obtained, the region dividing unit 134 may divide the first image into a plurality of regions based on the detection result of the detecting unit 132 (S630). The step S630 may include setting a vanishing point P based on the lane detected in the first image, setting a horizon including the vanishing point P, up and a down region R down , and dividing the lower region R down into a plurality of sub regions according to the presence or absence of the object detected in the first image.

이와 같이 제1 영상이 복수의 영역으로 분할되면, 가중치 적용부(136)는 각 분할 영역 별로 서로 다른 가중치를 적용할 수 있다(S640). 이 때, 가중치 적용부(136)는 저장부(150)에 저장되어 있는 데이터를 참조하여, 각 분할 영역 별로 서로 다른 노출 가중치를 적용할 수 있다. If the first image is divided into a plurality of regions, the weight applying unit 136 may apply different weights to the divided regions (S640). In this case, the weight applying unit 136 can apply different exposure weights to the respective divided regions with reference to the data stored in the storage unit 150. [

각 분할 영역 별로 서로 다른 가중치가 적용되면, 노출 제어부(140)는 적용된 노출 가중치에 기초하여, 제2 영상을 획득하는데 필요한 노출 시간을 계산할 수 있다(S650). If different weights are applied to the respective divided regions, the exposure control unit 140 may calculate the exposure time required to acquire the second image based on the applied exposure weight (S650).

이 후, 노출 제어부(140)는 계산된 노출 시간에 따라 카메라(110)의 노출을 제어하여 카메라(110)를 통해 제2 영상이 획득될 수 있도록 한다(S660). 획득된 제2 영상은 영상 분석부(130)의 검출부(132)로 제공될 수 있다. Thereafter, the exposure control unit 140 controls the exposure of the camera 110 according to the calculated exposure time so that the second image can be acquired through the camera 110 (S660). The obtained second image may be provided to the detection unit 132 of the image analysis unit 130.

검출부(132)는 제2영상으로부터 차선 및 물체 중 적어도 하나를 검출할 수 있다(S670). 이를 위해 검출부(132)는 저장부(150)에 저장된 검출 알고리즘이나 데이터를 이용할 수 있다. 검출부(132)에 의해 검출된 검출 결과는 안전 제어부(200)로 제공될 수 있다. The detecting unit 132 may detect at least one of the lane and the object from the second image (S670). For this, the detection unit 132 may use the detection algorithm or data stored in the storage unit 150. The detection result detected by the detection unit 132 may be provided to the safety control unit 200. [

안전 제어부는 검출부로부터 제공받은 검출 결과에 근거하여, 자동차의 안전 제어를 수행할 수 있다. 상기 자동차의 안전 제어를 수행하는 단계는 차선 유지 제어, 충돌 방지 제어 및 전조등 제어 중 적어도 하나를 포함할 수 있다. The safety control unit can perform safety control of the vehicle based on the detection result provided from the detection unit. The step of performing safety control of the automobile may include at least one of lane keeping control, collision avoidance control, and headlight control.

상술한 바와 같은 자동 노출 제어 장치 및 자동 노출 제어 방법에 따르면, 차량이 주행 중인 차선(또는 도로)을 기준으로 높은 노출 가중치가 적용되고, 이러한 노출 가중치에 기초하여 제2 영상 획득에 필요한 노출 시간이 결정됩니다. 따라서 노출 제어를 통해 제2 영상을 획득하였을 때, 도 1과 같이 지나치게 밝은 영상이 획득되거나 도 2의 (a)와 같이 지나치게 어두운 영상이 획득되는 현상을 줄일 수 있다. According to the automatic exposure control apparatus and the automatic exposure control method as described above, a high exposure weight is applied based on the lane (or road) in which the vehicle is traveling, and the exposure time required for the second image acquisition Will be determined. Therefore, when the second image is acquired through the exposure control, it is possible to reduce the phenomenon that an overly bright image is obtained as shown in FIG. 1 or an overly dark image is obtained as shown in FIG. 2 (a).

이상으로 본 발명의 일 실시예에 따른 자동 노출 제어 장치 및 자동 노출 제어 방법을 설명하였다. 전술한 실시예에서 자동 노출 제어 장치(100)를 구성하는 구성요소는 일종의 '모듈(module)'로 구현될 수 있다. 여기서, '모듈'은 소프트웨어 또는 Field Programmable Gate Array(FPGA) 또는 주문형 반도체(Application Specific Integrated Circuit, ASIC)과 같은 하드웨어 구성요소를 의미하며, 모듈은 어떤 역할들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. The automatic exposure control apparatus and the automatic exposure control method according to an embodiment of the present invention have been described above. In the above-described embodiment, the components constituting the automatic exposure control apparatus 100 may be implemented as a kind of 'module'. Here, 'module' means a hardware component such as software or a field programmable gate array (FPGA) or an application specific integrated circuit (ASIC), and the module performs certain roles. However, a module is not limited to software or hardware. A module may be configured to reside on an addressable storage medium and may be configured to execute one or more processors.

따라서, 일 예로서 모듈은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 모듈들에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다. 게다가, 상기 구성요소들 및 모듈들은 디바이스 내에서 하나 또는 그 이상의 CPU를 실행할 수 있다. Thus, by way of example, a module may include components such as software components, object-oriented software components, class components and task components, and processes, functions, attributes, procedures, Microcode, circuitry, data, databases, data structures, tables, arrays, and variables, as will be appreciated by those skilled in the art. The functionality provided by the components and modules may be combined into a smaller number of components and modules or further separated into additional components and modules. In addition, the components and modules may execute one or more CPUs within the device.

전술한 실시예들에 더하여, 본 발명의 실시예들은 전술한 실시예의 적어도 하나의 처리 요소를 제어하기 위한 컴퓨터 판독 가능한 코드/명령을 포함하는 매체 예를 들면, 컴퓨터 판독 가능한 매체를 통해 구현될 수도 있다. 상기 매체는 상기 컴퓨터 판독 가능한 코드의 저장 및/또는 전송을 가능하게 하는 매체/매체들에 대응할 수 있다. In addition to the embodiments described above, embodiments of the present invention may be embodied in a medium, such as a computer-readable medium, including computer readable code / instructions for controlling at least one processing element of the above described embodiments have. The medium may correspond to media / media enabling storage and / or transmission of the computer readable code.

상기 컴퓨터 판독 가능한 코드는, 매체에 기록될 수 있을 뿐만 아니라, 인터넷을 통해 전송될 수도 있는데, 상기 매체는 예를 들어, 마그네틱 저장 매체(예를 들면, ROM, 플로피 디스크, 하드 디스크 등) 및 광학 기록 매체(예를 들면, CD-ROM 또는 DVD)와 같은 기록 매체, 반송파(carrier wave)와 같은 전송매체를 포함할 수 있다. 또한, 본 발명의 실시예에 따라 상기 매체는 합성 신호 또는 비트스트림(bitstream)과 같은 신호일 수도 있다. 상기 매체들은 분산 네트워크일 수도 있으므로, 컴퓨터로 읽을 수 있는 코드는 분산 방식으로 저장/전송되고 실행될 수 있다. 또한 더 나아가, 단지 일 예로써, 처리 요소는 프로세서 또는 컴퓨터 프로세서를 포함할 수 있고, 상기 처리 요소는 하나의 디바이스 내에 분산 및/또는 포함될 수 있다. The computer readable code may be recorded on a medium as well as transmitted over the Internet, including, for example, a magnetic storage medium (e.g., ROM, floppy disk, hard disk, etc.) A recording medium such as a recording medium (e.g., CD-ROM or DVD), and a transmission medium such as a carrier wave. Also, according to an embodiment of the present invention, the medium may be a composite signal or a signal such as a bitstream. Since the media may be a distributed network, the computer readable code may be stored / transmitted and executed in a distributed manner. Still further, by way of example only, processing elements may include a processor or a computer processor, and the processing elements may be distributed and / or contained within a single device.

이상과 같이 예시된 도면을 참조로 하여, 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 한정적이 아닌 것으로 이해해야만 한다. While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood that the invention may be practiced. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

10: 자동차 안전 제어 시스템
100: 자동 노출 제어 장치
110: 카메라
130: 영상 분석부
132: 검출부
134: 영역 분할부
136: 가중치 적용부
140: 노출 제어부
150: 저장부
200: 안전 제어부
210: 차선 유지 제어부
220: 충돌 방지 제어부
230: 전조등 제어부
L: 연장선
P: 소실점
Rup: 상부 영역
Rdown: 하부 영역
R1: 기준 서브 영역
R2, R3, R4: 서브 영역
10: Automobile safety control system
100: Automatic exposure control device
110: camera
130: Image analysis section
132:
134:
136: weight application unit
140: Exposure control section
150:
200:
210:
220:
230: Headlight control unit
L: extension line
P: Vanishing point
R up : Upper region
R down :
R 1 : reference sub-region
R 2 , R 3 , R 4 :

Claims (18)

차량의 주변 상황을 촬영한 제1 영상을 획득하는 하나 이상의 카메라;
상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하고, 상기 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할한 다음, 상기 각 분할 영역에 대하여 서로 다른 노출 가중치를 적용하는 영상 분석부; 및
상기 각 분할 영역 별로 적용된 노출 가중치에 기초하여 제2 영상을 획득하는데 필요한 노출 시간을 계산하고, 상기 계산된 노출 시간에 따라 상기 하나 이상의 카메라의 노출을 제어하는 노출 제어부를 포함하는 자동 노출 제어 장치.
At least one camera for acquiring a first image of the surroundings of the vehicle;
An image analyzing unit that detects at least one of a lane and an object from the first image, divides the first image into a plurality of regions based on the detection result, and applies different exposure weights to the respective divided regions, ; And
And an exposure control unit for calculating an exposure time required to acquire a second image based on the exposure weight applied to each of the divided areas and controlling exposure of the one or more cameras according to the calculated exposure time.
제 1 항에 있어서,
상기 영상 분석부는
상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하는 검출부;
상기 검출부의 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할하는 영역 분할부; 및
상기 각 분할 영역 별로 서로 다른 노출 가중치를 적용하는 가중치 적용부를 포함하는 자동 노출 제어 장치.
The method according to claim 1,
The image analysis unit
A detector for detecting at least one of a lane and an object from the first image;
An area dividing unit dividing the first image into a plurality of areas based on a detection result of the detecting unit; And
And a weight applying unit for applying different exposure weights to the respective divided regions.
제 2 항에 있어서,
상기 영역 분할부는
상기 제1 영상에서 검출된 차선의 연장선이 만나는 소실점 및 상기 소실점을 포함하는 수평선인 지평선을 설정하고,
상기 지평선을 기준으로 상기 제1 영상을 상부 영역과 하부 영역으로 분할하되,
상기 제1 영상으로부터 검출된 물체가 존재하는지에 따라, 상기 하부 영역을 복수의 서브 영역으로 분할하는 자동 노출 제어 장치.
3. The method of claim 2,
The region dividing unit
Setting a vanishing point where an extension line of the lane detected in the first image meets and a horizon line being a horizontal line including the vanishing point,
Dividing the first image into an upper area and a lower area based on the horizon,
And divides the lower region into a plurality of sub regions according to whether an object detected from the first image exists.
제 3 항에 있어서,
상기 영역 분할부는
상기 제1 영상으로부터 검출된 물체가 없는 경우에는 상기 소실점을 포함하도록 기준 서브 영역을 설정하고, 상기 제1 영상으로부터 검출된 물체가 있는 경우에는 상기 검출된 물체를 포함하도록 기준 서브 영역을 설정하되,
상기 복수의 서브 영역 중에서 상기 기준 서브 영역을 제외한 서브 영역들은 상기 기준 서브 영역에서 멀어질수록 그 크기가 증가하는 자동 노출 제어 장치.
The method of claim 3,
The region dividing unit
Setting a reference sub-region to include the vanishing point when there is no object detected from the first image, and setting a reference sub-region to include the detected object if the object is detected from the first image,
Wherein the sub-areas excluding the reference sub-area among the plurality of sub-areas increase in size as the distance from the reference sub-area increases.
제 4 항에 있어서,
상기 가중치 적용부는
상기 상부 영역에 비하여 상기 하부 영역에 더 높은 노출 가중치를 적용하고,
상기 기준 서브 영역으로부터 하부에 위치한 서브 영역일수록 높은 노출 가중치를 적용하고, 상기 기준 서브 영역으로부터 좌우로 멀리 위치한 서브 영역일수록 낮은 노출 가중치를 적용하는 자동 노출 제어 장치.
5. The method of claim 4,
The weight applying unit
Applying a higher exposure weight to the lower region compared to the upper region,
Wherein a higher exposure weight is applied to a sub region located lower than the reference sub region and a lower exposure weight is applied to a sub region located farther away from the reference sub region.
제 1 항에 있어서,
상기 하나 이상의 카메라는 상기 차량의 전방, 후방 및 측면 중 적어도 한 곳에 설치되는 자동 노출 제어 장치.
The method according to claim 1,
Wherein the at least one camera is installed in at least one of a front, a rear, and a side of the vehicle.
차량의 주변 상황을 촬영한 제1 영상을 획득하는 하나 이상의 카메라와, 상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하고, 상기 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할한 다음, 상기 각 분할 영역에 대하여 서로 다른 노출 가중치를 적용하는 영상 분석부와, 상기 각 분할 영역 별로 적용된 노출 가중치에 기초하여 제2 영상을 획득하는데 필요한 노출 시간을 계산하고, 상기 계산된 노출 시간에 따라 상기 하나 이상의 카메라의 노출을 제어하는 노출 제어부를 포함하는 자동 노출 제어 장치; 및
상기 제2 영상으로부터 차선 및 물체 중 적어도 하나를 검출한 검출 결과에 따라, 자동차의 안전 제어를 수행하는 안전 제어부를 포함하는 자동차 안전 제어 시스템.
At least one of a lane and an object is detected from the first image and the first image is divided into a plurality of regions based on the detection result An image analyzing unit applies different exposure weights to the respective divided regions. An exposure time required to acquire a second image is calculated based on the exposure weights applied to the respective divided regions, An automatic exposure control device including an exposure control unit for controlling exposure of the at least one camera; And
And a safety control unit for performing safety control of the vehicle according to the detection result of detecting at least one of the lane and the object from the second image.
제 7 항에 있어서,
상기 영상 분석부는
상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하는 검출부;
상기 검출부의 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할하는 영역 분할부; 및
상기 각 분할 영역 별로 서로 다른 노출 가중치를 적용하는 가중치 적용부를 포함하는 자동차 안전 제어 시스템.
8. The method of claim 7,
The image analysis unit
A detector for detecting at least one of a lane and an object from the first image;
An area dividing unit dividing the first image into a plurality of areas based on a detection result of the detecting unit; And
And a weight applying unit for applying different exposure weights to the respective divided regions.
제 8 항에 있어서,
상기 영역 분할부는
상기 제1 영상에서 검출된 차선의 연장선이 만나는 소실점 및 상기 소실점을 포함하는 수평선인 지평선을 설정하고,
상기 지평선을 기준으로 상기 제1 영상을 상부 영역과 하부 영역으로 분할하되,
상기 제1 영상으로부터 검출된 물체가 존재하는지에 따라, 상기 하부 영역을 복수의 서브 영역으로 분할하는 자동차 안전 제어 시스템.
9. The method of claim 8,
The region dividing unit
Setting a vanishing point where an extension line of the lane detected in the first image meets and a horizon line being a horizontal line including the vanishing point,
Dividing the first image into an upper area and a lower area based on the horizon,
And divides the lower region into a plurality of sub regions according to whether an object detected from the first image exists.
제 9 항에 있어서,
상기 영역 분할부는
상기 제1 영상으로부터 검출된 물체가 없는 경우에는 상기 소실점을 포함하도록 기준 서브 영역을 설정하고, 상기 제1 영상으로부터 검출된 물체가 있는 경우에는 상기 검출된 물체를 포함하도록 기준 서브 영역을 설정하되,
상기 복수의 서브 영역 중에서 상기 기준 서브 영역을 제외한 서브 영역들은 상기 기준 서브 영역에서 멀어질수록 그 크기가 증가하는 자동차 안전 제어 시스템.
10. The method of claim 9,
The region dividing unit
Setting a reference sub-region to include the vanishing point when there is no object detected from the first image, and setting a reference sub-region to include the detected object if the object is detected from the first image,
Wherein the sub-areas excluding the reference sub-area among the plurality of sub-areas increase in size as the distance from the reference sub-area increases.
제 10 항에 있어서,
상기 가중치 적용부는
상기 상부 영역에 비하여 상기 하부 영역에 더 높은 노출 가중치를 적용하고,
상기 기준 서브 영역으로부터 하부에 위치한 서브 영역일수록 높은 노출 가중치를 적용하고, 상기 기준 서브 영역으로부터 좌우로 멀리 위치한 서브 영역일수록 낮은 노출 가중치를 적용하는 자동차 안전 제어 시스템.
11. The method of claim 10,
The weight applying unit
Applying a higher exposure weight to the lower region compared to the upper region,
Wherein a higher exposure weight is applied to a sub region located lower than the reference sub region and a lower exposure weight is applied to a sub region located farther from the reference sub region.
제 7 항에 있어서,
상기 하나 이상의 카메라는 상기 차량의 전방, 후방 및 측면 중 적어도 한 곳에 설치되는 자동차 안전 제어 시스템.
8. The method of claim 7,
Wherein the at least one camera is installed at least one of a front, a rear, and a side of the vehicle.
하나 이상의 카메라를 통해 차량의 주변 상황을 촬영한 제1 영상을 획득하는 단계;
상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하고, 상기 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할한 다음, 상기 각 분할 영역에 대하여 서로 다른 노출 가중치를 적용하는 단계; 및
상기 각 분할 영역 별로 적용된 노출 가중치에 기초하여 제2 영상을 획득하는데 필요한 노출 시간을 계산하고, 상기 계산된 노출 시간에 따라 상기 하나 이상의 카메라의 노출을 제어하는 단계를 포함하는 자동 노출 제어 방법.
Obtaining a first image of the surroundings of the vehicle through one or more cameras;
Detecting at least one of a lane and an object from the first image, dividing the first image into a plurality of regions based on the detection result, and applying different exposure weights to the respective divided regions; And
Calculating an exposure time required to acquire a second image based on the exposure weight applied to each of the divided regions, and controlling exposure of the at least one camera according to the calculated exposure time.
제 13 항에 있어서,
상기 서로 다른 노출 가중치를 적용하는 단계는
상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하는 단계;
상기 검출부의 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할하는 단계; 및
상기 각 분할 영역 별로 서로 다른 노출 가중치를 적용하는 단계를 포함하는 자동 노출 제어 방법.
14. The method of claim 13,
The step of applying the different exposure weights
Detecting at least one of a lane and an object from the first image;
Dividing the first image into a plurality of regions based on the detection result of the detection unit; And
And applying different exposure weights for each of the divided regions.
제 14 항에 있어서,
상기 제1 영상을 복수의 영역으로 분할하는 단계는
상기 제1 영상에서 검출된 차선의 연장선이 만나는 소실점 및 상기 소실점을 포함하는 수평선인 지평선을 설정하는 단계;
상기 지평선을 기준으로 상기 제1 영상을 상부 영역과 하부 영역으로 분할하는 단계; 및
상기 제1 영상으로부터 검출된 물체가 존재하는지에 따라, 상기 하부 영역을 복수의 서브 영역으로 분할하는 단계를 포함하는 자동 노출 제어 방법.
15. The method of claim 14,
Wherein dividing the first image into a plurality of regions comprises:
Setting a horizon line which is a horizontal line including a vanishing point where an extension line of the lane detected in the first image meets and a vanishing point;
Dividing the first image into an upper region and a lower region based on the horizon; And
And dividing the lower region into a plurality of sub-regions according to whether an object detected from the first image is present.
제 15 항에 있어서,
상기 하부 영역을 복수의 서브 영역으로 분할하는 단계는
상기 제1 영상으로부터 검출된 물체가 없는 경우에는 상기 소실점을 포함하도록 기준 서브 영역을 설정하고, 상기 제1 영상으로부터 검출된 물체가 있는 경우에는 상기 검출된 물체를 포함하도록 기준 서브 영역을 설정하는 단계를 포함하되,
상기 복수의 서브 영역 중에서 상기 기준 서브 영역을 제외한 서브 영역들은 상기 기준 서브 영역에서 멀어질수록 그 크기가 증가하는 자동 노출 제어 방법.
16. The method of claim 15,
The step of dividing the lower region into a plurality of sub-
Setting a reference sub-region to include the vanishing point if there is no object detected from the first image, and setting a reference sub-region to include the detected object if the object is detected from the first image , ≪ / RTI &
Wherein the sub-areas excluding the reference sub-area among the plurality of sub-areas increase in size as the distance from the reference sub-area increases.
제 16 항에 있어서,
상기 각 분할 영역 별로 서로 다른 노출 가중치를 적용하는 단계는
상기 상부 영역에 비하여 상기 하부 영역에 더 높은 노출 가중치를 적용하는 단계; 및
상기 기준 서브 영역으로부터 하부에 위치한 서브 영역일수록 높은 노출 가중치를 적용하고, 상기 기준 서브 영역으로부터 좌우로 멀리 위치한 서브 영역일수록 낮은 노출 가중치를 적용하는 단계를 포함하는 자동 노출 제어 방법.
17. The method of claim 16,
The step of applying different exposure weights to each of the divided areas
Applying a higher exposure weight to the lower region as compared to the upper region; And
Applying a higher exposure weight to a sub-region located below the reference sub-region, and applying a lower exposure weight to a sub-region located farther to the left and right from the reference sub-region.
제 13 항에 있어서,
상기 하나 이상의 카메라는 상기 차량의 전방, 후방 및 측면 중 적어도 한 곳에 설치되는 자동 노출 제어 장치.
14. The method of claim 13,
Wherein the at least one camera is installed in at least one of a front, a rear, and a side of the vehicle.
KR20120120083A 2012-10-29 2012-10-29 Automatic exposure control apparatus and automatic exposure control method KR101510189B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20120120083A KR101510189B1 (en) 2012-10-29 2012-10-29 Automatic exposure control apparatus and automatic exposure control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20120120083A KR101510189B1 (en) 2012-10-29 2012-10-29 Automatic exposure control apparatus and automatic exposure control method

Publications (2)

Publication Number Publication Date
KR20140056510A true KR20140056510A (en) 2014-05-12
KR101510189B1 KR101510189B1 (en) 2015-04-08

Family

ID=50887631

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20120120083A KR101510189B1 (en) 2012-10-29 2012-10-29 Automatic exposure control apparatus and automatic exposure control method

Country Status (1)

Country Link
KR (1) KR101510189B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106131518A (en) * 2016-06-30 2016-11-16 东莞市中控电子技术有限公司 A kind of method of image procossing and image processing apparatus
KR20170095005A (en) * 2016-02-12 2017-08-22 주식회사 만도 Image Sensor Apparatus using Sensor Fusion and Control Method thereof
CN107343154A (en) * 2016-04-29 2017-11-10 华为技术有限公司 A kind of methods, devices and systems for the exposure parameter for determining camera device
US9830075B2 (en) 2014-07-25 2017-11-28 Lg Electronics Inc. Mobile terminal and control method thereof
CN108476308A (en) * 2016-05-24 2018-08-31 Jvc 建伍株式会社 Filming apparatus, shooting display methods and shooting show program
CN114025102A (en) * 2021-09-29 2022-02-08 浙江亚太机电股份有限公司 Method for improving identification accuracy and environmental adaptability of ADAS (advanced data acquisition System)
CN114727024A (en) * 2021-01-05 2022-07-08 广州汽车集团股份有限公司 Automatic exposure parameter adjusting method and device, storage medium and shooting equipment
WO2023126736A1 (en) * 2021-12-30 2023-07-06 Mobileye Vision Technologies Ltd. Image position dependent blur control within hdr blending scheme

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7565006B2 (en) 2002-08-21 2009-07-21 Gentex Corporation Image acquisition and processing methods for automatic vehicular exterior lighting control
JP2005135203A (en) 2003-10-31 2005-05-26 Hitachi Ltd Vehicle-driving support device
JP5012704B2 (en) 2008-07-08 2012-08-29 株式会社デンソー Vehicle shooting system
KR20120071857A (en) * 2010-12-23 2012-07-03 팅크웨어(주) Electronic device and mehtod of shooting pictures thereof

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9830075B2 (en) 2014-07-25 2017-11-28 Lg Electronics Inc. Mobile terminal and control method thereof
KR20170095005A (en) * 2016-02-12 2017-08-22 주식회사 만도 Image Sensor Apparatus using Sensor Fusion and Control Method thereof
CN107343154A (en) * 2016-04-29 2017-11-10 华为技术有限公司 A kind of methods, devices and systems for the exposure parameter for determining camera device
CN108476308A (en) * 2016-05-24 2018-08-31 Jvc 建伍株式会社 Filming apparatus, shooting display methods and shooting show program
CN106131518A (en) * 2016-06-30 2016-11-16 东莞市中控电子技术有限公司 A kind of method of image procossing and image processing apparatus
CN114727024A (en) * 2021-01-05 2022-07-08 广州汽车集团股份有限公司 Automatic exposure parameter adjusting method and device, storage medium and shooting equipment
CN114025102A (en) * 2021-09-29 2022-02-08 浙江亚太机电股份有限公司 Method for improving identification accuracy and environmental adaptability of ADAS (advanced data acquisition System)
WO2023126736A1 (en) * 2021-12-30 2023-07-06 Mobileye Vision Technologies Ltd. Image position dependent blur control within hdr blending scheme

Also Published As

Publication number Publication date
KR101510189B1 (en) 2015-04-08

Similar Documents

Publication Publication Date Title
KR101510189B1 (en) Automatic exposure control apparatus and automatic exposure control method
US10303958B2 (en) Systems and methods for curb detection and pedestrian hazard assessment
CN113998034B (en) Rider assistance system and method
EP2993654B1 (en) Method and system for forward collision warning
US10860869B2 (en) Time to collision using a camera
US7542835B2 (en) Vehicle image processing device
US9827956B2 (en) Method and device for detecting a braking situation
US20120176499A1 (en) Method and apparatus for detecting a rear vehicle light
CN105835753B (en) Method and control device for adjusting at least one parameter of a driver assistance device of a vehicle
US9506859B2 (en) Method and device for determining a visual range in daytime fog
KR20170127036A (en) Method and apparatus for detecting and assessing road reflections
WO2017098709A1 (en) Image recognition device and image recognition method
JP2009076076A (en) Method for recognizing obstacle
US10984264B2 (en) Detection and validation of objects from sequential images of a camera
JP2015069381A (en) Vehicle exterior environment recognition device
JP4980970B2 (en) Image pickup means adjustment device and object detection device
US10776649B2 (en) Method and apparatus for monitoring region around vehicle
US9524645B2 (en) Filtering device and environment recognition system
WO2016092925A1 (en) Approaching vehicle detection device
JP6174960B2 (en) Outside environment recognition device
KR101340014B1 (en) Apparatus and method for providing location information
KR102448164B1 (en) Apparatus and method for controlling a vehicle radar
EP3865815A1 (en) Vehicle-mounted system
JP2023507355A (en) Method for controlling lighting system of motor vehicle
WO2017169704A1 (en) Environment recognition device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20190401

Year of fee payment: 5