KR20140056510A - Automatic exposure control apparatus and automatic exposure control method - Google Patents
Automatic exposure control apparatus and automatic exposure control method Download PDFInfo
- Publication number
- KR20140056510A KR20140056510A KR1020120120083A KR20120120083A KR20140056510A KR 20140056510 A KR20140056510 A KR 20140056510A KR 1020120120083 A KR1020120120083 A KR 1020120120083A KR 20120120083 A KR20120120083 A KR 20120120083A KR 20140056510 A KR20140056510 A KR 20140056510A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- region
- sub
- exposure
- unit
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/10—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
- B60R2300/106—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using night vision cameras
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Traffic Control Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
본 발명은 자동차용 카메라를 위한 자동 노출 제어 장치 및 자동 노출 제어 방법에 관한 것으로, 더욱 상세하게는 차선 또는 전방 차량 검출 능력을 향상시킬 수 있는 자동 노출 제어 장치 및 자동 노출 제어 방법에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic exposure control apparatus and an automatic exposure control method for an automobile camera, and more particularly, to an automatic exposure control apparatus and an automatic exposure control method capable of improving lane or front vehicle detection capability.
전자기술이 보편화되기 이전까지만 해도 자동차는 기계적인 원리만으로 제어가 되었다. 그러나 정보통신기술이 발달함에 따라 자동차도 정보통신기술과 결합되고 있으며, 이에 따라 자동차 자체에 대한 안전 기술뿐만 아니라 자동차의 주변 상황과 연관된 안전 기술에 대한 연구가 증가하고 있는 추세이다. Until electronic technology became popular, automobiles were controlled only by mechanical principles. However, as information and communication technology develops, automobiles are also being combined with information and communication technologies. Accordingly, research on safety technologies related to automobile surroundings as well as safety technologies for automobiles is increasing.
최근 출시되고 있는 자동차에는 자동차 안전 제어 시스템에 탑재된다. 자동차 안전 제어 시스템은 자동차의 주변 상황을 감지하고, 이를 운전자에게 알림으로써, 자동차의 안전성을 높인다. Recently released vehicles are being installed in automobile safety control systems. The automobile safety control system detects the surroundings of the vehicle and informs the driver of the situation, thereby enhancing the safety of the vehicle.
자동차의 주변 상황을 감지하기 위해서는 자동차의 전방에 각종 센서나 카메라를 설치하고, 센서나 카메라를 통해 감지된 결과에 근거하여 차선 유지, 충돌 방지, 및 전조등 제어 등의 자동차 안전 제어를 수행한다. In order to detect the surroundings of the vehicle, various sensors or cameras are installed in front of the vehicle, and vehicle safety control such as lane keeping, collision prevention, and headlight control is performed based on the result detected by the sensor or the camera.
자동차 안전 제어를 위해 설치된 자동차용 카메라는 카메라의 노출을 자동으로 결정하는 자동 노출 기능을 갖는다. 그런데, 차량용 카메라는 일반 카메라와는 달리 '도로'라는 특수한 환경을 촬영하는 것이기 때문에, 일반 카메라에 적용되는 자동 노출 제어 방법을 그대로 적용하는 경우, 차량용 카메라를 통해 획득된 영상의 밝기가 지나치게 높거나 지나치게 낮아진다는 문제가 있다. An automobile camera installed for automobile safety control has an automatic exposure function that automatically determines the exposure of the camera. However, unlike a general camera, a vehicle camera captures a special environment called a 'road'. Therefore, when the automatic exposure control method applied to a general camera is applied as it is, the brightness of the image obtained through the vehicle camera is excessively high There is a problem that it becomes too low.
예를 들면, 도 1과 같이, 차량의 전방에는 터널이 존재하고, 차량의 좌우에는 산이 존재하는 도로 위를 달리고 있는 경우, 전방의 터널과 양 옆의 산에 의해 차량용 카메라로 입사되는 빛의 양이 줄어들게 되고, 이는 자동 노출 제어 시에 반영된다. 그 결과, 차량용 카메라에서는 밝기가 지나치게 밝은 영상이 획득된다. For example, as shown in Fig. 1, when a tunnel is present in front of the vehicle and the vehicle is running on a road where mountains are present, the amount of light incident on the vehicle camera by the front tunnel and mountains on both sides , Which is reflected in the automatic exposure control. As a result, in the vehicle camera, an image with an excessively bright brightness is obtained.
다른 예로, 차량이 밤에 도로 위를 주행하고 있는 경우에는 햇빛과 같은 자연광이 거의 없기 때문에 차량용 카메라에서는 도 2의 (a)와 같은 정상적인 영상이 아닌, 도 2의 (b)와 같이 밝기가 지나치게 어두운 영상이 획득된다. As another example, when the vehicle is traveling on the road at night, there is almost no natural light such as sunlight. Therefore, in the vehicle camera, not the normal image as shown in FIG. 2 (a) A dark image is acquired.
이처럼 차량용 카메라를 통해 획득된 영상의 밝기가 지나치게 밝거나 지나치게 어두운 경우, 영상 내에서 주변 차량이나 차선이 명확하게 나타나지 않는다. 때문에, 주변 차량이나 차선을 검출하는 것이 용이하지 않으며, 주변 차량이나 차선 검출 효율이 저하됨에 따라 자동차 안전 제어의 정확성도 저하되는 문제가 있다. If the brightness of the image obtained through the vehicle camera is excessively bright or too dark, the surrounding vehicle or lane is not clearly displayed in the image. Therefore, it is not easy to detect a nearby vehicle or a lane, and there is a problem that the accuracy of the automobile safety control deteriorates as the efficiency of detecting a nearby vehicle or lane decreases.
본 발명이 해결하고자 하는 과제는 차선 또는 전방 차량 검출 능력을 향상시킬 수 있는 자동 노출 제어 장치 및 방법을 제공하는 것이다. SUMMARY OF THE INVENTION It is an object of the present invention to provide an automatic exposure control apparatus and method capable of improving lane or front vehicle detection capability.
그러나 본 발명이 해결하고자 하는 과제들은 이상에서 언급된 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the problems to be solved by the present invention are not limited to the above-mentioned problems, and other problems which are not mentioned can be clearly understood by those skilled in the art from the following description.
상술한 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 자동 노출 제어 장치는 차량의 주변 상황을 촬영한 제1 영상을 획득하는 하나 이상의 카메라; 상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하고, 상기 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할한 다음, 상기 각 분할 영역에 대하여 서로 다른 노출 가중치를 적용하는 영상 분석부; 및 상기 각 분할 영역 별로 적용된 노출 가중치에 기초하여 제2 영상을 획득하는데 필요한 노출 시간을 계산하고, 상기 계산된 노출 시간에 따라 상기 하나 이상의 카메라의 노출을 제어하는 노출 제어부를 포함할 수 있다. According to an embodiment of the present invention, there is provided an automatic exposure control apparatus comprising: at least one camera for acquiring a first image of a surrounding situation of a vehicle; An image analyzing unit that detects at least one of a lane and an object from the first image, divides the first image into a plurality of regions based on the detection result, and applies different exposure weights to the respective divided regions, ; And an exposure control unit for calculating an exposure time required to acquire a second image based on the exposure weight applied to each of the divided areas and controlling the exposure of the one or more cameras according to the calculated exposure time.
상기 영상 분석부는 상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하는 검출부; 상기 검출부의 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할하는 영역 분할부; 및 상기 각 분할 영역 별로 서로 다른 노출 가중치를 적용하는 가중치 적용부를 포함할 수 있다. Wherein the image analyzer comprises: a detector for detecting at least one of a lane and an object from the first image; An area dividing unit dividing the first image into a plurality of areas based on a detection result of the detecting unit; And a weight applying unit for applying different exposure weights to the respective divided regions.
상기 영역 분할부는 상기 제1 영상에서 검출된 차선의 연장선이 만나는 소실점 및 상기 소실점을 포함하는 수평선인 지평선을 설정하고, 상기 지평선을 기준으로 상기 제1 영상을 상부 영역과 하부 영역으로 분할하되, 상기 제1 영상으로부터 검출된 물체가 존재하는지에 따라, 상기 하부 영역을 복수의 서브 영역으로 분할할 수 있다. Wherein the region dividing unit sets a horizon line that is a horizontal line including a vanishing point where an extension line of the lane detected in the first image meets and a vanishing point and divides the first image into an upper region and a lower region based on the horizon, The lower region may be divided into a plurality of sub regions according to whether an object detected from the first image exists.
상기 영역 분할부는 상기 제1 영상으로부터 검출된 물체가 없는 경우에는 상기 소실점을 포함하도록 기준 서브 영역을 설정하고, 상기 제1 영상으로부터 검출된 물체가 있는 경우에는 상기 검출된 물체를 포함하도록 기준 서브 영역을 설정하되, 상기 복수의 서브 영역 중에서 상기 기준 서브 영역을 제외한 서브 영역들은 상기 기준 서브 영역에서 멀어질수록 그 크기가 증가할 수 있다. Wherein the region dividing unit sets the reference sub-region so as to include the vanishing point when there is no object detected from the first image, and sets the reference sub-region to include the detected object if the object is detected from the first image, The sub-areas excluding the reference sub-area may increase in size as the distance from the reference sub-area increases.
상기 가중치 적용부는 상기 상부 영역에 비하여 상기 하부 영역에 더 높은 노출 가중치를 적용하고, 상기 기준 서브 영역으로부터 하부에 위치한 서브 영역일수록 높은 노출 가중치를 적용하고, 상기 기준 서브 영역으로부터 좌우로 멀리 위치한 서브 영역일수록 낮은 노출 가중치를 적용할 수 있다. The weight applying unit applies a higher exposure weight to the lower region than the upper region, applies a higher exposure weight to the sub region located below the reference sub region, and applies a higher exposure weight to the sub region located farther from the reference sub region, The lower the exposure weight, the better.
상기 하나 이상의 카메라는 상기 차량의 전방, 후방 및 측면 중 적어도 한 곳에 설치될 수 있다. The at least one camera may be installed in at least one of a front, a rear, and a side of the vehicle.
상술한 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 자동차 안전 제어 시스템은 차량의 주변 상황을 촬영한 제1 영상을 획득하는 하나 이상의 카메라와, 상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하고, 상기 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할한 다음, 상기 각 분할 영역에 대하여 서로 다른 노출 가중치를 적용하는 영상 분석부와, 상기 각 분할 영역 별로 적용된 노출 가중치에 기초하여 제2 영상을 획득하는데 필요한 노출 시간을 계산하고, 상기 계산된 노출 시간에 따라 상기 하나 이상의 카메라의 노출을 제어하는 노출 제어부를 포함하는 자동 노출 제어 장치; 및 상기 제2 영상으로부터 차선 및 물체 중 적어도 하나를 검출한 검출 결과에 따라, 자동차의 안전 제어를 수행하는 안전 제어부를 포함할 수 있다. According to an aspect of the present invention, there is provided an automobile safety control system including at least one camera for acquiring a first image of a vehicle's surroundings, at least one of a lane and an object from the first image, An image analysis unit that divides the first image into a plurality of areas based on the detection result and applies different exposure weights to the respective divided areas; An exposure controller for calculating an exposure time required to acquire a second image and controlling exposure of the at least one camera according to the calculated exposure time; And a safety controller for performing safety control of the vehicle according to the detection result of detecting at least one of the lane and the object from the second image.
상기 영상 분석부는 상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하는 검출부; 상기 검출부의 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할하는 영역 분할부; 및 상기 각 분할 영역 별로 서로 다른 노출 가중치를 적용하는 가중치 적용부를 포함할 수 있다. Wherein the image analyzer comprises: a detector for detecting at least one of a lane and an object from the first image; An area dividing unit dividing the first image into a plurality of areas based on a detection result of the detecting unit; And a weight applying unit for applying different exposure weights to the respective divided regions.
상기 영역 분할부는 상기 제1 영상에서 검출된 차선의 연장선이 만나는 소실점 및 상기 소실점을 포함하는 수평선인 지평선을 설정하고, 상기 지평선을 기준으로 상기 제1 영상을 상부 영역과 하부 영역으로 분할하되, 상기 제1 영상으로부터 검출된 물체가 존재하는지에 따라, 상기 하부 영역을 복수의 서브 영역으로 분할할 수 있다. Wherein the region dividing unit sets a horizon line that is a horizontal line including a vanishing point where an extension line of the lane detected in the first image meets and a vanishing point and divides the first image into an upper region and a lower region based on the horizon, The lower region may be divided into a plurality of sub regions according to whether an object detected from the first image exists.
상기 영역 분할부는 상기 제1 영상으로부터 검출된 물체가 없는 경우에는 상기 소실점을 포함하도록 기준 서브 영역을 설정하고, 상기 제1 영상으로부터 검출된 물체가 있는 경우에는 상기 검출된 물체를 포함하도록 기준 서브 영역을 설정하되, 상기 복수의 서브 영역 중에서 상기 기준 서브 영역을 제외한 서브 영역들은 상기 기준 서브 영역에서 멀어질수록 그 크기가 증가할 수 있다. Wherein the region dividing unit sets the reference sub-region so as to include the vanishing point when there is no object detected from the first image, and sets the reference sub-region to include the detected object if the object is detected from the first image, The sub-areas excluding the reference sub-area may increase in size as the distance from the reference sub-area increases.
상기 가중치 적용부는 상기 상부 영역에 비하여 상기 하부 영역에 더 높은 노출 가중치를 적용하고, 상기 기준 서브 영역으로부터 하부에 위치한 서브 영역일수록 높은 노출 가중치를 적용하고, 상기 기준 서브 영역으로부터 좌우로 멀리 위치한 서브 영역일수록 낮은 노출 가중치를 적용할 수 있다. The weight applying unit applies a higher exposure weight to the lower region than the upper region, applies a higher exposure weight to the sub region located below the reference sub region, and applies a higher exposure weight to the sub region located farther from the reference sub region, The lower the exposure weight, the better.
상기 하나 이상의 카메라는 상기 차량의 전방, 후방 및 측면 중 적어도 한 곳에 설치될 수 있다. The at least one camera may be installed in at least one of a front, a rear, and a side of the vehicle.
상술한 과제를 해결하기 위하여 본 발명의 일 실시예에 따른 자동 노출 제어 방법은 하나 이상의 카메라를 통해 차량의 주변 상황을 촬영한 제1 영상을 획득하는 단계; 상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하고, 상기 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할한 다음, 상기 각 분할 영역에 대하여 서로 다른 노출 가중치를 적용하는 단계; 및 상기 각 분할 영역 별로 적용된 노출 가중치에 기초하여 제2 영상을 획득하는데 필요한 노출 시간을 계산하고, 상기 계산된 노출 시간에 따라 상기 하나 이상의 카메라의 노출을 제어하는 단계를 포함할 수 있다. According to an embodiment of the present invention, there is provided an automatic exposure control method comprising: acquiring a first image of a surrounding environment of a vehicle through one or more cameras; Detecting at least one of a lane and an object from the first image, dividing the first image into a plurality of regions based on the detection result, and applying different exposure weights to the respective divided regions; And calculating an exposure time required to acquire a second image based on the exposure weight applied to each of the divided regions, and controlling exposure of the one or more cameras according to the calculated exposure time.
상기 서로 다른 노출 가중치를 적용하는 단계는 상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하는 단계; 상기 검출부의 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할하는 단계; 및 상기 각 분할 영역 별로 서로 다른 노출 가중치를 적용하는 단계를 포함할 수 있다. Wherein applying the different exposure weights comprises: detecting at least one of a lane and an object from the first image; Dividing the first image into a plurality of regions based on the detection result of the detection unit; And applying different exposure weights to each of the divided regions.
상기 제1 영상을 복수의 영역으로 분할하는 단계는 상기 제1 영상에서 검출된 차선의 연장선이 만나는 소실점 및 상기 소실점을 포함하는 수평선인 지평선을 설정하는 단계; 상기 지평선을 기준으로 상기 제1 영상을 상부 영역과 하부 영역으로 분할하는 단계; 및 상기 제1 영상으로부터 검출된 물체가 존재하는지에 따라, 상기 하부 영역을 복수의 서브 영역으로 분할하는 단계를 포함할 수 있다. Wherein the step of dividing the first image into a plurality of regions comprises: setting a horizon line that is a horizontal line including a vanishing point where an extension line of the lane detected in the first image meets and a vanishing point; Dividing the first image into an upper region and a lower region based on the horizon; And dividing the lower region into a plurality of sub regions according to whether there is an object detected from the first image.
상기 하부 영역을 복수의 서브 영역으로 분할하는 단계는 상기 제1 영상으로부터 검출된 물체가 없는 경우에는 상기 소실점을 포함하도록 기준 서브 영역을 설정하고, 상기 제1 영상으로부터 검출된 물체가 있는 경우에는 상기 검출된 물체를 포함하도록 기준 서브 영역을 설정하는 단계를 포함하되, 상기 복수의 서브 영역 중에서 상기 기준 서브 영역을 제외한 서브 영역들은 상기 기준 서브 영역에서 멀어질수록 그 크기가 증가할 수 있다. Wherein the step of dividing the lower area into a plurality of sub areas includes setting a reference sub area to include the vanishing point when there is no object detected from the first image, And setting a reference sub-region including the detected object, wherein the sub-regions excluding the reference sub-region among the plurality of sub-regions may increase in size as the distance from the reference sub-region increases.
상기 각 분할 영역 별로 서로 다른 노출 가중치를 적용하는 단계는 상기 상부 영역에 비하여 상기 하부 영역에 더 높은 노출 가중치를 적용하는 단계; 및 상기 기준 서브 영역으로부터 하부에 위치한 서브 영역일수록 높은 노출 가중치를 적용하고, 상기 기준 서브 영역으로부터 좌우로 멀리 위치한 서브 영역일수록 낮은 노출 가중치를 적용하는 단계를 포함할 수 있다. Wherein applying different exposure weights to each of the divided regions comprises: applying a higher exposure weight to the lower region than the upper region; And applying a higher exposure weight to a sub region located below the reference sub region and applying a lower exposure weight to a sub region located far from the reference sub region.
상기 하나 이상의 카메라는 상기 차량의 전방, 후방 및 측면 중 적어도 한 곳에 설치될 수 있다.The at least one camera may be installed in at least one of a front, a rear, and a side of the vehicle.
본 발명에 의한 자동 노출 제어 장치 및 자동 노출 제어 방법에 따르면 다음과 같은 효과가 있다. The automatic exposure control apparatus and the automatic exposure control method according to the present invention have the following effects.
카메라를 통해 획득된 제1 영상을 복수의 영역으로 분할하고, 각 분할 영역 별로 적용된 서로 다른 노출 가중치에 기초하여 제2 영상을 획득하는데 필요한 노출 시간을 계산하고, 산출된 노출 시간에 따라 제2 영상을 획득하므로써, 제2 영상에서 차량이나 차선을 검출할 때, 검출 성능을 향상시킬 수 있다. A first image obtained through a camera is divided into a plurality of regions, an exposure time necessary to acquire a second image is calculated based on different exposure weights applied to the respective divided regions, and a second image The detection performance can be improved when the vehicle or the lane is detected in the second image.
차량 또는 차선에 대한 검출 성능이 향상되므로, 차량 또는 차선 검출 결과에 근거한 자동차의 안전 제어 시, 그 성능을 향상시킬 수 있다. The detection performance for the vehicle or the lane is improved, so that the performance can be improved in the safety control of the vehicle based on the result of detection of the vehicle or the lane.
도 1은 종래의 자동 노출 제어 기능이 적용된 자동차용 카메라에서 획득된 영상을 예시한 도면이다.
도 2는 종래의 자동 노출 제어 기능이 적용된 자동차용 카메라에서 획득된 영상을 예시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 자동 노출 제어 장치가 적용된 자동차 안전 제어 시스템의 구성을 도시한 블럭도이다.
도 4는 본 발명의 일 실시예에 따른 자동 노출 제어 장치에 의한 영역 분할 모습을 예시한 도면이다.
도 5는 도 4에 예시된 영상에서 분할 영역 별로 서로 다른 노출 가중치가 적용된 모습을 예시한 도면이다.
도 6은 본 발명의 일 실시예에 따른 자동 노출 제어 방법을 도시한 흐름도이다.FIG. 1 is a view illustrating an image obtained from an automobile camera to which a conventional automatic exposure control function is applied.
2 is a view illustrating an image obtained from a camera for a vehicle to which a conventional automatic exposure control function is applied.
3 is a block diagram illustrating a configuration of a vehicle safety control system to which an automatic exposure control apparatus according to an embodiment of the present invention is applied.
4 is a view illustrating an area division by the automatic exposure control apparatus according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating a state in which different exposure weights are applied to the divided regions in the image illustrated in FIG.
6 is a flowchart illustrating an automatic exposure control method according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. To fully disclose the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 설명한다. 도면에서 동일한 도면 부호는 동일한 구성 요소를 나타낸다. Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the drawings, like reference numerals designate like elements.
도 3은 본 발명의 일 실시예에 따른 자동 노출 제어 장치(100)가 적용된 자동차 안전 제어 시스템(1)의 제어 구성을 도시한 도면이다. 3 is a view showing a control configuration of an automobile safety control system 1 to which an automatic
도 3에 도시된 바와 같이, 본 발명의 일실시예에 따른 자동차 안전 제어 시스템(1)은 자동 노출 제어 장치(100) 및 안전 제어부(200)를 포함할 수 있다. 3, the automotive safety control system 1 according to an embodiment of the present invention may include an automatic
자동 노출 제어 장치(100)는 카메라(110)를 통해 획득된 제1 영상을 복수의 영역으로 분할한 다음, 각 분할 영역 별로 서로 다른 노출 가중치를 적용할 수 있다. 그리고 분할 영역 별로 적용된 노출 가중치에 기초하여, 제2 영상을 획득하는데 필요한 노출 시간(Exposure Time)을 계산하고, 계산된 노출 시간에 따라 카메라(110)의 노출을 제어하여 제2 영상을 획득할 수 있다. 이를 위하여 자동 노출 제어 장치(100)는 카메라(110), 영상 분석부(130), 노출 제어부(140), 및 저장부(150)를 포함할 수 있다. The automatic
카메라(110)는 차량 내부의 전면 유치 상단부에 위치할 수 있다. 카메라(110)는 복수개가 구비될 수도 있는데, 이 경우, 복수의 카메라(110)는 차량 내부의 전면 유치 상단부, 차량 내부의 후면 유치 상단부 및 차량 내부의 측면 상단부 중 적어도 한 곳에 설치될 수 있다. 이하의 설명에서는 설명의 편의를 위하여 카메라(110)가 차량 내부의 전면 유치 상단부에 위치한 경우를 예로 들어 설명하기로 한다. The
차량 내부의 전면 유치 상단부에 설치된 카메라(110)는 차량의 전방이나 주변 상황을 촬영하고, 이에 대한 영상을 획득할 수 있다. 카메라(110)는 2차원 영상을 획득하는 2차원 카메라(110)나 2차원 영상에 깊이 정보가 매핑된 3차원 영상을 획득하는 카메라(110)로 구현될 수 있다. 앞서 설명하였듯이, 카메라(110)를 통해 획득되는 영상은 노출 가중치가 적용되는 시점을 기준으로 구분될 수 있다. 즉, 노출 가중치가 적용되기 이전에, 카메라(110)를 통해 획득된 영상은 제1 영상으로 이해될 수 있다. 이에 비하여, 노출 가중치가 적용된 이후에 카메라(110)를 통해 획득된 영상은 제2 영상으로 이해될 수 있다. The
영상 분석부(130)는 카메라(110)를 통해 획득된 제1 영상을 분석하여, 분석 결과에 따라 제1 영상을 복수의 영역으로 분할할 수 있으며, 각 분할 영역별로 서로 다른 노출 가중치를 적용할 수 있다. 이를 위하여 영상 분석부(130)는 검출부(132), 영역 분할부(134) 및 가중치 적용부(136)를 포함할 수 있다. 여기서, 영상 분석부(130)의 각 구성요소에 대해 좀 더 상세히 설명하기로 한다. The
검출부(132)는 카메라(110)를 통해 획득된 제1 영상에서 차선 및 물체 중 적어도 하나를 검출할 수 있다. 여기서, 차선은 자차가 주행 중인 차선을 포함할 수 있다. 그리고 물체는 전방 차량 및 보행자 중 적어도 하나를 포함할 수 있다. 검출 결과는 영역 분할부(134)로 제공될 수 있다. The
영역 분할부(134)는 검출부(132)의 검출 결과에 근거하여, 제1 영상을 복수의 영역으로 분할할 수 있다. 이를 위해 영역 분할부(134)는 우선, 영상 내에 소실점(P)을 설정한 다음, 소실점(P)을 포함하는 지평선을 설정할 수 있다. 이 때, 소실점(P)은 검출된 차선의 연장선(L)을 그었을 때, 선과 선이 만나는 점으로 정의될 수 있으며, 지평선은 소실점(P)을 포함하는 수평선으로 정의될 수 있다. The
이 후, 영역 분할부(134)는 설정된 지평선을 기준으로 제1 영상을 상부 영역(Rup)과 하부 영역(Rdown)으로 분할할 수 있다. 여기서 상부 영역(Rup)은 지평선 위쪽의 분할 영역을 말하며, 하부 영역(Rdown)은 지평선 아래쪽의 분할 영역을 말한다. Thereafter, the
이 후, 영역 분할부(134)는 하부 영역(Rdown)을 다수의 서브 영역으로 분할할 수 있다. 이 때, 서브 영역의 크기나 개수는 사전에 지정될 수도 있고, 영상에서 검출된 물체의 크기에 따라 달라질 수도 있다. 여기서, 서브 영역에 대한 보다 구체적인 설명을 위해서 도 4를 참조하기로 한다. Thereafter, the
도 4는 영상 분할부에 의해 복수의 영역으로 분할된 제1 영상을 예시한 도면이다. 4 is a diagram illustrating a first image divided into a plurality of regions by the image dividing unit.
도 4를 참조하면, 하부 영역(Rdown)은 4행 5열의 서브 영역으로 분할되어 있으며, 각 서브 영역은 서로 다른 크기를 갖는 것을 알 수 있다. 그리고 복수의 서브 영역들 중에서 전방 차량을 포함하는 서브 영역의 크기가 가장 작은 것을 알 수 있다. 이하의 설명에서는 설명의 편의를 위해 전방 차량을 포함하는 서브 영역을 '기준 서브 영역(R1)'이라 칭하기로 한다. Referring to FIG. 4, the lower region R down is divided into sub-regions of 4 rows and 5 columns, and each sub region has a different size. It can be seen that the sub-region including the front vehicle among the plurality of sub-regions has the smallest size. In the following description, the sub-region including the forward vehicle will be referred to as a " reference sub-region R 1 "
기준 서브 영역(R1)을 제외한 나머지 서브 영역들(R2, R3)의 크기는 기준 서브 영역(R1)에서 멀어질수록 그 크기가 커지는 것을 알 수 있다. 구체적으로, 같은 행에 위치한 서브 영역들을 살펴보면, 기준 서브 영역(R1)과 먼 곳에 위치한 서브 영역일수록 가로 길이가 긴 것을 알 수 있다. 구체적으로, 서브 영역(R3)의 가로 길이는 서브 영역(R2)의 가로 길이보다 긴 것을 알 수 있다. 또한 같은 열에 위치한 서브 영역들을 살펴보면, 기준 서브 영역(R1)과 먼 곳에 위치한 서브 영역일수록 세로 길이가 긴 것을 알 수 있다. 구체적으로, 서브 영역(R3)의 세로 길이는 서브 영역(R2)의 세로 길이보다 긴 것을 알 수 있다. With the exception of the reference sub-area (R 1) remaining sub-area (R 2, R 3 ) increases as the distance from the reference sub-area R 1 increases. In more detail, the sub-areas located in the same row are longer in the sub-area located farther from the reference sub-area R 1 . Specifically, it can be seen that the width of the sub-area R 3 is longer than the width of the sub-area R 2 . Also, the sub-areas located in the same column are longer in the sub-area located farther from the reference sub-area R 1 . Specifically, it can be seen that the vertical length of the sub-area R 3 is longer than the vertical length of the sub-area R 2 .
이처럼 카메라(110)를 통해 획득된 제1 영상에서 전방 차량이나 보행자가 검출된 경우라면, 검출된 전방 차량이나 보행자를 포함하도록 기준 서브 영역(R1)이 설정될 수 있다. 이에 비하여, 카메라(110)를 통해 획득된 제1 영상에서 전방 차량이나 보행자가 검출되지 않은 경우라면, 기준 서브 영역(R1)은 소실점(P)을 포함하도록 설정될 수 있으며, 이 경우 전체 서브 영역의 개수 및 각 서브 영역의 크기는 사전 지정된 값을 따를 수 있다. If the front vehicle or the pedestrian is detected in the first image obtained through the
다시 도 3을 참조하면, 가중치 적용부(136)는 각 분할 영역에 대하여 서로 다른 노출 가중치를 적용할 수 있다. 이 때, 상부 영역(Rup) 보다는 하부 영역(Rdown)에 더 높은 노출 가중치가 적용될 수 있다. 그리고 하부 영역(Rdown)에 속한 서브 영역들 중에서는 기준 서브 영역(R1)을 기준으로 아래쪽에 위치한 서브 영역일수록 높은 노출 가중치가 적용될 수 있으며, 기준 서브 영역(R1)을 기준으로 좌우로 멀어질수록 낮은 노출 가중치가 적용될 수 있다. 즉, 지평선에서 제1 영상의 하부로 갈수록 높은 노출 가중치가 적용되고, 자차가 주행 중인 차선을 기준으로 양옆으로 갈수록 낮은 가중치가 적용될 수 있다. 각 분할 영역 별로 적용되는 노출 가중치를 예시하면 도 5와 같다. Referring again to FIG. 3, the
다시 도 3을 참조하면, 노출 제어부(140)는 각 분할 영역별로 적용된 노출 가중치에 기초하여, 제2 영상을 획득하는데 필요한 노출 시간을 계산할 수 있다. 그리고 계산된 노출 시간에 따라 카메라(110)의 노출을 제어하여 카메라(110)를 통해 제2 영상이 획득될 수 있도록 한다. 카메라(110)를 통해 획득된 제2 영상은 영상 분석부(130)의 검출부(132)로 제공될 수 있다. Referring back to FIG. 3, the
검출부(132)는 제2 영상에서 차선 및 물체 중 적어도 하나를 검출하여, 검출 결과를 안전 제어부(200)로 제공할 수 있다. The
저장부(150)는 카메라(110)를 통해 획득된 제1 영상을 분석하는데 필요한 알고리즘이나 데이터와, 제1 영상에 대한 분석 결과를 저장할 수 있다. 예를 들면, 저장부(150)는 제1 영상의 각 분할 영역에 대한 위치 정보, 각 분할 영역에 적용된 노출 가중치에 대한 정보를 저장할 수 있다. 이외에도 저장부(150)는 노출 제어에 필요한 알고리즘이나 데이터를 저장할 수도 있으며, 카메라(110)를 통해 획득된 제2 영상에서 차선 및 물체 등을 검출하는데 필요한 알고리즘이나 데이터 등을 저장할 수도 있다. The
이러한 저장부(150)는 롬(Read Only Memory: ROM), 램(Random Access Memory: RAM), 피롬(Programmable Read Only Memory: PROM), 이피롬(Erasable Programmable Read Only Memory: EPROM), 플래시 메모리와 같은 비휘발성 메모리 소자, 또는 램(Random Access Memory: RAM)과 같은 휘발성 메모리 소자, 또는 하드 디스크, 광 디스크와 같은 저장 매체로 구현되거나, 이들의 조합으로 구현될 수 있다. 그러나 상술한 예로 한정되는 것은 아니며, 저장부(150)는 당업계에 알려져 있는 임의의 다른 형태로 구현될 수도 있음은 물론이다.The
안전 제어부(200)는 영상 분석부(130)의 검출부(132)로부터 제공받은 검출 결과에 근거하여, 자동차의 안전 제어를 수행할 수 있다. 이러한 안전 제어부(200)는 차선 유지 제어부(210), 충돌 방지 제어부(220) 및 전조등 제어부(230)를 포함하여 구성될 수 있다. The
차선 유지 제어부(210)는 검출부(132)의 차선 검출 결과에 근거하여, 차량이 차선을 이탈하지 않도록 차량의 동작을 제어할 수 있다. 일 예로, 차선 유지 제어부(210)는 차량이 차선을 이탈하려는 경우, 이를 경고등, 스피커 등의 출력부(미도시)를 통해 출력하여 운전자에게 경고할 수 있다. 다른 예로, 차선 유지 제어부(210)는 차량이 차선을 이탈하려는 경우, 운전자가 차량을 조작하지 않더라도 차량이 차선을 따라 주행할 수 있도록 스티어링(steering)을 제어할 수도 있다. The lane-keeping
충돌 방지 제어부(220)는 검출부(132)의 전방 차량 검출 결과에 근거하여, 자차가 전방 차량과 충돌하지 않도록 차량의 동작을 제어할 수 있다. 구체적으로, 충돌 방지 제어부(220)는 전방 차량과 자차 사이의 거리가 일정하게 유지되도록 차량의 동작을 제어할 수 있다. 또한 충돌 방지 제어부(220)는 전방 차량과 자차 사이의 거리가 기준 거리 미만으로 가까워지는 경우, 이를 경고등, 스피커 등의 출력부를 통해 출력하여 운전자에게 경고할 수 있다. The collision
전조등 제어부(230)는 검출부(132)의 전방 차량 또는 보행자 검출 결과에 근거하여, 전조등의 밝기나 조사방향을 제어할 수 있다. 예를 들어, 전조등 제어부(230)는 전방 차량이나 보행자를 향하여 전조등이 적절한 강도로 조사되도록 제어할 수 있다. The
도 6은 본 발명의 일 실시예에 따른 자동 노출 제어 방법을 도시한 흐름도이다. 6 is a flowchart illustrating an automatic exposure control method according to an embodiment of the present invention.
카메라(110)를 통해 제1 영상이 획득되면(S610), 검출부(132)는 획득된 제1 영상에서 차선 및 물체 중 적어도 하나를 검출할 수 있다(S620). 여기서, 차선은 자차가 주행 중인 차선을 포함할 수 있으며, 물체는 전방 차량 및 보행자 중 적어도 하나를 포함할 수 있다. If the first image is acquired through the
제1 영상이 획득되면, 영역 분할부(134)는 검출부(132)의 검출 결과에 근거하여 제1 영상을 다수의 영역으로 분할할 수 있다(S630). 상기 S630 단계는 제1 영상에서 검출된 차선에 근거하여 소실점(P)을 설정하는 단계와, 소실점(P)을 포함하는 지평선을 설정하는 단계와, 지평선을 기준으로 제1 영상을 상부 영역(Rup)과 하부 영역(Rdown)으로 분할하는 단계와, 제1 영상에서 검출된 물체의 유무에 따라 하부 영역(Rdown)을 복수의 서브 영역으로 분할하는 단계를 포함할 수 있다. When the first image is obtained, the
이와 같이 제1 영상이 복수의 영역으로 분할되면, 가중치 적용부(136)는 각 분할 영역 별로 서로 다른 가중치를 적용할 수 있다(S640). 이 때, 가중치 적용부(136)는 저장부(150)에 저장되어 있는 데이터를 참조하여, 각 분할 영역 별로 서로 다른 노출 가중치를 적용할 수 있다. If the first image is divided into a plurality of regions, the
각 분할 영역 별로 서로 다른 가중치가 적용되면, 노출 제어부(140)는 적용된 노출 가중치에 기초하여, 제2 영상을 획득하는데 필요한 노출 시간을 계산할 수 있다(S650). If different weights are applied to the respective divided regions, the
이 후, 노출 제어부(140)는 계산된 노출 시간에 따라 카메라(110)의 노출을 제어하여 카메라(110)를 통해 제2 영상이 획득될 수 있도록 한다(S660). 획득된 제2 영상은 영상 분석부(130)의 검출부(132)로 제공될 수 있다. Thereafter, the
검출부(132)는 제2영상으로부터 차선 및 물체 중 적어도 하나를 검출할 수 있다(S670). 이를 위해 검출부(132)는 저장부(150)에 저장된 검출 알고리즘이나 데이터를 이용할 수 있다. 검출부(132)에 의해 검출된 검출 결과는 안전 제어부(200)로 제공될 수 있다. The detecting
안전 제어부는 검출부로부터 제공받은 검출 결과에 근거하여, 자동차의 안전 제어를 수행할 수 있다. 상기 자동차의 안전 제어를 수행하는 단계는 차선 유지 제어, 충돌 방지 제어 및 전조등 제어 중 적어도 하나를 포함할 수 있다. The safety control unit can perform safety control of the vehicle based on the detection result provided from the detection unit. The step of performing safety control of the automobile may include at least one of lane keeping control, collision avoidance control, and headlight control.
상술한 바와 같은 자동 노출 제어 장치 및 자동 노출 제어 방법에 따르면, 차량이 주행 중인 차선(또는 도로)을 기준으로 높은 노출 가중치가 적용되고, 이러한 노출 가중치에 기초하여 제2 영상 획득에 필요한 노출 시간이 결정됩니다. 따라서 노출 제어를 통해 제2 영상을 획득하였을 때, 도 1과 같이 지나치게 밝은 영상이 획득되거나 도 2의 (a)와 같이 지나치게 어두운 영상이 획득되는 현상을 줄일 수 있다. According to the automatic exposure control apparatus and the automatic exposure control method as described above, a high exposure weight is applied based on the lane (or road) in which the vehicle is traveling, and the exposure time required for the second image acquisition Will be determined. Therefore, when the second image is acquired through the exposure control, it is possible to reduce the phenomenon that an overly bright image is obtained as shown in FIG. 1 or an overly dark image is obtained as shown in FIG. 2 (a).
이상으로 본 발명의 일 실시예에 따른 자동 노출 제어 장치 및 자동 노출 제어 방법을 설명하였다. 전술한 실시예에서 자동 노출 제어 장치(100)를 구성하는 구성요소는 일종의 '모듈(module)'로 구현될 수 있다. 여기서, '모듈'은 소프트웨어 또는 Field Programmable Gate Array(FPGA) 또는 주문형 반도체(Application Specific Integrated Circuit, ASIC)과 같은 하드웨어 구성요소를 의미하며, 모듈은 어떤 역할들을 수행한다. 그렇지만 모듈은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. 모듈은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. The automatic exposure control apparatus and the automatic exposure control method according to an embodiment of the present invention have been described above. In the above-described embodiment, the components constituting the automatic
따라서, 일 예로서 모듈은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 모듈들에서 제공되는 기능은 더 작은 수의 구성요소들 및 모듈들로 결합되거나 추가적인 구성요소들과 모듈들로 더 분리될 수 있다. 게다가, 상기 구성요소들 및 모듈들은 디바이스 내에서 하나 또는 그 이상의 CPU를 실행할 수 있다. Thus, by way of example, a module may include components such as software components, object-oriented software components, class components and task components, and processes, functions, attributes, procedures, Microcode, circuitry, data, databases, data structures, tables, arrays, and variables, as will be appreciated by those skilled in the art. The functionality provided by the components and modules may be combined into a smaller number of components and modules or further separated into additional components and modules. In addition, the components and modules may execute one or more CPUs within the device.
전술한 실시예들에 더하여, 본 발명의 실시예들은 전술한 실시예의 적어도 하나의 처리 요소를 제어하기 위한 컴퓨터 판독 가능한 코드/명령을 포함하는 매체 예를 들면, 컴퓨터 판독 가능한 매체를 통해 구현될 수도 있다. 상기 매체는 상기 컴퓨터 판독 가능한 코드의 저장 및/또는 전송을 가능하게 하는 매체/매체들에 대응할 수 있다. In addition to the embodiments described above, embodiments of the present invention may be embodied in a medium, such as a computer-readable medium, including computer readable code / instructions for controlling at least one processing element of the above described embodiments have. The medium may correspond to media / media enabling storage and / or transmission of the computer readable code.
상기 컴퓨터 판독 가능한 코드는, 매체에 기록될 수 있을 뿐만 아니라, 인터넷을 통해 전송될 수도 있는데, 상기 매체는 예를 들어, 마그네틱 저장 매체(예를 들면, ROM, 플로피 디스크, 하드 디스크 등) 및 광학 기록 매체(예를 들면, CD-ROM 또는 DVD)와 같은 기록 매체, 반송파(carrier wave)와 같은 전송매체를 포함할 수 있다. 또한, 본 발명의 실시예에 따라 상기 매체는 합성 신호 또는 비트스트림(bitstream)과 같은 신호일 수도 있다. 상기 매체들은 분산 네트워크일 수도 있으므로, 컴퓨터로 읽을 수 있는 코드는 분산 방식으로 저장/전송되고 실행될 수 있다. 또한 더 나아가, 단지 일 예로써, 처리 요소는 프로세서 또는 컴퓨터 프로세서를 포함할 수 있고, 상기 처리 요소는 하나의 디바이스 내에 분산 및/또는 포함될 수 있다. The computer readable code may be recorded on a medium as well as transmitted over the Internet, including, for example, a magnetic storage medium (e.g., ROM, floppy disk, hard disk, etc.) A recording medium such as a recording medium (e.g., CD-ROM or DVD), and a transmission medium such as a carrier wave. Also, according to an embodiment of the present invention, the medium may be a composite signal or a signal such as a bitstream. Since the media may be a distributed network, the computer readable code may be stored / transmitted and executed in a distributed manner. Still further, by way of example only, processing elements may include a processor or a computer processor, and the processing elements may be distributed and / or contained within a single device.
이상과 같이 예시된 도면을 참조로 하여, 본 발명의 실시예들을 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 한정적이 아닌 것으로 이해해야만 한다. While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood that the invention may be practiced. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.
10: 자동차 안전 제어 시스템
100: 자동 노출 제어 장치
110: 카메라
130: 영상 분석부
132: 검출부
134: 영역 분할부
136: 가중치 적용부
140: 노출 제어부
150: 저장부
200: 안전 제어부
210: 차선 유지 제어부
220: 충돌 방지 제어부
230: 전조등 제어부
L: 연장선
P: 소실점
Rup: 상부 영역
Rdown: 하부 영역
R1: 기준 서브 영역
R2, R3, R4: 서브 영역10: Automobile safety control system
100: Automatic exposure control device
110: camera
130: Image analysis section
132:
134:
136: weight application unit
140: Exposure control section
150:
200:
210:
220:
230: Headlight control unit
L: extension line
P: Vanishing point
R up : Upper region
R down :
R 1 : reference sub-region
R 2 , R 3 , R 4 :
Claims (18)
상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하고, 상기 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할한 다음, 상기 각 분할 영역에 대하여 서로 다른 노출 가중치를 적용하는 영상 분석부; 및
상기 각 분할 영역 별로 적용된 노출 가중치에 기초하여 제2 영상을 획득하는데 필요한 노출 시간을 계산하고, 상기 계산된 노출 시간에 따라 상기 하나 이상의 카메라의 노출을 제어하는 노출 제어부를 포함하는 자동 노출 제어 장치. At least one camera for acquiring a first image of the surroundings of the vehicle;
An image analyzing unit that detects at least one of a lane and an object from the first image, divides the first image into a plurality of regions based on the detection result, and applies different exposure weights to the respective divided regions, ; And
And an exposure control unit for calculating an exposure time required to acquire a second image based on the exposure weight applied to each of the divided areas and controlling exposure of the one or more cameras according to the calculated exposure time.
상기 영상 분석부는
상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하는 검출부;
상기 검출부의 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할하는 영역 분할부; 및
상기 각 분할 영역 별로 서로 다른 노출 가중치를 적용하는 가중치 적용부를 포함하는 자동 노출 제어 장치.The method according to claim 1,
The image analysis unit
A detector for detecting at least one of a lane and an object from the first image;
An area dividing unit dividing the first image into a plurality of areas based on a detection result of the detecting unit; And
And a weight applying unit for applying different exposure weights to the respective divided regions.
상기 영역 분할부는
상기 제1 영상에서 검출된 차선의 연장선이 만나는 소실점 및 상기 소실점을 포함하는 수평선인 지평선을 설정하고,
상기 지평선을 기준으로 상기 제1 영상을 상부 영역과 하부 영역으로 분할하되,
상기 제1 영상으로부터 검출된 물체가 존재하는지에 따라, 상기 하부 영역을 복수의 서브 영역으로 분할하는 자동 노출 제어 장치. 3. The method of claim 2,
The region dividing unit
Setting a vanishing point where an extension line of the lane detected in the first image meets and a horizon line being a horizontal line including the vanishing point,
Dividing the first image into an upper area and a lower area based on the horizon,
And divides the lower region into a plurality of sub regions according to whether an object detected from the first image exists.
상기 영역 분할부는
상기 제1 영상으로부터 검출된 물체가 없는 경우에는 상기 소실점을 포함하도록 기준 서브 영역을 설정하고, 상기 제1 영상으로부터 검출된 물체가 있는 경우에는 상기 검출된 물체를 포함하도록 기준 서브 영역을 설정하되,
상기 복수의 서브 영역 중에서 상기 기준 서브 영역을 제외한 서브 영역들은 상기 기준 서브 영역에서 멀어질수록 그 크기가 증가하는 자동 노출 제어 장치. The method of claim 3,
The region dividing unit
Setting a reference sub-region to include the vanishing point when there is no object detected from the first image, and setting a reference sub-region to include the detected object if the object is detected from the first image,
Wherein the sub-areas excluding the reference sub-area among the plurality of sub-areas increase in size as the distance from the reference sub-area increases.
상기 가중치 적용부는
상기 상부 영역에 비하여 상기 하부 영역에 더 높은 노출 가중치를 적용하고,
상기 기준 서브 영역으로부터 하부에 위치한 서브 영역일수록 높은 노출 가중치를 적용하고, 상기 기준 서브 영역으로부터 좌우로 멀리 위치한 서브 영역일수록 낮은 노출 가중치를 적용하는 자동 노출 제어 장치. 5. The method of claim 4,
The weight applying unit
Applying a higher exposure weight to the lower region compared to the upper region,
Wherein a higher exposure weight is applied to a sub region located lower than the reference sub region and a lower exposure weight is applied to a sub region located farther away from the reference sub region.
상기 하나 이상의 카메라는 상기 차량의 전방, 후방 및 측면 중 적어도 한 곳에 설치되는 자동 노출 제어 장치. The method according to claim 1,
Wherein the at least one camera is installed in at least one of a front, a rear, and a side of the vehicle.
상기 제2 영상으로부터 차선 및 물체 중 적어도 하나를 검출한 검출 결과에 따라, 자동차의 안전 제어를 수행하는 안전 제어부를 포함하는 자동차 안전 제어 시스템. At least one of a lane and an object is detected from the first image and the first image is divided into a plurality of regions based on the detection result An image analyzing unit applies different exposure weights to the respective divided regions. An exposure time required to acquire a second image is calculated based on the exposure weights applied to the respective divided regions, An automatic exposure control device including an exposure control unit for controlling exposure of the at least one camera; And
And a safety control unit for performing safety control of the vehicle according to the detection result of detecting at least one of the lane and the object from the second image.
상기 영상 분석부는
상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하는 검출부;
상기 검출부의 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할하는 영역 분할부; 및
상기 각 분할 영역 별로 서로 다른 노출 가중치를 적용하는 가중치 적용부를 포함하는 자동차 안전 제어 시스템.8. The method of claim 7,
The image analysis unit
A detector for detecting at least one of a lane and an object from the first image;
An area dividing unit dividing the first image into a plurality of areas based on a detection result of the detecting unit; And
And a weight applying unit for applying different exposure weights to the respective divided regions.
상기 영역 분할부는
상기 제1 영상에서 검출된 차선의 연장선이 만나는 소실점 및 상기 소실점을 포함하는 수평선인 지평선을 설정하고,
상기 지평선을 기준으로 상기 제1 영상을 상부 영역과 하부 영역으로 분할하되,
상기 제1 영상으로부터 검출된 물체가 존재하는지에 따라, 상기 하부 영역을 복수의 서브 영역으로 분할하는 자동차 안전 제어 시스템. 9. The method of claim 8,
The region dividing unit
Setting a vanishing point where an extension line of the lane detected in the first image meets and a horizon line being a horizontal line including the vanishing point,
Dividing the first image into an upper area and a lower area based on the horizon,
And divides the lower region into a plurality of sub regions according to whether an object detected from the first image exists.
상기 영역 분할부는
상기 제1 영상으로부터 검출된 물체가 없는 경우에는 상기 소실점을 포함하도록 기준 서브 영역을 설정하고, 상기 제1 영상으로부터 검출된 물체가 있는 경우에는 상기 검출된 물체를 포함하도록 기준 서브 영역을 설정하되,
상기 복수의 서브 영역 중에서 상기 기준 서브 영역을 제외한 서브 영역들은 상기 기준 서브 영역에서 멀어질수록 그 크기가 증가하는 자동차 안전 제어 시스템. 10. The method of claim 9,
The region dividing unit
Setting a reference sub-region to include the vanishing point when there is no object detected from the first image, and setting a reference sub-region to include the detected object if the object is detected from the first image,
Wherein the sub-areas excluding the reference sub-area among the plurality of sub-areas increase in size as the distance from the reference sub-area increases.
상기 가중치 적용부는
상기 상부 영역에 비하여 상기 하부 영역에 더 높은 노출 가중치를 적용하고,
상기 기준 서브 영역으로부터 하부에 위치한 서브 영역일수록 높은 노출 가중치를 적용하고, 상기 기준 서브 영역으로부터 좌우로 멀리 위치한 서브 영역일수록 낮은 노출 가중치를 적용하는 자동차 안전 제어 시스템. 11. The method of claim 10,
The weight applying unit
Applying a higher exposure weight to the lower region compared to the upper region,
Wherein a higher exposure weight is applied to a sub region located lower than the reference sub region and a lower exposure weight is applied to a sub region located farther from the reference sub region.
상기 하나 이상의 카메라는 상기 차량의 전방, 후방 및 측면 중 적어도 한 곳에 설치되는 자동차 안전 제어 시스템. 8. The method of claim 7,
Wherein the at least one camera is installed at least one of a front, a rear, and a side of the vehicle.
상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하고, 상기 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할한 다음, 상기 각 분할 영역에 대하여 서로 다른 노출 가중치를 적용하는 단계; 및
상기 각 분할 영역 별로 적용된 노출 가중치에 기초하여 제2 영상을 획득하는데 필요한 노출 시간을 계산하고, 상기 계산된 노출 시간에 따라 상기 하나 이상의 카메라의 노출을 제어하는 단계를 포함하는 자동 노출 제어 방법. Obtaining a first image of the surroundings of the vehicle through one or more cameras;
Detecting at least one of a lane and an object from the first image, dividing the first image into a plurality of regions based on the detection result, and applying different exposure weights to the respective divided regions; And
Calculating an exposure time required to acquire a second image based on the exposure weight applied to each of the divided regions, and controlling exposure of the at least one camera according to the calculated exposure time.
상기 서로 다른 노출 가중치를 적용하는 단계는
상기 제1 영상으로부터 차선 및 물체 중 적어도 하나를 검출하는 단계;
상기 검출부의 검출 결과에 근거하여 상기 제1 영상을 복수의 영역으로 분할하는 단계; 및
상기 각 분할 영역 별로 서로 다른 노출 가중치를 적용하는 단계를 포함하는 자동 노출 제어 방법.14. The method of claim 13,
The step of applying the different exposure weights
Detecting at least one of a lane and an object from the first image;
Dividing the first image into a plurality of regions based on the detection result of the detection unit; And
And applying different exposure weights for each of the divided regions.
상기 제1 영상을 복수의 영역으로 분할하는 단계는
상기 제1 영상에서 검출된 차선의 연장선이 만나는 소실점 및 상기 소실점을 포함하는 수평선인 지평선을 설정하는 단계;
상기 지평선을 기준으로 상기 제1 영상을 상부 영역과 하부 영역으로 분할하는 단계; 및
상기 제1 영상으로부터 검출된 물체가 존재하는지에 따라, 상기 하부 영역을 복수의 서브 영역으로 분할하는 단계를 포함하는 자동 노출 제어 방법. 15. The method of claim 14,
Wherein dividing the first image into a plurality of regions comprises:
Setting a horizon line which is a horizontal line including a vanishing point where an extension line of the lane detected in the first image meets and a vanishing point;
Dividing the first image into an upper region and a lower region based on the horizon; And
And dividing the lower region into a plurality of sub-regions according to whether an object detected from the first image is present.
상기 하부 영역을 복수의 서브 영역으로 분할하는 단계는
상기 제1 영상으로부터 검출된 물체가 없는 경우에는 상기 소실점을 포함하도록 기준 서브 영역을 설정하고, 상기 제1 영상으로부터 검출된 물체가 있는 경우에는 상기 검출된 물체를 포함하도록 기준 서브 영역을 설정하는 단계를 포함하되,
상기 복수의 서브 영역 중에서 상기 기준 서브 영역을 제외한 서브 영역들은 상기 기준 서브 영역에서 멀어질수록 그 크기가 증가하는 자동 노출 제어 방법. 16. The method of claim 15,
The step of dividing the lower region into a plurality of sub-
Setting a reference sub-region to include the vanishing point if there is no object detected from the first image, and setting a reference sub-region to include the detected object if the object is detected from the first image , ≪ / RTI &
Wherein the sub-areas excluding the reference sub-area among the plurality of sub-areas increase in size as the distance from the reference sub-area increases.
상기 각 분할 영역 별로 서로 다른 노출 가중치를 적용하는 단계는
상기 상부 영역에 비하여 상기 하부 영역에 더 높은 노출 가중치를 적용하는 단계; 및
상기 기준 서브 영역으로부터 하부에 위치한 서브 영역일수록 높은 노출 가중치를 적용하고, 상기 기준 서브 영역으로부터 좌우로 멀리 위치한 서브 영역일수록 낮은 노출 가중치를 적용하는 단계를 포함하는 자동 노출 제어 방법. 17. The method of claim 16,
The step of applying different exposure weights to each of the divided areas
Applying a higher exposure weight to the lower region as compared to the upper region; And
Applying a higher exposure weight to a sub-region located below the reference sub-region, and applying a lower exposure weight to a sub-region located farther to the left and right from the reference sub-region.
상기 하나 이상의 카메라는 상기 차량의 전방, 후방 및 측면 중 적어도 한 곳에 설치되는 자동 노출 제어 장치.14. The method of claim 13,
Wherein the at least one camera is installed in at least one of a front, a rear, and a side of the vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20120120083A KR101510189B1 (en) | 2012-10-29 | 2012-10-29 | Automatic exposure control apparatus and automatic exposure control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20120120083A KR101510189B1 (en) | 2012-10-29 | 2012-10-29 | Automatic exposure control apparatus and automatic exposure control method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140056510A true KR20140056510A (en) | 2014-05-12 |
KR101510189B1 KR101510189B1 (en) | 2015-04-08 |
Family
ID=50887631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR20120120083A KR101510189B1 (en) | 2012-10-29 | 2012-10-29 | Automatic exposure control apparatus and automatic exposure control method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101510189B1 (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106131518A (en) * | 2016-06-30 | 2016-11-16 | 东莞市中控电子技术有限公司 | A kind of method of image procossing and image processing apparatus |
KR20170095005A (en) * | 2016-02-12 | 2017-08-22 | 주식회사 만도 | Image Sensor Apparatus using Sensor Fusion and Control Method thereof |
CN107343154A (en) * | 2016-04-29 | 2017-11-10 | 华为技术有限公司 | A kind of methods, devices and systems for the exposure parameter for determining camera device |
US9830075B2 (en) | 2014-07-25 | 2017-11-28 | Lg Electronics Inc. | Mobile terminal and control method thereof |
CN108476308A (en) * | 2016-05-24 | 2018-08-31 | Jvc 建伍株式会社 | Filming apparatus, shooting display methods and shooting show program |
CN114025102A (en) * | 2021-09-29 | 2022-02-08 | 浙江亚太机电股份有限公司 | Method for improving identification accuracy and environmental adaptability of ADAS (advanced data acquisition System) |
CN114727024A (en) * | 2021-01-05 | 2022-07-08 | 广州汽车集团股份有限公司 | Automatic exposure parameter adjusting method and device, storage medium and shooting equipment |
WO2023126736A1 (en) * | 2021-12-30 | 2023-07-06 | Mobileye Vision Technologies Ltd. | Image position dependent blur control within hdr blending scheme |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7565006B2 (en) | 2002-08-21 | 2009-07-21 | Gentex Corporation | Image acquisition and processing methods for automatic vehicular exterior lighting control |
JP2005135203A (en) | 2003-10-31 | 2005-05-26 | Hitachi Ltd | Vehicle-driving support device |
JP5012704B2 (en) | 2008-07-08 | 2012-08-29 | 株式会社デンソー | Vehicle shooting system |
KR20120071857A (en) * | 2010-12-23 | 2012-07-03 | 팅크웨어(주) | Electronic device and mehtod of shooting pictures thereof |
-
2012
- 2012-10-29 KR KR20120120083A patent/KR101510189B1/en active IP Right Grant
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9830075B2 (en) | 2014-07-25 | 2017-11-28 | Lg Electronics Inc. | Mobile terminal and control method thereof |
KR20170095005A (en) * | 2016-02-12 | 2017-08-22 | 주식회사 만도 | Image Sensor Apparatus using Sensor Fusion and Control Method thereof |
CN107343154A (en) * | 2016-04-29 | 2017-11-10 | 华为技术有限公司 | A kind of methods, devices and systems for the exposure parameter for determining camera device |
CN108476308A (en) * | 2016-05-24 | 2018-08-31 | Jvc 建伍株式会社 | Filming apparatus, shooting display methods and shooting show program |
CN106131518A (en) * | 2016-06-30 | 2016-11-16 | 东莞市中控电子技术有限公司 | A kind of method of image procossing and image processing apparatus |
CN114727024A (en) * | 2021-01-05 | 2022-07-08 | 广州汽车集团股份有限公司 | Automatic exposure parameter adjusting method and device, storage medium and shooting equipment |
CN114025102A (en) * | 2021-09-29 | 2022-02-08 | 浙江亚太机电股份有限公司 | Method for improving identification accuracy and environmental adaptability of ADAS (advanced data acquisition System) |
WO2023126736A1 (en) * | 2021-12-30 | 2023-07-06 | Mobileye Vision Technologies Ltd. | Image position dependent blur control within hdr blending scheme |
Also Published As
Publication number | Publication date |
---|---|
KR101510189B1 (en) | 2015-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101510189B1 (en) | Automatic exposure control apparatus and automatic exposure control method | |
US10303958B2 (en) | Systems and methods for curb detection and pedestrian hazard assessment | |
CN113998034B (en) | Rider assistance system and method | |
EP2993654B1 (en) | Method and system for forward collision warning | |
US10860869B2 (en) | Time to collision using a camera | |
US7542835B2 (en) | Vehicle image processing device | |
US9827956B2 (en) | Method and device for detecting a braking situation | |
US20120176499A1 (en) | Method and apparatus for detecting a rear vehicle light | |
CN105835753B (en) | Method and control device for adjusting at least one parameter of a driver assistance device of a vehicle | |
US9506859B2 (en) | Method and device for determining a visual range in daytime fog | |
KR20170127036A (en) | Method and apparatus for detecting and assessing road reflections | |
WO2017098709A1 (en) | Image recognition device and image recognition method | |
JP2009076076A (en) | Method for recognizing obstacle | |
US10984264B2 (en) | Detection and validation of objects from sequential images of a camera | |
JP2015069381A (en) | Vehicle exterior environment recognition device | |
JP4980970B2 (en) | Image pickup means adjustment device and object detection device | |
US10776649B2 (en) | Method and apparatus for monitoring region around vehicle | |
US9524645B2 (en) | Filtering device and environment recognition system | |
WO2016092925A1 (en) | Approaching vehicle detection device | |
JP6174960B2 (en) | Outside environment recognition device | |
KR101340014B1 (en) | Apparatus and method for providing location information | |
KR102448164B1 (en) | Apparatus and method for controlling a vehicle radar | |
EP3865815A1 (en) | Vehicle-mounted system | |
JP2023507355A (en) | Method for controlling lighting system of motor vehicle | |
WO2017169704A1 (en) | Environment recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
N231 | Notification of change of applicant | ||
E701 | Decision to grant or registration of patent right | ||
FPAY | Annual fee payment |
Payment date: 20190401 Year of fee payment: 5 |