KR20070005553A - Imaging system - Google Patents

Imaging system Download PDF

Info

Publication number
KR20070005553A
KR20070005553A KR1020067012699A KR20067012699A KR20070005553A KR 20070005553 A KR20070005553 A KR 20070005553A KR 1020067012699 A KR1020067012699 A KR 1020067012699A KR 20067012699 A KR20067012699 A KR 20067012699A KR 20070005553 A KR20070005553 A KR 20070005553A
Authority
KR
South Korea
Prior art keywords
image
block
luminance
blocks
processing unit
Prior art date
Application number
KR1020067012699A
Other languages
Korean (ko)
Inventor
히로유키 가와무라
히로노리 호시노
Original Assignee
나이루스 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 나이루스 가부시키가이샤 filed Critical 나이루스 가부시키가이샤
Priority to KR1020067012699A priority Critical patent/KR20070005553A/en
Publication of KR20070005553A publication Critical patent/KR20070005553A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, camcorders, webcams, camera modules specially adapted for being embedded in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/232Devices for controlling television cameras, e.g. remote control ; Control of cameras comprising an electronic image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, TV cameras, video cameras, camcorders, webcams, camera modules for embedding in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/225Television cameras ; Cameras comprising an electronic image sensor, e.g. digital cameras, video cameras, camcorders, webcams, camera modules specially adapted for being embedded in other devices, e.g. mobile phones, computers or vehicles
    • H04N5/235Circuitry or methods for compensating for variation in the brightness of the object, e.g. based on electric image signals provided by an electronic image sensor

Abstract

An imaging system comprises an IR lamp irradiating infrared light, a CCD camera (5) for imaging a place irradiated by the IR lamp and converting the image into an electric signal, and an image processing unit (7) capable of continuously and periodically outputting images of different exposure amounts by varying the signal storage time of the CCD camera (5) at a specified period. The image processing unit (7) extracts a mass of high luminance having a spread of intermediate luminance on the periphery of the images outputted periodically on one hand, and controls the signal storage time of the images periodically outputted according to the extent of the mass of high luminance on the other hand. ® KIPO & WIPO 2007

Description

촬상시스템{IMAGING SYSTEM} The imaging system {IMAGING SYSTEM}

본 발명은, CCD카메라 등을 이용한 촬상시스템에 관한 것이다. The present invention relates to an imaging system using such as a CCD camera.

도 22는 종래 기술에 따른 촬상시스템을 나타낸다. 22 shows an imaging system according to the prior art. 이 도 22에서는, 촬상수단으로서 CCD(charge-coupled device;101)를 구비하고, 화상처리유닛으로서 DSP (Digital Signal Processor)(103) 및 CPU(중앙처리유닛;105)를 구비하고 있다. In Fig. 22, CCD (charge-coupled device; 101) as the imaging means and provided with, as the image processing unit DSP (Digital Signal Processor) (103) and the CPU; and a (central processing unit 105).

상기 CPU(105)와 DSP(103)는 멀티플렉서(multiplexer;107)를 통하여 접속된다. The CPU (105) and the DSP (103) is a multiplexer; are connected via a (multiplexer 107). CPU(105)에는 셔터 스피드 설정스위치(109)로부터의 신호가 입력되게 되어 있다. CPU (105) there is a signal from the shutter speed setting switch 109 is inputted. 셔터 스피드 설정스위치(109)는, ODD 필드용의 셔터 스피드와 EVEN 필드용의 셔터 스피드를 각각 설정할 수 있게 되어 있다. A shutter speed setting switch 109, and is able to set the shutter speed and the shutter speed for the EVEN field for the ODD field, respectively. 상기 CPU(105)는 상기 셔터 스피드 설정스위치(109)에 의해 설정된 셔터 스피드를 읽어내고, 주어진 필드에 대하여 읽혀진 셔터 스피드를 인코딩하여, 상기 인코딩된 셔터 스피드를 출력한다. The CPU (105) is read out by the shutter speed set by said shutter speed setting switch 109, encoding the shutter speed is read with respect to the given field, and outputs the encoded shutter speed. 상기 DSP(103)는 도 23에 도시된 필드 펄스신호를 출력한다. The DSP (103) outputs the field pulse signal shown in Fig. 상기 필드 펄스신호가 하이(high)인 때는, 상기 멀티플렉서(107)는 DSP(103)의 셔터 스피드 설정 단자에 EVEN 필드에 대한 셔터 스피드를 제공한다. If the field pulse signal is high (high), and the multiplexer 107 provides a shutter speed for the EVEN field to the shutter speed set terminal of the DSP (103). 상기 필드 펄스신호가 로우(low)인 때는, 상기 멀티플렉서(107)는 DSP(103)의 셔터 스피드 설정 단자에 ODD 필드에 대한 셔터 스피드를 제공한다. When the said field pulse signal is low (low), and the multiplexer 107 provides a shutter speed for the ODD field on the shutter speed set terminal of the DSP (103). 이런 방식으로, 도 22의 촬상시스템은 필드마다 다른 셔 터 스피드를 설정할 수 있다. In this way, the imaging system 22 may set a different shutter speed for each field.

ODD 필드 및 EVEN 필드에 대해서 동일한 셔터 스피드를 채용한 CCD 카메라가 있다. A CCD camera employing the same shutter speed for the ODD field and the EVEN field. 도 24는 이러한 종류의 CCD카메라로 찍은 화상의 일례를 나타낸 것이다. Figure 24 shows an example of an image taken with this type of CCD camera. 상기 화상은 주변부가 어두운 밝은 광원을 포함하고 있다. The image includes a bright light source, a dark periphery. 이 화상에서, 상기 밝은 광원과 그 주위 경계는 헐레이션(halation)으로 인하여 보이지 않게 된다. In this image, the light source and around the boundary is not visible due to the halation (halation).

도 24의 화상 촬상에 사용된 상기 CCD카메라는, 적외선 조사수단으로서 적외선(IR) 램프를 구비한 자동차에 탑재된 것이다. Used in the image taken in the CCD camera 24 it is mounted to a car equipped with an infrared (IR) lamp is used as the infrared irradiation means. 자동차의 야간 주행중에 자동차는 IR램프로부터 자동차의 전방으로 적외광을 조사하여, 상기 CCD카메라로 도 24에 나타난 것과 같은 화상을 촬상 할 수 있다. In the car while driving at night car it may pick up an image such as that shown in Figure 24 as by irradiating the infrared light to the front of the vehicle from the IR lamp and the CCD camera. 도 24에 도시된 밝은 광원은 맞은편 접근하는 차의 헤드라이트이고, 그 밝은 광원의 주변은 헐레이션에 의해서 보이지 않게 되고 있다. The light source shown in FIG. 24 has been out of sight by a headlight of the car to approach opposite the periphery of the light source is a light halation. 만약, 야간에 밝은 광원이 어두운 주위에 있을 때, 전면 측광시스템(photometry system)을 채용한 CCD카메라는 어두운 주위에 의하여 지배되며, 따라서 긴 노출시간, 즉 느린 셔터 스피드를 계산해낸다. If, when the ambient light source to a dark night, a CCD camera employing a front-side light system (photometry system) is controlled by a dark ambient, and thus calculates the recall long exposure time, that is a slow shutter speed. 이 셔터 스피드는 상기 밝은 광원에 대해서는 너무 느리기 때문에, 헐레이션을 초래하게 된다. The shutter speed is too slow, because for the light source, resulting in a halation.

상기 셔터 스피드는 헐레이션을 억제하기 위하여 빨라지게 할 수 있다. The shutter speed may be accelerated in order to suppress the halation. 그러나, 이는 도 25와 같이, 주위의 어두운 부분이 보다 어두워져 버려, 배경이 전혀 보이지 않게 되어 버린다고 하는 문제를 만든다. This, however, as shown in FIG. 25, drop becomes darker than the dark areas around, creating a problem that is not visible at all in the background.

도 26의 표지판 등과 같은 반사물이 있는 경우, 상기 표지만 때문에 셔터 스피드가 늦어지도록 제어되어 동일한 방식으로 표지만 주위가 보이지 않게 되어 버린다. If there is a reflective object such as a road sign of Figure 26, resulting in the cover not only because the shutter speed is controlled so that the delay seen in the same manner around the bay cover.

이러한 문제를 극복하기 위하여, 각 필드마다 셔터 스피드를 바꾸는 이중노출제어가 있다. To overcome this problem, it is each of the double exposure control to change the shutter speed for each field. 이는 밝은 화상과 어두운 화상을 교대로 출력하도록 제어하는 것이다. This is to control so as to output a bright image and a dark image alternately. 밝은 화상(예컨대, EVEN 필드)은 어두운 부분을 비추고, 어두운 화상(예컨대, ODD 필드)에서는 밝은 화상에서 헐레이션을 야기할 수 있는 밝은 부분을 비출 수 있다. Bright image (for example, EVEN field) can light the bright portion, which may cause the halation in the image light illuminating the dark portions, the dark image (for example, ODD field).

밝고 어두운 화상을 교대로 출력하여, 선명한 화상으로서 모니터에 표시시킬 수 있다. And outputting a light and dark image in turn, it can be displayed on the monitor as a clear image.

그러나, 상기 이중 노광제어는 밝은 화상과 어두운 화상(필드)를 교대로 출력하도록 제어하여 모니터 상에 깜박거림을 초래한다고 하는 문제가 있다. However, the double exposure control has a problem in that the control outputs are alternately a bright image and a dark image (field) results in a flicker on the monitor.

또한, 일본 특허공개공보 평성 7-97841호에 기재된 도 27에 나타내는 촬상장치가 있다. In addition, Japanese has the image pickup apparatus shown in Fig. 27 described in Patent Laid-Open Publication No. Heisei 7-97841. 이 촬상장치는, 촬상소자(111)를 구비한 카메라부(113)와, 처리부(115)를 구비하고 있다. The imaging device is provided with a camera section 113, a processing unit 115 includes an imaging device 111.

도 28은, 상기 도 27의 촬상장치에 의한 화상처리의 개념도를 나타낸 것이다. Figure 28, illustrates a conceptual diagram of the image processing by the image pickup device of Fig. 도 28에서, 스루 화상(through image)이란, 상기 카메라부(113)의 촬상소자 (111)로부터 직접 출력되는 화상을 말하고, 메모리 화상(memory image)이란 화상 메모리(117)에 일단 기억되기 직전 필드의 화상을 말한다. 28, the through-the-lens image (through image) is, to say the image to be directly output from the image sensor 111 of the camera unit 113, a memory image (memory image) field just before the temporarily stored in is an image memory (117) It refers to the image.

도 28에서, 각 ODD 필드는 빠른 셔터 스피드로 설정되고, 각 EVEN 필드는 느린 셔터 스피드로 설정된다. In Figure 28, each of ODD field is set at a high shutter speed, each of EVEN field is set to a slow shutter speed. 각 ODD필드에서, 스루 화상은 찌부러진 검은색 (crushed black)의 주 피사체를 나타내고, 각 EVEN 필드에서, 스루 화상은 포화된 흰색(saturated white)의 배경을 나타낸다. In each ODD field, through image represents the main object of the crucifix broken black (black crushed), in each of EVEN field, through image represents the background of the saturated white (saturated white). 각 메모리 화상은 1필드 뒤에 위치하고 있으므로, 찌부러진 검은색 또는 포화된 흰색이 대응하는 스루 화상과 반대가 되고 있다. Each image memory has become opposite to the through image that it is located behind the first field, the broken crucifix black or saturated white response. 상기 스루 화상과 메모리 화상을 적절하게 조합하는 것에 의하여, 도 28의 최하단에 도시된 적절한 출력 화상을 얻을 수 있다. By being suitably combining the through image and the memory image, it is possible to obtain a suitable output image illustrated at the bottom of Fig.

그러나, 이 스루 화상과 메모리 화상의 합성은, 스루 화상 및 메모리 화상을 부분적으로 추출하여 포개는 것이기 때문에, 주로 노광량이 다른 화상을 함께 합성하게 된다. However, the synthesis of the through image and the memory image, since it is nested in part extracted in the through image and the memory image, the exposure dose is usually synthesized with another image. 따라서, 상기 단순한 이중 노광제어와 같은 깜박거림은 감소시킬 수 있지만, 합성된 스루 화상 및 메모리 화상의 경계가 부자연스럽게 된다고 하는 문제가 있다. Therefore, flicker is reduced, but can be simple, such as the double exposure control, there is a problem in that the boundary of the synthesized through image and the memory image unnatural.

본 발명은, 보다 선명한 화상 출력을 가능하게 하는 촬상시스템의 제공을 목적으로 한다. Object of the present invention is the provision of an imaging system which enables a more clear image output.

상기 목적을 달성하기 위하여, 본 발명의 제1 관점은, 적외광을 조사하기 위한 적외광 조사수단과, 상기 적외광 조사수단에 의해 조사된 장소를 촬상(撮像)하고 상기 촬상된 화상을 전기신호로 변환하는 촬상수단과, 상기 촬상수단의 신호축적시간을 주기적으로(periodically) 변화시키고 노광량이 다른 화상을 연속하여 주기적으로 출력하도록 구성된 화상처리유닛을 포함하는 촬상시스템을 제공한다. In order to achieve the above object, a first aspect of the present invention, write the infrared light for irradiating the ultraviolet light irradiation means and the enemy a place illuminated by the ultraviolet light irradiation means for image pick-up (撮 像) wherein the sensed image electrical signal regularly (periodically) change the signal storage time of the imaging means, the imaging means for converting a light exposure and a series of consecutive different image provides an image pickup system including an image processing unit configured to periodically output. 상기 화상처리유닛은, 상기 주기적으로 출력되는 화상의 제1 화상(first image)으로부터 중휘도 영역(medium-brightness area)으로 둘러싸인 고휘도 블록(high-brightness block)을 추출하고, 상기 중휘도 영역의 정도(degree)에 따라서, 촬상되는 제2 화상의 신호축적시간을 제어한다. The image processing unit extracts a high luminance block (high-brightness block) surrounded by luminance region (medium-brightness area) of from the first image (first image) of an image to be the periodic output, and the level of the middle luminance region according to (degree), and controls the signal storage time of the second image is captured.

상기 제1 관점에 따르면, 상기 적외광 조사수단은 적외광을 조사하고, 상기 촬상수단은 적외광 조사수단에 의해 조사된 장소를 촬상하여 전기신호로 변환하며, 상기 화상처리유닛은 촬상수단의 신호축적시간을 주기적으로 변화시켜 노광량이 다른 화상을 연속하여 주기적으로 출력한다. According to the first aspect, wherein the infrared ray irradiation means surveys the external light, and the image sensing means is for sensing the location illuminated by the infrared light irradiation means into an electrical signal, the image processing unit signal of the image pick-up means by changing the storage time regularly and periodically output in the amount of exposure is continuous other images.

상기 제1 관점에 따르면, 상기 화상처리유닛은, 상기 주기적으로 출력되는 화상의 제1 화상으로부터 중휘도 영역으로 둘러싸인 고휘도 블록을 추출하고, 상기 중휘도 영역의 정도에 따라서, 촬상되는 제2 화상의 신호축적시간을 제어한다. According to the first aspect, the image processing unit extracts a high luminance block surrounded by a middle luminance region from the periodic first image of an image to be output to, and a second image that is an image pickup according to the level of the middle luminance region It controls the signal storage time.

이러한 제어에 의해, 상기 촬상수단에 예를 들어 맞은 편 차의 헤드라이트로부터의 강한 빛이 들어와도, 상기 제1 관점의 발명은 상기 촬상된 화상에서, 상기 강한 빛에 의한 고휘도 블록 주변의 점차적으로 어두워지는 영역을 제거 또는 억제할 있어서, 상기 강한 빛 부근에 보행자 또는 장애물이 있어도, 그 보행자 또는 장애물의 화상을 명확하게 촬상할 수 있다. With such a control, a strong light from the head light of, for example, opposite to the imaging means tea can come, the invention of the first aspect is in the captured image, dark and the surrounding high-luminance blocks by the strong light gradually which according to remove or suppress the region, even if a pedestrian or an obstacle in the vicinity of the strong light, it is possible to clearly pick up an image of the pedestrian or the obstacle.

본 발명의 제2 관점에 따르면, 상기 화상처리유닛은, 상기 제1 화상을 고휘도 블록, 중휘도 블록, 저휘도 블록으로 나누고, 고휘도 블록의 그룹 주위의 중휘도 블록의 수에 따라, 상기 제2 화상의 화상 신호축적시간을 제어한다. According to a second aspect of the present invention, the image processing unit, the first image a high luminance block and the luminance block, the low luminance divided into blocks, and the second depending on the number of luminance blocks of the surrounding group of the high luminance block and controls the image signal storage time of the image.

따라서, 고휘도 블록의 그룹 주위의 중휘도 블록의 수에 따라, 상기 제2 관점의 발명은 중휘도 블록의 정도를 확실하게 파악하여 상기 제2 화상의 신호축적시간을 제어할 수 있다. Thus, according to the number of luminance blocks of the surrounding group of the high luminance block, the invention of the second aspect is capable of controlling the signal accumulation time of the second image to securely grasp the degree of brightness of the block.

본 발명의 제3 관점에 따르면, 상기 화상처리유닛은, 상기 제1 화상을 복수의 블록으로 나누어, 각 블록의 휘도 평균치를 구하고, 상기 블록들의 휘도 평균치와 두 개의 역치(threshold)에 따라, 상기 블록을 고휘도 블록, 중휘도 블록, 및 저휘도 블록으로 분류한다. According to a third aspect of the invention, according to the image processing unit includes: dividing the first image into a plurality of blocks, obtaining a luminance average value of each block, the luminance average value and the two thresholds (threshold) of the blocks, the block the high luminance block, the luminance of the block, and the low luminance are classified into a block.

따라서, 상기 제3 관점의 발명은, 화소(pixel)에 의하여 화상 화소를 처리하는 기술에 비하여 화상처리시간을 향상시킬 수 있다. Thus, the invention of the third aspect is, it is possible to improve the image processing time as compared to a technique of processing an image pixel by pixel (pixel).

본 발명의 제4 관점에 따르면, 상기 화상처리유닛은, 상기 제1 화상을 복수의 블록으로 나누고, 각 블록 내의 화소(pixel)를 두 개의 역치에 의해 고휘도 화소, 중휘도 화소, 저휘도 화소로 분류하여, 상기 각 블록 내의 고휘도 화소, 중휘도 화소 및 저휘도 화소의 수 중 최대수를 찾아내고, 상기 최대수를 가지는 화소의 휘도 레벨을 그 블록의 휘도 레벨로 결정하며, 상기 결정된 블록의 휘도 레벨에 따라, 상기 블록들을 고휘도 블록, 중휘도 블록 및 저휘도 블록으로 분류한다. According to a fourth aspect of the present invention, the image processing unit, divides the first image into a plurality of blocks, a pixel (pixel) in each block to two high-brightness pixel by two threshold values, of the luminance pixels, the low luminance pixel classifying said each finding the maximum number of the number of high-intensity pixels, of the brightness pixels and low-luminance pixels in the block, and determines the luminance level of the pixel having the maximum number of the luminance level of the block, the luminance of the determined block depending on the level, and classifying the blocks into a high luminance block, the luminance block and the low luminance block.

상기 제4 관점의 발명은, 화소에 의하여 화상 화소를 처리하는 것에 의하여 정확성을 강화시킬 수 있다. The invention of the fourth aspect is, it is possible to enhance the accuracy for processing by the image pixel by pixel.

본 발명의 제5 관점에 따르면, 상기 화상처리유닛은, 상기 각 고휘도 블록 주위의 중휘도 블록의 수를 찾아내고, 상기 주위의 중휘도 블록의 수 중 최대수를 찾아내어 그 최대수에 따라 상기 제2 화상의 화상 신호축적시간을 제어한다. According to a fifth aspect of the invention, the image processing unit, to find the number of luminance blocks of the surrounding each of the high luminance block, wherein in accordance with the maximum number by finding the maximum number of the number of luminance blocks of the surrounding 2 controls the image signal storage time of the image.

상기 제5관점의 발명은, 헐레이션을 쉽게 특정할 수 있어, 신속한 화상처리를 행할 수 있다. The invention of the fifth aspect is, it is a halation can be easily specified, it is possible to perform quick picture processing.

본 발명의 제6 관점에 따르면, 상기 화상처리유닛은, 그룹을 형성하는 고휘도 블록의 수와, 상기 그룹 주위의 중휘도 블록의 수 및 상기 그룹에 관련된 중휘도 블록의 표준수 (reference number)를 찾아내고, 이 수들에 따라 상기 제2 화상의 화상 신호축적시간을 제어한다. According to a sixth aspect of the present invention, the image processing unit, the number of high luminance blocks forming the group, and a standard number (reference number) of the luminance blocks of related to the number and the group of luminance blocks of the periphery of the group found, controls the image signal storage time of the second image in accordance with the numbers.

상기 제6 관점의 발명은, 헐레이션을 적절하게 특정할 수 있어, 보다 정확한 화상처리를 행할 수 있다. The invention of the sixth aspect is, it is a halation can be properly identified, it is possible to perform more accurate image processing.

본 발명의 제7 관점에 따르면, 상기 화상처리유닛은, 고휘도 블록을 식별하여(identify) 중휘도 블록과 고휘도 블록에 대하여 고휘도 블록의 바깥둘레 (periphery)를 찾아내며, 상기 찾아진 고휘도 블록들을 고휘도 블록으로 그룹 짓는다. According to a seventh aspect of the present invention, the image processing unit, it still consumes a outer circumference (periphery) of the high luminance block with respect to the luminance blocks and the high luminance block of identifying a high luminance block (identify), a high luminance of the found binary high luminance block build groups as a block.

상기 제7 관점의 발명은, 고휘도 블록을 정확하고 신속하게 추출하여 제어할 수 있다. The invention of the seventh aspect can be controlled to accurately and rapidly extract the high luminance block.

본 발명의 제8 관점에 따르면, 상기 적외광 조사수단, 촬상수단, 및 화상처리유닛은, 자동차에 설치된다. According to an eighth aspect of the invention, the infrared ray irradiation means, imaging means, and an image processing unit, it is installed in the car. 상기 적외광 조사수단은, 상기 자동차의 바깥쪽으로 적외광을 조사한다. The infrared light irradiating means, irradiates the infrared light toward the outside of the motor vehicle. 상기 촬상수단은, 상기 자동차의 바깥쪽을 촬상한다. The imaging means picks up an outside of the motor vehicle.

따라서, 예컨대 맞은편 차의 헤드라이트에 의한 헐레이션이 있어도, 상기 제8 관점의 발명은, 헐레이션 주위의 점차적으로 어두워지는 영역을 제거 또는 억제할 수 있다. Thus, for example, even if the halation caused by the headlights of the car opposite the, invention of the eighth aspect can be removed or reduced progressively darkened regions in the surrounding halation. 따라서, 상기 헐레이션 부근에 보행자 또는 장애물이 있어도, 상기 보행자 또는 장애물의 화상을 명확하게 촬상할 수 있다. Therefore, even if a pedestrian or an obstacle in the vicinity of the halation, an image of the pedestrian or the obstacle can be clearly image capture.

도 1은, 본 발명의 일실시형태에 따른 촬상시스템이 설치된 자동차의 개념도이다. 1 is a conceptual diagram of the car the imaging system according to one embodiment of the present invention is installed.

도 2는, 상기 촬상시스템의 카메라와 화상처리유닛을 나타낸 블록도이다. Figure 2 is a block diagram showing a camera and image processing unit of the imaging system.

도 3은, 본 발명의 일실시형태에 따른 노광 전환제어를 나타낸 플로우차트이다. 3 is a flowchart illustrating an exposure control switch in accordance with one embodiment of the invention.

도 4는, 단순한 제어에 따라 촬상된 화상 내의 광원을 도시한 화상도이다. 4 is a graph illustrating the light source within the image picked-up image also in accordance with the simple control.

도 5는, 도 4의 광원을 가로지르는 수평선을 따른 휘도 변화를 나타낸 그래프이다.. Figure 5 is a graph showing a change in luminance along the horizontal line crossing the light source 4 in.

도 6은, 단순한 제어에 따라 촬상된 반사물을 도시한 화상도이다. 6 is a showing a reflection image capture images also in accordance with the simple control.

도 7은, 도 6의 반사물을 가로지는 수평선에 따른 휘도 변화를 나타낸 그래프이다. 7 is a graph showing a luminance change in accordance with a horizontal line that is horizontal reflector of FIG.

도 8은, 본 발명의 일실시형태에 관한 것으로, EVEN 필드의 휘도 데이터를 몇 개의 블록으로 분할한 모식도이다. 8 is a schematic diagram relates to an aspect of the invention, dividing the intensity data of the EVEN field to the number of blocks.

도 9는, 본 발명의 일실시형태에 관한 것으로, 회색의 비율에 의한 블록 색분류를 나타내는 도표이다. Figure 9 relates to an embodiment of the invention, a chart showing the number of color blocks classified by the percentage of gray.

도 10은, 본 발명의 일실시형태에 관한 것으로, 블록 색분류를 나타내는 개념도이다. Figure 10 relates to the embodiment of the present invention, a conceptual diagram showing a block color classification.

도 11은, 본 발명의 일실시형태에 관한 것으로, 블록내 검색순서를 나타내는 개념도이다. Figure 11 relates to the embodiment of the present invention, a conceptual diagram showing a block within the search order.

도 12는, 그 바깥둘레가 검색된 밝은 광원을 포함하는 출력 화상을 나타낸 도면이다. Figure 12 is a diagram showing an output image which is the outer peripheral retrieved includes a bright light source.

도 13은, 본 발명의 일실시형태에 관한 것으로, 상기 밝은 광원의 바깥둘레가 3색으로 표시된 도12의 화상을 검사한 결과를 나타내는 화상도이다. 13 is that according to an embodiment of the present invention, an image showing a result of an outside circumference of the light source by checking the displayed image of Figure 12 with three colors.

도 14는, 본 발명의 일실시형태에 관한 것으로, 표준 블록수와 흰색 블록수 사이의 관계를 나타내고, 도 14(a)는 흰색 블록수 1개, 도 14(b)는 흰색 블록수 2개, 도14(c)는 흰색 블록수 3개를 포함한 개념도이다. Figure 14, shows the relationship between the present invention relates to an aspect of the invention, there may be a white block standard block, Fig. 14 (a) is one of the number of blocks of white, FIG. 14 (b) is a block of white 2 , Figure 14 (c) is a schematic diagram including the three blocks of white.

도 15는, 본 발명의 일실시형태에 관한 것으로, 헐레이션 검출 블록수를 나타내는 개념도이다. Figure 15 relates to the embodiment of the present invention, a conceptual diagram showing a halation can be detected block.

도 16은, 빛을 반사할 수 있는 반사물과 광원 사이를 나타낸 출력 화상을 나타내는 도면이다. 16 is a diagram showing an output image showing a between the reflector and the light source to reflect the light.

도 17은, 본 발명의 일실시형태에 관한 것으로, 도 16의 화상에 관하여 수행된 색분류의 결과를 나타내는 처리 화상도이다. 17 is that according to an embodiment of the present invention, processing the image shown by the results of the classification performed on the color image in Fig. 16 Fig.

도 18은, 본 발명의 일실시형태에 관한 것으로, EVEN 필드와 ODD 필드 사이의 노광차를 나타내는 도표이다. 18 is a chart showing the exposure difference between the present invention relates to an aspect of the invention, EVEN field and the ODD field.

도 19는, 본 발명의 일실시형태에 관한 것으로, 헐레이션 강도의 상태 천이도이다. 19 is that according to an embodiment of the present invention, a state transition of the halation intensity.

도 20은, 본 발명의 일실시형태에 관한 것으로, 목적물이 헐레이션 내에서 보이는 예의 처리 화상도이다. Figure 20 relates to the embodiment of the present invention, is an example processing target image can be seen in the halation.

도 21은, 본 발명의 일실시형태에 관한 것으로, 반사물에 관계없이 주변이 보이는 예를 나타내는 처리 화상도이다. 21 is that according to an embodiment of the present invention, image processing of an example near the visible regardless of the reflection FIG.

도 22는, 종래예에 따른 촬상시스템을 도시한 블록도이다. 22 is a block diagram showing an image pickup system according to the prior art.

도 23은, 종래예에 관한 것으로, 필드 펄스의 출력도이다. Figure 23 relates to a conventional example, the output degree of field pulses.

도 24는, 종래예에 관한 것으로, 헐레이션에 의해서 광원과 그 주변이 보이 지 않게 되는 예를 나타내는 출력 화상도이다. Figure 24 relates to a conventional example, is an output image showing an example that does not show the light source and its vicinity by the halation.

도 25는, 종래예에 관한 것으로, 헐레이션에 의해서 보이지 않게 되는 부분들을 포함한 출력 화상도이다. Figure 25 relates to a conventional example, is an output image including portions not visible by the halation.

도 26은, 종래예에 관한 것으로, 반사물과 그 주위가 보이지 않게 되는 예를 나타내는 출력 화상도이다. 26 is a block diagram that the output image of an example that is not visible reflection and its surrounding according to the prior art.

도 27도는, 다른 종래예에 관한 촬상시스템을 나타내는 블록도이다. Turn 27, a block diagram illustrating an imaging system according to another prior art.

도 28은, 도 27에 따른 종래예에 의하여 제공된 화상을 나타낸 도면이다. 28 is a diagram illustrating an image provided by the prior art according to Figure 27.

본 발명의 일실시형태에 따른 촬상시스템을 설명한다. It will be described the imaging system according to one embodiment of the present invention. 도 1은 본 발명의 일 실시형태에 따른 촬상시스템을 적용한 자동차의 개념도, 도 2는 상기 촬상시스템의 블록도, 도 3은 상기 실시형태에 따른 노광 전환제어를 나타내는 플로우차트이다. 1 is a conceptual diagram of the vehicle applying the imaging system in accordance with one embodiment of the invention, Figure 2 is a block diagram of the imaging system, Figure 3 is a flowchart showing the exposure control switch according to the embodiment.

도 1에서, 자동차(1)는 적외선을 조사하기 위한 적외선 조사수단으로서 제공되는 IR램프(3)와, 촬상수단으로서 CCD카메라(5)와, 화상처리유닛(7)과, 헤드업(head-up) 디스플레이(9)를 구비한다. 1, the automobile 1 is the IR lamps (3) is provided as an infrared irradiation unit for irradiating infrared rays, and an image pick-up means the CCD camera 5, the image processing unit 7, a head-up (head- and a up) the display (9).

상기 IR램프(3)는, 야간 또는 자동차(1)의 주위가 어두울 때에 촬상하기 위하여 자동차(1)의 주행방향의 전방으로 적외광을 조사한다. The IR lamps (3), the irradiated infrared light to the front of the traveling direction of the vehicle (1) to the image pickup, when the periphery of the night or the vehicle (1) is dark. 상기 CCD카메라(5)는, 상기 IR램프(3)로부터 발산된 적외광으로 자동차(1)의 전방을 감광요소로 찍고, 그 찍혀진 화상을 전기신호로 변환한다. The CCD camera 5 is, taking the front of the vehicle 1 with the infrared ray emitted from the IR lamps (3) to the photosensitive element, and converts the image into an electric signal jjikhyeojin. 더욱 상세하게는, 상기 CCD카메라(5) 내의 포토 다이오드(photodiode)가 화상을 전기신호로 변환한다. More specifically, there is a photodiode (photodiode) in the CCD camera 5 converts an image into an electrical signal. 상기 화상처리유닛(7)은, 상기 CCD카메라(5)의 신호축적시간을 소정의 주기에서 변화시켜, 노광량이 다른 화 상을 연속하여 주기적으로 출력한다. The image processing unit 7 is, by changing the signal storage time of the CCD camera 5 at a predetermined period, and periodically outputs to the continuous exposure to other burns.

상기 신호축적시간은, 모든 화소에 대하여 설정된다. The signal storage time is set for every pixel. 신호축적시간을 소정의 주기로 변화시킨다는 것은, 각 화소에 축적된 불필요한 전하를 방출하는 펄스의 회수를 변화시키는 것을 의미한다. It sikindaneun changing the signal storage time of a predetermined period, means for changing the number of pulse to release unnecessary charge accumulated in the pixels. 이러한 동작은 전자 셔터동작이다. This operation is an electronic shutter operation. 또한 노광량이 다른 화상을 연속하여 주기적으로 출력한다는 것은, 상기 전자 셔터동작에 의해서 ODD 필드, EVEN 필드마다 셔터 스피드를 설정하여, 각각의 셔터 스피드로 읽혀진 각 필드의 화상을 예를 들면 1/60초 간격으로 연속하여 교대로 출력하는 것을 말한다. Also the amount of exposure that periodically outputs a series of consecutive different image, by setting the shutter speed for each field, ODD, EVEN field by the electronic shutter operation, an image of each field is read to each of the shutter speed, for example, 1/60 seconds It refers to the output alternately in succession at equal intervals.

그리고, 셔터 스피드를 빠르게 한 고속셔터에서는, 어두운 부분은 비치기 어렵지만 밝은 부분은 선명히 비치고, 셔터 스피드를 늦게 한 저속셔터에서는, 밝은 부분은 포화되어 날아가 버리고 어두운 부분이 선명하게 비치게 된다. And the faster the shutter speed to a high-speed shutter, brighter difficult part bichigi dark areas are clearly reflected, in a slow shutter speed to slow shutter speed, bright areas are furnished it blew away the saturated dark areas clearer.

상기 화상처리유닛(7)은, 제1 화상으로부터, 바깥둘레에 중휘도를 가지는 고휘도 블록을 추출하여, 상기 중휘도의 정도에 따라서 제2 화상의 신호축적시간을 제어한다. The image processing unit 7, from the first image to extract a high luminance block with the luminance of a peripheral, and controls the signal storage time of the second image according to the degree of the brightness.

도 2에서, 상기 CCD카메라(5) 및 화상처리유닛(7)은, CCD(5a), AFE(Analog Front End;11), DSP(13), RAM(15), CPU(17) 등을 구비하고 있다. In Figure 2, the CCD camera 5 and the image processing unit 7, CCD (5a), AFE; having a (Analog Front End 11), DSP (13), RAM (15), CPU (17) etc. and.

상기 CCD카메라(5)는, 상기 CCD(5a), AFE(11), DSP(13), 및 CPU(17)의 일부를 포함하고 있다. The CCD camera 5, and includes a portion of the CCD (5a), AFE (11), DSP (13), and CPU (17). 상기 화상처리유닛(7)은, DSP(13)의 일부, RAM(15), CPU(17)를 포함하고 있다. The image processing unit 7, and includes a portion of the DSP (13), RAM (15), CPU (17).

상기 AFE(11)는, 상기 CCD(5a)의 출력신호를 증폭하여, 그 증폭된 신호를 디 지털 신호로 변환한다. The AFE (11) is, by amplifying the output signal of the CCD (5a), and converts the amplified signal into a digital signal.

상기 DSP(13)는, 디지털 신호처리부이고, 상기 CCD(5a), AFE(11) 작동을 위한 타이밍 신호를 생성하고, 신호변환, 비디오 신호생성, AFE(11)를 통한 CCD(5a)로부터의 신호의 γ변환, 인핸서처리(enhancement), 디지털신호 증폭처리 등을 행한다. Wherein the DSP (13) is, from the digital signal processor, and wherein the CCD (5a), AFE (11) generates a timing signal for operation and signal conversion, a video signal generation, CCD (5a) through the AFE (11) It is carried out, such as γ conversion of the signal, the enhancer treatment (enhancement), digital signal amplification.

상기 RAM(15)은, 메모리이고, 상기 DSP(13)로부터 출력된 EVEN 필드화상의 휘도(=농도) 데이터를 일시 저장한다. Wherein the RAM (15) comprises: a memory, and temporarily stores the luminance (= concentration) data of EVEN field image outputted from the DSP (13).

상기 CPU(17)는, 각종 연산을 행하는 동시에, 도 22에서 설명한 것과 동일한 구성에 의해서 ODD 필드, EVEN 필드마다의 셔터 스피드를 제어한다. And the CPU (17) controls the shutter speed for each field, ODD, EVEN field by the same configuration as that described in, at the same time for performing various operations, and 22. 즉 EVEN 필드에 대해서는, 상기 CPU(17)는 EVEN 필드의 평균 휘도에 따라 최적인 노광 조건을 산출하고, 그 산출된 조건에 따라 상기 AFE(11)에 대한 증폭 제어 및 CCD(5a)에 대한 전자 셔터 동작 제어를 행한다. That is for the EVEN field, the CPU (17) is EVEN calculating the optimal exposure conditions in accordance with the average brightness of the field, and e for the amplification control and CCD (5a) to the AFE (11) according to the calculated conditions It performs a shutter operation control.

도 2의 촬상시스템의 작용을 설명한다. It will be described the operation of the imaging system of FIG.

우선, 상기 CPU(17)는 초기 셔터 스피드를 설정하고 상기 DSP(13)에 ODD 필드측의 셔터 스피드 컨트롤신호 및 EVEN 필드측의 셔터 스피드 컨트롤신호를 출력한다. First, the CPU (17) sets the initial shutter speed and outputting the shutter speed control signal of the shutter speed control signal and EVEN field side on the side of the ODD field to the DSP (13).

상기 DSP(13)에서는, CCD(5a), AFE(11) 작동을 위한 타이밍신호가 생성된다. In the DSP (13), the timing signals for the CCD (5a), AFE (11) operation is generated. 이 타이밍신호에 기초하여, CCD(5a)에 의한 촬상이 행하여지고, 상기 CCD(5a)의 전체 화소의 포토 다이오드는 신호전하를 축적한다. On the basis of this timing signal, the imaging is performed by a CCD (5a), the photodiodes of all the pixels of the CCD (5a) accumulates the signal charges. 수직방향으로 EVEN 필드의 중간에 교대로 배치된 ODD 필드측에서는, 수직방향으로 매 홀수번째의 포토 다이오드 (화소)의 신호 전하가 설정된 셔터 스피드로 읽혀진다. The side of the ODD field is arranged in the vertical direction alternately in the middle of the EVEN field, is read by the shutter speed is a signal charge of each odd-numbered photodiodes (pixels) is set in the vertical direction. EVEN 필드측에서는, 수직방향으로 매 짝수번째의 포토 다이오드(화소)의 신호전하가 설정된 셔터 스피드로 읽혀진다. Side EVEN field, is read by the shutter speed is a signal charge of each even-numbered photodiodes (pixels) is set in the vertical direction.

상기 CCD(5a)에서 읽혀진 신호 전하는 AFE(11)에서 증폭됨과 동시에 디지털 신호로 변환되어, DSP(13)로 제공된다. Soon as the signal amplified by the AFE (11) charges read from the CCD (5a) is at the same time converted to a digital signal, is provided to the DSP (13). DSP(13)에서는, 제공된 신호의 신호변환, 비디오 신호생성, γ변환, 인핸서 처리, 디지털신호 증폭처리 등이 수행된다. The like in the DSP (13), the signal conversion, a video signal generated in the signal provided, γ conversion, enhancers processing, digital signal amplification process is performed.

상기 DSP(13)로부터 출력된 EVEN 필드 화상의 휘도 데이터는, RAM(15)에 일시 저장된다. Brightness data of the EVEN field image outputted from the DSP (13) is stored temporarily in the RAM (15).

상기 CPU(17)는, EVEN 필드에 대해서, 평균농도로부터 최적인 노광조건을 산출하고, 그 산출된 조건에 따라 DSP(13)를 통하여 CCD(5a)에 대한 전자셔터의 제어를 행한다. The CPU (17) is, for the EVEN field, of calculating the optimal exposure conditions from the average concentration, through the DSP (13) in accordance with the calculated conditions, and controls the electronic shutter of the CCD (5a).

상기 CPU(17)는, ODD 필드에 대해서, 도 3의 플로우차트에 도시된 노광 전환제어에 의해 노광조건을 산출한다. And the CPU (17) is calculating the exposure conditions by the exposure switching control shown in the flowchart of Figure 3 for the ODD field.

도 3의 노광 전환제어의 스텝 S1에서는, EVEN 필드 블록단위의 휘도 데이터 를 꺼내온다. In step S1 of the exposure control of the switch 3, it comes out the luminance data of the EVEN field blocks. 더욱 상세하게는, 스텝 S1은 상기 RAM(15)에 저장된 EVEN 필드의 휘도데이터를 몇 개의 블록으로 분할하고 각 블록의 평균휘도를 산출한다. More specifically, step S1 divides the luminance data of the EVEN field is stored in the RAM (15) into a number of blocks and calculating an average luminance of each block.

스텝 S2에서는, '블록단위 3치화 데이터(three-valued date) 변환'의 처리가 실행된다. In step S2, the processing of "block unit of 3-value conversion data (three-valued date) conversion" is executed. 이 스텝은 두 개의 역치(threshold)를 이용하여 스텝 S1에서 제공된 각 블록의 평균 휘도를 3치화 데이터로 변환한다. This step converts the average brightness of each block supplied in step S1 using the two threshold values ​​(threshold) to the 3-value conversion data.

스텝 S3에서는, '고휘도 블록검출'의 처리가 실행된다. In step S3, the processing of "high luminance block detection" is carried out. 이 스텝에서는, 상 기 각 블록의 3치화 데이터를 검사하여 고휘도 블록의 덩어리(mass)를 검출한다. In this step, by examining the three-valued data of each block the group detects a lump (mass) of the high luminance block.

스텝 S4에서는, '고휘도 블록그룹화'의 처리가 실행된다. In step S4, the processing of the "group high luminance block ', are executed. 이 스텝에서는, 인접하는 고휘도 블록이 결합(그룹화)되어 각 그룹의 크기로서 각 그룹의 블록수가 검출된다. In this step, the high-luminance blocks adjacent the bond (group) that is detected the number of blocks of each group as the size of each group.

스텝 S5에서는, '중휘도 블록검출'의 처리가 실행된다. In step S5, the processing of "block of the luminance detection" is carried out. 이 스텝에서는, 상기 고휘도 블록 그룹 주위의 중휘도 블록의 그룹이 검출된다. In this step, a group of luminance blocks of the block group around the high luminance is detected.

스텝 S6에서는, 상기 고휘도 그룹의 크기와 중휘도 그룹의 크기, 또는 중휘도 그룹의 크기 만으로부터 '헐레이션 레벨계산'의 처리가 실행된다. In step S6, the processing of the "halation level calculation" is performed from only the size of the high luminance and the size of the group size of the group of luminance, or brightness of the group. 이 스텝에서는, EVEN 필드내에서 최대의 헐레이션 레벨(강도)이 검출된다. In this step, the maximum of the halation level (intensity) is detected in the EVEN field.

스텝 S7에서는, ODD 필드에 대한 노광목표치를 결정한다. In step S7, it determines the exposure target value for the ODD field. 이 스텝에서는, 상기 EVEN 필드의 헐레이션 레벨에 따라 ODD 필드의 노광량을 산출한다. At this step, and calculates the amount of exposure of the ODD field in accordance with the halation level of the EVEN field. 이 후에, 다음의 EVEN 필드의 처리로 이행된다. After this, the processing shifts to the next of the EVEN field.

도 3의 스텝들을 통하여 산출된 노광조건에 따라, CCD(5a)의 전자셔터(1), AFE(11)의 AGC 게인(gain), DSP(13)의 디지털 게인 등이 제어되어 얻을 수 있는 영상의 밝기를 최적화한다. In accordance with the exposure conditions computed by the step of FIG. 3, CCD (5a) an electronic shutter (1), and digital gain, such as an image that can be obtained is the control of the AGC gain (gain), DSP (13) of the AFE (11) of for optimizing the brightness.

한편, 상기 스텝 S2에서의 3치화 데이터 산출은 블록의 평균 휘도 대신에, 소정 블록내에서 가장 대부분을 차지하는 화소의 속성(屬性)에 기초할 수도 있다. On the other hand, three-valued data calculated in the step S2 may be in place of the average luminance of the block, based on the attribute of the pixel (屬性), which accounts for the majority in the predetermined block.

도 1의 CCD카메라(5)가 예를 들면 맞은편 차의 헤드라이트와 같은 강한 빛을 받았을 때, 상술한 제어는 헤드라이트 주변의 어두운 부분의 영상의 밝기를 떨어뜨리는 일 없이 강한 빛의 영향을 억제할 수 있다. FIG CCD camera 5 of monovalent, for example when it receives a strong light, such as the opposite car headlight, the above-described control is the effect of the strong light, without degrading the image brightness in the dark areas surrounding the headlight It can be suppressed.

자동차용으로서 사용되는 촬상시스템의 CCD카메라는, 영상방식으로서 인터레이스 방식(interlace method)을 채용하는 것이 일반적이다. Of the imaging system is used as the CCD camera for car, it is common to an imaging method employing the interlaced scanning mode (interlace method). 상기 인터레이스 방식은 EVEN 필드와 ODD 필드의 2개의 필드로 이루어지고, 2개의 필드가 시간적으로 교대로 출력되는 것에 의해서, 보는 사람의 눈에 일정한 해상도를 가진 영상으로서 비친다. The interlace method is EVEN field and made of two fields of the ODD field, the two fields by being output to temporally shift, see mirrored as an image with a constant resolution in the human eye.

상기 통상의 CCD카메라는, EVEN 필드 또는 ODD 필드의 평균 휘도로부터 노광조건을 계산한다. The conventional CCD camera, and calculates the exposure condition from the EVEN field, or an average luminance of the ODD field. 상기 노광조건은, CCD의 전자 셔터 스피드, AFE에서의 증폭율(amplication factor;AGC 게인), 및 DSP의 디지털 증폭율을 결정하는 것에 의하여 최적인 밝기의 영상을 모니터 상에 출력할 수 있다. The exposure conditions, the electronic shutter speed of the CCD, the amplifying ratio of the AFE; may output an image of the optimal brightness on the monitor, by what (amplication factor AGC gain), and determines the amplification factor of the digital DSP.

일반적인 CCD카메라는, 상기 계산된 노광조건이 EVEN 필드/ODD 필드의 어느 것에도 적용되어, 결과적으로 양 필드는 동일한 정도의 밝기를 가진 영상이 출력되게 된다. Typical CCD camera, is the calculated exposure conditions is also applicable to any of the EVEN field / ODD field, and as a result the amount field is presented the image with the brightness of the same level of output. 야간에 접근하는 맞은편 차의 헤드라이트와 같이 강한 광원이 있을 때, 상기 통상의 기술에서는 전체 휘도 평균치에 따라 노광조건이 결정된다. When there is a strong light source, such as the right of access to the deviation headlights at night, in the above conventional techniques, the exposure condition is determined according to the total brightness average value. 결과적으로, 상기 통상의 기술에서는 강한 광원과 그 주변이 하얗게 포화된 영상으로서 출력되는 것이 많다(이른바 헐레이션). As a result, in the above conventional technique in many cases to be output as a strong light source, and around a saturation image turned white (the so-called halation).

헐레이션의 예는 도 4에 나타나 있다. Examples of halation is shown in Fig. 상기 도면에서, 강한 광원과 그 주위가 하얗게 포화되고, 그 포화된 부분이 방사적으로 산란되고 있다. In the figure, a strong light source and the surrounding turned white and saturation, and that the saturation portion is scattered radially. 도 5는 도 4의 강한 광원을 가로지르는 라인을 따른 휘도 레벨을 나타내는 그래프이다. 5 is a graph showing the brightness levels along a line transverse to the strong light source of FIG. 도 5에서, 상기 강한 광원과 그 주위는 최대 휘도로 포화되고, 그 휘도는 상기 강한 광원으로부터 멀어질수록 점차적으로 감소한다. In Figure 5, the strong light source, and its surrounding is saturated to the maximum luminance, the luminance is reduced to the farther from the light source gradually stronger.

만약 보행자가 상기 포화 영역에 존재한다면, 상기 CCD카메라가 보행자의 영상을 파악하는 것은 불가능하다. If a pedestrian is present in the saturated region, it is not possible to the CCD camera to determine the image of the pedestrian. 상기 강한 광원의 중심은 하얗게 포화된다 할지라도, 그 주위 또는 상기 헤드라이트의 사이는 상기 보행자의 영상을 촬상 할 수 있도록 포화되지 않아야 한다. The center of the strong light source is a white and is even saturated, around or between the headlights are not to be saturated to sensing the image of the pedestrian.

도 6은 반사물이 촬상된 일례를 도시한 것이다. 6 illustrates an exemplary image capture is a reflective object. 상기 도 6에서 반사물은 헤드라이트로부터의 빛을 반사하는 광고판, 도로 표지, 간판 등이다. FIG 6 is a reflection billboard for reflecting light from headlamps, road signs, billboards and the like. 도 7은 도 6의 반사물을 가로지는 선을 따른 휘도 레벨을 나타내는 그래프이다. Figure 7 is a graph showing the brightness levels along the line which cross the reflector of FIG. 도 7에서, 상기 반사물은 하얗게 포화되어 있다. In Figure 7, the reflection is saturated white. 그러나, 반사물 주위는 헐레이션이 없다. However, around the reflection is no halation. 즉, 도 7의 휘도 곡선은 반사물의 피크로부터 급격하게 저하한다. That is, the luminance curve of Figure 7 is reduced abruptly from the peak reflection water. 상기 반사물의 근처에 보행자가 있다면, 그 보행자를 명확하게 영상으로서 파악할 수 있다. If there is a pedestrian in the vicinity of the reflection of water, it is possible to clearly grasp a video the pedestrian. 이 경우, 헐레이션에 대한 대책을 취할 필요가 없다. In this case, it is necessary to take measures against halation. 즉, EVEN 필드의 노광량보다 ODD 필드의 노광량을 억제할 필요는 없다. That is, it is not more than an exposure amount in the EVEN field is necessary to suppress the amount of exposure of the ODD field. 오히려 야간에 피사체의 광량이 작은 것을 생각하면, ODD 필드도 EVEN 필드와 같이, 충분히 노광량을 확보하는 것이, 보행자와 같은 목적물을 쉽게 인식하는데 바람직할 것이다. When rather thought that a small amount of light of the subject during the night, ODD field as shown in FIG. EVEN field, it would be enough to ensure the exposure amount, desirable to easily recognize the target substance, such as a pedestrian.

본 발명에 따르면, 각 EVEN 필드는, 상기 도 3의 플로우차트에 따라 처리되어 헐레이션을 검출하고 본 발명의 기술적사상에 따라 최적노광조건을 검출하여 야간의 어두운 목적물을 더 밝게 출력하도록 한다. According to the invention, each of EVEN field, upper and processed according to the flow chart of the third detecting halation detects the optimal exposure conditions in accordance with the technical features of the present invention will be more brightly output to the desired product of a dark night. 각 ODD 필드에 대해서는, 이전의 EVEN 필드에서 얻어진 휘도 데이터를 기초로 노광차를 설정하여, 강한 빛에 의한 영향을 최소화한 영상을 나타내도록 한다. For each ODD field, by setting the exposure order on the basis of the luminance data obtained in the previous EVEN field, to indicate that minimizes the effect of the strong light image.

이러한 다른 특징을 가진 ODD 필드와 EVEN 필드의 화상을 합성하는 것에 의 해, 본 발명은 야간에 강한 빛을 받아도, 헐레이션을 일으키는 일 없이, 또한 강한 빛의 주변부를 밝게 유지하여 각 목적물이 명확하게 보여지는 화상을 출력할 수 있다. Solution of that of synthesizing the image of the ODD field and the EVEN field, with this further aspect, the present invention, each object to be clear and even if a strong light in the night, without causing halation and also keep bright the peripheral portion of strong light the shown image can be output.

여기서, EVEN 필드의 휘도 데이터로부터 헐레이션 레벨을 검출하고, 그 헐레이션 레벨에 따라 노광조건을 산출하여, 그 산출결과를 출력할 때까지의 일련의 처리를 상세하게 설명한다. Here, the halation detection level from the luminance data of the EVEN field, and to calculate the exposure condition according to the halation level, will be described in detail the sequence of processing until the output of the calculation result.

EVEN 필드의 블록분류를 설명하기로 한다. It will be described in the block of classification EVEN field. 이 과정은 도 3의 스텝 S1에서 실행된다. This process is executed in step S1 of Fig. 상기 EVEN 필드의 휘도 데이터는 상기 DSP(13)로부터 꺼내어져 RAM(15)에 저장된다. Brightness data of the EVEN field is taken out from the DSP (13) is stored in the RAM (15). 상기 휘도 데이터는, 예컨대 512도트×240라인으로 구성된다. The luminance data is, for example, is composed of 512 dots × 240 lines. 이 데이터는 도 8에 도시된 바와 같이, 각 블록이 8도트×4라인을 가지는 예컨대 64×60블록으로 분할된다. This data is divided into, for example, each 64 × 60 block is a block having an 8 × 4 dot line as shown in Fig.

이후, 각 블록의 휘도 데이터의 평균치가 산출된다. Then, the average value of the luminance data of each block is calculated. 즉, 각 블록의 모든 화소(8×4화소)의 화소치의 평균이 산출된다. That is, the average of pixel values ​​are calculated for all the pixels (8 × 4 pixels) in each block. 이 산출은 도 3의 스텝 S1에서 실행된다. This calculation is executed in step S1 of Fig.

이후, 각 블록의 휘도 평균치는 두 개의 역치를 사용하여 3치화 데이터로 변환된다. Then, the luminance average value of each block by using two threshold values ​​and is converted into three-valued data. 이 변환은 상기 도 3의 스텝 S2에서 실행된다. This conversion is performed in step S2 in FIG. 3. 각 휘도치는 예를 들면, 8비트로 표현된다. , For each brightness value for example, it is represented by 8 bits. 이 경우, 최저 휘도가 0, 최고 휘도가 255이다. In this case, the lowest luminance is 0, the maximum luminance of 255. 예컨대, 흰색 역치를 220(이상), 검은색 역치를 150(이하)으로 하고, 그 중간을 회색으로서 설정한다. For example, the white threshold at 220 (above) and 150 (below) a black threshold value, and sets the intermediate as a gray. 각 블록은 그 평균 휘도에 따라 다음과 같이 분류된다: Each block is classified according to the average luminance:

· 평균 휘도≥흰색 역치일 때, 흰색; When the average luminance, white ≥ threshold, white; 또는 or

· 흰색 역치>평균 휘도≥검은색 역치일 때, 회색; When the white-threshold> average brightness threshold ≥ black and gray; 또는 or

· 평균 휘도<검은색 역치일 때, 검은색. · When the average luminance <Threshold black, black.

두 개의 역치를 사용하여 각 블록의 휘도 평균치를 3치 데이터로 변환하는 대신에, 동일한 역치를 사용하여 각 블록의 각 화소를 3치 데이터로 변환하여, 흰색(고휘도) 화소, 회색(중휘도) 화소, 검은색(저휘도) 화소의 수들을 계산하고, 최대수의 화소의 색깔을 그 블록에 대하여 지정할 수 있다. By using two threshold values, instead of converting a 3-value data the luminance average value of each block, using the same threshold value and converts each pixel of each block to the 3-value data, a white (high-luminance) pixels and gray (of brightness) pixel, calculating a black (low brightness) number of pixels, and may specify the color of the maximum number of pixels for that block.

도 9는 3치화 데이터가 제공된 화소에 기초한 분류를 나타낸 일례이다. Figure 9 is an example showing a classification based on the pixel-value conversion data 3 is provided. 소정 블록 내의 각 화소는 회색 화소의 수에 따라 흰색, 회색 및 검은색으로 분류된다. The pixels of a given block is based on the number of gray pixels is classified as white, gray and black. 상기 블록의 회색화소의 비율이 50% 이상일 때, 그 블록은 회색으로 분류된다. When the ratio of the gray pixels of the block is more than 50%, the block is classified as gray. 회색 화소의 비율이 50% 미만인 경우는, 흰색 또는 검은색으로 분류된다. When the proportion of the gray pixels of less than 50% are classified as white or black. 도 10에서는, 32 (8×4) 화소를 가지는 블록의 일례를 나타낸다. In Figure 10, it shows an example of a block having the 32 (8 × 4) pixels. 이 블록의 회색 회소의 비율은 50% 이상이므로, 상기 블록은 회색으로 분류된다. Since gray times bovine ratio of the block is more than 50%, the block is classified as gray.

필드를 블록으로 나누는 대신에, 각 화소는 헐레이션 검출 및 노광량 계산을 위하여 연구될 수 있다. Instead of dividing the field into blocks, each pixel may be to study the halation detection and exposure calculation.

각 블록을 3치화 데이터로 변환한 후에, 그룹처리가 도 3의 스탭 S4에서 행해진다. Each block after it has been converted into three-valued data, the processing is performed in the group staff S4 of Fig. 그룹처리는, 흰색(고휘도) 블록의 덩어리(mass)를 검출한다. Group processing, white (high brightness), and detects a mass (mass) of the block.

도 8에서, 상기 블록은 제1 블록(0,0)으로부터 최종 블록(63,59)까지 검사하여 첫번째 라인으로부터 순차적으로 흰색 블록을 찾는다. In Figure 8, the block looks for the white blocks in order from the first line to scan from the first block (0, 0) to a final block (63,59). 각 라인에서, 상기 검사는 도 8의 왼쪽 블록으로부터 오른쪽 블록을 향하여 수행된다. In each line, the check is performed toward the right block from the left block of FIG.

하나의 흰색 블록이 찾아지면, 도 11에 도시된 바와 같이 그 발견된 흰색 블 록의 주위 8블록에 대해서 흰색 블록이 있는지 체크된다. Once found a single white block, it is checked if there is a white block with respect to the eight block the periphery of the detected white blocks as shown in Fig. 도 11에서, 상기 체크는 왼쪽 블록 "1"로부터 시계방향으로 더 낮은 왼쪽 블록 "8"을 향하여 수행된다. In Figure 11, the check is performed toward the lower left block in the clockwise direction "8" from the left side of the block "1". 발견된 흰색 블록들은 연속적으로 연결되어 흰색 블록의 그룹을 형성한다. Found white blocks are connected in series to form a group of the white block.

도 12는 그 둘레가 조사(照射)된 강한 광원을 포함하는 출력 화상도이고, 도 13은 상술한 스텝 S1~S4를 통하여 처리된 화상을 나타낸 것이다. 12 is an output image also including a strong light source, that the circumference of irradiation (照射), FIG. 13 shows the processing by the above-mentioned Step S1 ~ S4 image. 도 12의 강한 광원은 헤드라이트로부터 나온 것이다. Strong light source of Figure 12 is emitted from the headlamps. 도 13에서, 도 12의 강한 광원은 연속적인 회색 블록으로 둘러싸여 있다. 13, the strong light source of Figure 12 is enclosed in a continuous gray blocks. 회색 블록 경계 내부에는, 단지 흰색 블록들만 있으며, 이것이 1개의 그룹을 형성한다. Inside the gray block boundary only, and only the white block, which form one group.

이후, 상기 도 3의 스텝 S5에서 헐레이션이 검출된다. After that, the halation is detected in step S5 of Fig. 헐레이션은 강한 빛 때문에 포화된 중심부를 포함하며, 그 주위는 점차 어두어진다. Halation comprises a saturated center due to strong light, that is around eojinda increasingly dark. 상기 헐레이션의 중심은 흰색 블록의 그룹이고, 그 주위는 회색 블록이 형성된다. The center of the halation is a group of white blocks, that is around the gray block is formed.

헐레이션을 탐지하기 위하여, 흰색 블록의 일 그룹 주위의 회색 블록이 탐지되고, 상기 회색 블록의 수를 센다. In order to detect the halation, the il gray blocks surrounding a group of white blocks are detected, count the number of the gray block.

도 14는 주위에 회색 블록들을 구비한 한 그룹의 횐색 블록을 가지는 헐레이션의 이상적인 또는 전형적인 예를 나타낸다. 14 shows a typical example of an ideal or halation having hoensaek block diagram of a group having a gray block around. 도 14(a)의 헐레이션의 예에서, 하나의 흰색 블록 그룹은 하나의 흰색 블록과 주위의 8개의 회색 블록으로 구성된다. In Figure 14 (a) Examples of the halation, it is a white block group is composed of 8 gray block of a white block and the surrounding. 도 14(b)의 헐레이션의 예에서, 하나의 흰색 블록 그룹은 두 개의 흰색 블록과 주위의 10개의 회색 블록으로 구성된다. In view of the halation of the 14 (b) for example, is a white block group is composed of two white block and the 10 gray blocks around. 도 14(c)의 헐레이션의 예에서, 하나의 흰색 블록 그룹은 세 개의 흰색 블록과 주위의 12개의 회색 블록으로 구성된다. In the halation of Figure 14 (c) for example, is a white block group is composed of three white block and the 12 gray blocks around. 이러한 회색 블록수는, 후술하는 제2 계산방법에 따라 헐레이션 레벨을 계산할 때의 표준 블록수수(reference block number)로서 제공된다. Such a gray block, is provided as a standard block transfer of when the halation level calculated (block reference number) in accordance with the second calculation method will be described later.

헐레이션 레벨은, 상기 도 3의 스텝 S6에서 흰색 블록의 그룹과 그 주변의 회색 블록을 기초로 계산된다. Halation level is calculated in the step S6 of FIG. 3 based on the group and its adjacent gray blocks in the white block.

헐레이션 레벨을 계산하는 첫번째 방법은, 흰색 블록 그룹 중에서, 하나의 흰색 블록 그룹 주위의 최대 회색 블록 수를 찾아내고, 그 최대수를 헐레이션 레벨로 결정하는 방법이다. The first method of calculating the halation level, in white block group, to find one of the white blocks the maximum gray blocks around the group, the method of determining the maximum number of levels to halation.

헐레이션 레벨을 계산하는 두번째 방법은, 소정의 흰색 블록 그룹의 크기와 그 그룹의 헐레이션 확률을 조사(examine)하는 방법이다. The second method of calculating the halation level is a method of irradiating (examine) the predetermined white block group size and halation probability of that group.

상기 첫번째 방법을 설명한다. It will be described the first method.

첫번째 방법은 각 흰색 블록 그룹(광원 표본) 주위의 회색블록의 수를 센다. The first method is to count the number of the gray block from the periphery of each white block group (light source sample). 세어진 회색ㅂ 블록의 수 중에서, 최대의 수가 헐레이션 레벨로서 선택된다. Among the number of years eojin f gray block, the maximum number is selected as the halation level.

헐레이션 레벨 = 1 화상에서 흰색 블록 그룹 주위의 회색 블록의 최대수 Halation level = 1 white image block group, the maximum number of gray blocks in the surrounding

도 15는, 하나의 흰색 블록을 가지는 흰색 블록 그룹의 일례를 나타낸 것이다. Figure 15, shows an example of a white block group having a single white block. 이 예에서, 상기 흰색 블록 그룹 주위의 회색 블록의 수는 7이고, 따라서 헐레이션 레벨은 7이다. In this example, the number of gray blocks around the white block group is 7, and thus halation level 7.

도 16은 반사물과 헐레이션을 가지는 광원을 포함하는 최초 화상을 나타낸것이다. Figure 16 shows the first image including a light source having a reflector and halation. 도 17은, 도 16의 화상으로부터 만들어진 3치화 데이터로 블록을 구성한 처리화상을 나타낸 것이다. 17 is a diagram illustrating a process to configure the image block with the three-value conversion data created from the 16 images. 도 17의 화상은 많은 흰색블록과 흰색블록 그룹을 포함한다. The image of Figure 17 includes a number of the white block and white block group. 긱 흰색블록들과 흰색 블록 그룹들은 주위의 회색블록의 수를 결정하기 위하여 검사되며, 회색블록의 최대수가 헐레이션 레벨로서 선택된다. Gig the white block and white block group is examined to determine the number of gray blocks around, up to the number of the gray block is selected as the halation level.

첫번째 방법에 따르면, 도 17의 화상은 다음과 같이 분석된다: According to the first method, the image in Figure 17 is analyzed as follows:

· 상기 화상 위쪽 중앙부의 큰 간판 주변의 회색 블록수 0개 , A gray block of a large signboard around the upper central portion of the image 0

· 상기 화상의 왼쪽 부분의 작은 간판 주변의 회색 블록수 0개 , A gray block of shingle around the left portion of the image 0

· 상기 화상 중앙의 전방 자동차 미등(taillight) 주변의 회색 블록수 2개 , The gray image can block near the front car rear lights (taillight) of the middle two

· 상기 화상의 위쪽 오른쪽의 가로등 주변의 회색 블록수 4개 4, a gray block of a street lamp near the top right corner of the image

· 상기 화상의 아래 오른쪽의 맞은편 차 헤드라이트 주변의 회색 블록수 32개 , It is opposite the primary gray block of the headlight surrounding the lower right of the image 32

결과적으로, 32가 도 17의 화상의 회색 블록의 최대수이고, 따라서 그 값이 헐레이션 레벨로 선택된다. As a result, the 32 is maximum number of gray of the image block of Figure 17, so that its value is selected as the halation level.

그 크기와 흰색 블록 그룹의 확률에 따라 헐레이션 레벨을 계산하는 두번째 방법을 설명한다. According to its size and the probability of a white block group will be described the second method for calculating the halation level.

소정의 흰색 블록 그룹 주위의 회색 블록의 수가 실제로 세어진다. The number of gray blocks surrounding a given block group is white actually counted. 흰색 블록 그룹 내 흰색 블록의 수가 세어지고, 이 숫자에 따라, 회색 블록의 표준수(도 14)가 계산된다. White block group is counted in the number of white blocks, and calculating a standard number (FIG. 14) of gray blocks according to the number. 상기 실제로 계산된 회색 블록수와, 회색 블록의 표준수에 따라, 상기 흰색 블록 그룹의 헐레이션 레벨을 다음과 같이 계산한다: Depending on the actual number of gray calculation block and the number of gray blocks standard, calculated as the halation level of the white block and the following group:

헐레이션 확률(%) Halation probability (%)

= ( 회색 블록의 실제 수/회색 블록의 표준 블록수) × 100 = (Number of standard block of the block physical number of gray / gray blocks of) × 100

상기 헐레이션 확률에, 흰색 블록 그룹의 흰색 블록의 수를 곱한 수치를 그 흰색 블록 그룹의 헐레이션 레벨로 제공한다. The Probability halation, and provides a value obtained by multiplying the number of the white blocks of the block group, halation white level of the white block group.

상기 도 17의 화상은 다음과 같이 분석된다: The image in Figure 17 is analyzed as follows:

· 큰 간판의 헐레이션 레벨 (0/26)×100×21=0 · A large signboard halation level (0/26) × 100 × 21 = 0

· 작은 간판의 헐레이션 레벨 (0/26)×100×7=0 · The shingle halation level (0/26) × 100 × 7 = 0

· 상기 미등의 헐레이션 레벨 (2/8)×100×1=25 , Halation of the tail light level (2/8) × 100 × 1 = 25

· 가로등의 헐레이션 레벨 (4/18)×100×8=178 · Halation level (4/18) × 100 × 8 = 178 of the streetlight

· 헤드라이트의 헐레이션 레벨 (32/37)×100×43=3718 , The headlight halation level (32/37) × 100 × 43 = 3718

상기 헐레이션 레벨 중 최대치는 도 17의 화상의 헐레이션 레벨로서 선택된다. The halation level of the maximum value is selected as the halation level of the image of Fig.

즉, 맞은편 차의 헤드라이트 주변의 3718의 헐레이션 레벨이 도 17의 화상의 헐레이션 레벨로서 선택된다. That is, opposite the head halation level of light around 3718 of the car is selected as the halation level of the image of Fig.

이후, ODD 필드에 대한 노광조건이 도 3의 스텝 S7에서 결정된다. Thereafter, the exposure conditions for the ODD field is determined at step S7 of FIG.

상술한 바와 같이 결정된 EVEN 필드의 헐레이션 레벨에 따라서, 상기 EVEN 필드와 ODD 필드 사이의 노광차가 예컨대 도 18에 도시된 표로 구해진다. Therefore, the halation level of the EVEN field is determined as described above is obtained the exposure difference between the EVEN field and the ODD field, for example, the table shown in Fig. 상기 노광차에 따라서, ODD필드에 대한 노광조건이 헐레이션을 억제하기 위하여 결정된다. Therefore, the difference in the exposure, the exposure conditions for the ODD field is determined in order to suppress the halation.

상기 첫번째 방법에 따라 얻어진 헐레이션 레벨이 도 18의 STEP 0(0∼5)의 범위일 때 상기 노광차는 0dB이고, 상기 헐레이션 레벨이 STEP 6(31∼35)의 범위일 때 상기 노광차는 -12dB이 된다. When the range of STEP 0 (0~5) of this halation level obtained according to the first method 18, and the exposure difference 0dB, the halation level is the exposure time in the range of STEP 6 (31~35) car - this is 12dB. 상기 두번째 방법에 따라 얻어진 헐레이션 레벨이 STEP 0(0∼500)의 범위일 때 상기 노광차는 0dB이고, 상기 헐레이션 레벨이 STEP 6(3001∼3500)의 범위일 때 상기 노광차는 -12dB가 된다. When the halation level obtained according to the second method in the range of STEP 0 (0~500) and the exposure difference 0dB, that the halation becomes a level difference between the exposure time in the range of -12dB STEP 6 (3001~3500) .

상기 헐레이션 레벨이 STEP 0의 범위이면, EVEN 필드와 ODD 필드의 노광차는 없지만, 헐레이션 레벨이 STEP 6의 범위이면 ODD 필드의 노광량이 EVEN 필드의 노 광량보다 12dB 정도 작게 설정된다. When the halation level is in the range of STEP 0, but the difference of exposure EVEN field and the ODD field, when the halation level range of STEP 6 the amount of exposure of the ODD field is set to be smaller than approximately 12dB no-light amount of the EVEN field.

이런 식으로, 소정의 EVEN 필드의 헐레이션 레벨이 STEP O ~ STEP 10 중 하나로 분류되고, 대응하는 ODD 필드의 노광량은 도 18의 최우측 칼럼에 대응되게 표시된 노광차와 같이 감소한다. In this way, a predetermined halation level of the EVEN field is classified into one of O ~ STEP STEP 10, corresponds to an exposure amount in the ODD field is decreased as the exposure difference is displayed to correspond to the right-most column of Fig.

상술한 바와 같이, 본 발명은 헐레이션의 레벨에 따른 이중 노광제어를 수행하여, 야간과 같이 어두운 환경하에 접근하는 자동차의 헤드라이트와 같이 강한 광원이 있어도, 헐레이션을 일으키지 않고, 어두운 부분을 보다 밝고, 과도하게 밝은부분을 보다 어둡게 하여 보여지도록 할 수 있다. As described above, the present invention performs a double exposure control according to the level of the halation, even if a strong light source such as headlight of the vehicle to approach under a dark environment such as at night, without causing halation, than the dark areas bright, can be shown to excessively darker than the bright portion.

실제로는, 화상 사이의 휘도 변화에 기인하여 자동차 운전자에게 발생하는 위화감을 최소화할 필요가 있다. In practice, it is necessary due to a change in luminance between the image to minimize the discomfort caused to motorists. 이를 위하여 도 19에 도시된 바와 같이, 강한 빛을 받았을 때는, 그에 따른 이중 노광제어를 신속하게 수행하고, 빛이 약해져 갈 때에는, ODD 필드를 서서히 더 밝게 하도록 한다. As shown in Figure 19 For this purpose, when it receives a strong light, quickly perform double exposure control according thereto, and that when going light is weakened gradually brighter the ODD field.

예를 들면, 자동차(1)(도 1)가 모퉁이를 돌아 맞은편 차의 헤드라이트의 강한 빛과 마주쳤을 때, 상기 헐레이션 레벨에 따른 이중 노광제어를 즉시 행하게 한다. For example, it performs vehicle (1) when (Fig. 1) is encountered and the strong light of the opposite car headlights around the corner, as soon the double exposure control according to the halation level. 이 경우, 맞은편 차가 지나가면, 상기 헐레이션 레벨은 STEP 0의 범위로 떨어진다. In this case, the opposite difference passes, the halation level falls in the range of 0 STEP. 상기 이중 노출제어가 즉시 STEP 0의 노출범위를 따르도록 하면, 자동차(1)의 운전자에게 제공되는 화상의 헐레이션 레벨이 급격하게 변하여 운전자에게 위화감을 초래할 우려가 있다. When the double exposure control to follow the coverage of STEP 0 immediately, halation level of the image provided to the driver of the car 1 is suddenly changed and there is a fear causing a sense of incongruity to the driver.

이를 피하기 위하여, CCD카메라(5)(도 1)에 입사하는 빛이 약해져 갈 때에는, 서서히 ODD 필드측의 영상을 밝게 하여 위화감을 최소화, 제거 또는 억제하도 록 하였다. In order to avoid this, CCD camera 5 when (FIG. 1) to take out of the light incident on the weakened, and undercoating gradually minimizing the discomfort to brighten the image of the ODD field side, removing or inhibiting rock.

어떤 일례를 설명한다. An example will be described which. 자동차(1)(도 1)가 코너를 돌았을 때, 맞은편 차가 존재하여 갑자기 그 자동차 헤드라이트의 헐레이션 강도가 도 18의 STEP 6의 범위가 된다. When the vehicle 1 (Fig. 1) turned a corner, and there is a sudden difference across the halation intensity of the automobile headlight in a range of STEP 6 of Fig. 상기 헐레이션 레벨이 EVEN 필드의 적어도 2프레임 동안 계속되었을 때, STEP 6의 헐레이션 레벨에 대하여 설정된 노광차(-12dB)에 따라 ODD 필드측의 노광량을 즉시 제어한다. When the halation level is continued for at least two frames of the EVEN field, and immediately controlling the amount of exposure of the ODD field in accordance with the exposed side car (-12dB) set for the level of the halation STEP 6. 맞은편 차가 지나가면 상기 헐레이션은 약해진다. Opposite the car go over the halation becomes approximately. STEP 6을 밑도는 헐레이션 레벨이 EVEN 필드의 적어도 3 프레임 동안 계속되었을 때, 상기 ODD 필드에 대한 노광량은 STEP 5의 헐레이션 범위에 대하여 설정된 노광차(-10dB)에 따라 제어된다. When the level falls below the halation STEP 6 is continued for at least three frames of the EVEN field, the amount of exposure for the ODD field is controlled according to the exposure difference (-10dB) is set with respect to the halation range of STEP 5. 이후, STEP 5를 밑도는 헐레이션 레벨이 EVEN 필드의 적어도 3 프레임 동안 계속되었을 때, 상기 ODD 필드에 대한 노광량은 STEP 4의 헐레이션 범위에 대하여 설정된 노광차(-8dB)에 따라 제어된다. Then, when the level is below the halation STEP 5 is continued for at least three frames of the EVEN field, the amount of exposure for the ODD field is controlled according to the exposure difference (-8dB) set for the halation range of STEP 4. 이와 같이, ODD 필드에 대한 노광량을 STEP 0의 헐레이션 범위까지 서서히 변화시켜 ODD 필드측의 영상을 서서히 밝게 한다. In this way, by the amount of exposure for the ODD field gradually changes to halation range of STEP 0 to brighten the image of the ODD field side slowly. 따라서, 자동차(1)의 운전자는 위화감을 느끼지 않을 수 있다. Thus, the driver of the vehicle (1) may not feel discomfort.

이런 식으로, 본 발명의 일실시형태에 따른 촬상시스템은, 직접광과 반사광에 따른 노광을 바꾸도록 제어할 수 있다. In this manner, the image pickup system according to one embodiment of the present invention can be controlled to change the exposure of the direct light and reflected light. 자동차(1)가 헤드라이트 등의 강한 빛을 직접 받았을 경우에도, 상기 촬상시스템은 중심부의 흰색 포화영역과 완만하게 어두어져 가는 주위를 포함하는 강한 빛의 헐레이션을 제거 또는 억제할 수 있다. Even if the vehicle 1 receives a strong light such as a headlight directly, the imaging system adjuster moderately dark and white saturation region of the heart can be removed or suppressed halation of strong light including ambient thin. 따라서, 상기 헐레이션 주위에 보행자 또는 장애물이 있다 하더라도, 본 발명에 따른 촬상시스템은 그 보행자 또는 장애물을 도 20에 나타난 바와 같이 명확하게 파악할 수 있다. Therefore, even around the halation it is a pedestrian or the obstacle, an image pickup system according to the present invention can be a clear view as shown in Figure 20 that a pedestrian or an obstacle.

자동차(1)(도 1)의 헤드라이트가 예컨대, 간판을 비추었을 때, 상기 간판으로부터 반사되는 반사광은 도 21에 도시된 바와 같이, 자동차(1)에 이를 수 있다. Car (1) when the headlights (1) eoteul for example, illuminate the sign, the reflected light that is reflected from the sign can lead to the, vehicle 1 as shown in Fig. 이 경우, 단지 반사물(간판) 자체는 하얗게 포화된 영상이 되지만, 그 주변에는 거의 헐레이션이 발생하지 않는다. In this case, only reflection (signboard) itself, but the white and the saturation image, that is surrounded hardly occurs halation. 즉, 상기 반사물의 휘도 곡선은 피크의 각 에지로부터 급격하게 저하한다(도 7) 따라서, 상기 반사물의 근방의 보행자 또는 장애물을 명확하게 영상으로서 파악할 수 있다. That is, the reflection luminance curve of water can be a clear view as an image to be sharply decreased (Fig. 7) Thus, the pedestrian or the obstacle in the vicinity of the water reflected back from each edge of the peak. 이 경우, EVEN 필드와 ODD 필드 사이의 노광량을 바꿀 필요가 없다. In this case, there is no need to change the exposure between the EVEN field and the ODD field. 오히려 야간에 피사체를 명확하게 파악하기 위하여, ODD 필드와 EVEN 필드에 대해서, 충분한 노광량을 확보할 필요가 있다. Rather, it is necessary to in order to clearly identify the subject during the night, for the ODD field and the EVEN field, to secure a sufficient exposure amount.

이상, 본 발명 실시형태의 촬상시스템에 의하면, 맞은편 차의 헤드라이트와 같은 강한 강원에 의하여 야기되는 헐레이션을 감소할 수 있고, 헐레이션 주위에 있을 수 있는 장애물과 보행자를 명확하게 비출 수 있다. Or more, according to the imaging system of the present invention embodiment, it is possible to reduce halation, which is caused by the strong Kangwon such as headlight of the opposite order, it is possible to clearly illuminate the obstacles and pedestrians, which can be around halation . 광고판, 간판, 도로 표지 등으로부터의 반사에 대하여, 상기 실시형태는 충분한 노광을 유지하여 밝은 영상을 제공할 수 있다. With respect to the reflection from the billboards, signs, road signs, etc., the embodiment can provide a light image to maintain sufficient exposure.

본 실시형태에 따른 상기 화상처리유닛(7)은, 상기 EVEN 필드의 화상을 고휘도 흰색 블록, 중휘도 회색 블록, 저휘도 검은색 블록으로 나누고, 상기 EVEN 필드의 흰색 블록의 그룹 주위의 회색 블록의 수에 따라 ODD 필드의 노광량을 제어한다. The image processing unit 7 according to this embodiment, in an image of the EVEN field, high-intensity white blocks, the luminance gray block, the low luminance divided by black blocks, gray blocks surrounding a group of the white blocks of the EVEN field, depending on the number and controls the exposure amount of the ODD field.

EVEN 필드의 흰색 블록 그룹 주위 회색 블록의 수에 기초하여, 상기 실시형태는 흰색 블록 그룹의 헐레이션 레벨을 쉽게 산정할 수 있고, 상기 헐레이션 레벨에 따라, 주기적으로 출력되는 ODD 필드의 노광량을 적절하게 제어한다. On the basis of the number of the EVEN field, the white block group around the gray block, the embodiment can easily calculate the halation level of the white block group, in accordance with the halation level, appropriate light exposure of the ODD field is periodically outputted to the be controlled.

상기 화상처리유닛(7)는, 상기 화상의 EVEN 필드를 복수의 블록으로 나누어 각 블록의 휘도 평균치를 산출하고, 두 개의 휘도 역치를 사용하여 상기 블록들을 흰색, 회색, 검은색 블록으로 분류한다. The image processing unit 7 is, by dividing the EVEN field of the image into a plurality of blocks calculates the brightness average value of each block, and classifying the blocks using two luminance threshold as white, gray, black block.

이 기술은 각 화소당 휘도를 조사(examine)하여 EVEN 필드를 블록으로 나누는 것보다 더 신속한 처리를 할 수 있다. This technique can be subject to brightness for each pixel irradiated (examine) to a more rapid process than dividing the EVEN field to the block.

상기 화상처리유닛(7)은, EVEN 필드를 복수의 블록으로 나누고, 두 개의 역치를 사용하여 각 블록의 화소들을 흰색, 회색, 검은색 화소로 분류하며, 흰색, 회색, 검은색 화소의 수 중 최대수를 선택하여 그 블록의 색으로 한다. The image processing unit 7, EVEN divide the field into a plurality of blocks, the number of two by using a threshold value, and classifying the pixels of each block into white, gray, and black pixels, white, gray, and black pixel of the selecting the maximum number will be the color of the block.

이 기술은 화소단위로 화소를 처리하므로, 정확한 결과를 얻을 수 있다. The technique processes the pixels on a pixel-by-pixel basis, it is possible to obtain an accurate result.

상기 화상처리유닛(7)은, EVEN 필드의 흰색 블록 그룹의 주위의 회색 블록의 수의 최대수에 따라 ODD 필드의 화상 신호축적시간을 제어할 수 있다. The image processing unit 7, it is possible to control the image signal storage time of the ODD field in accordance with the maximum number of the number of gray blocks around the white block group of EVEN field.

따라서, 헐레이션을 쉽게 특정할 수 있어 헐레이션에 신속하게 대처할 수 있다. Therefore, the halation can be easily specified can quickly respond to halation.

상기 화상처리유닛(7)은, 흰색 블록 그룹 내의 흰색 블록의 수와, 사익 흰색 블록 그룹 주위의 회색 블록의 수 및 EVEN 필드의 흰색 블록 그룹에 상응하는 회색 블록의 표준 블록수에 따라 각 ODD 필드의 화상 신호축적시간을 제어할 수 있다. The image processing unit 7, each of ODD field in accordance with the white block number of the white blocks in the group and, Sykes white block number of gray blocks around the group and the number of standard block of gray blocks corresponding to the white block group of the EVEN field, the accumulation time of the image signal can be controlled.

따라서, 헐레이션 강도를 정확하게 특정할 수 있어, 헐레이션에 적절하게 대처할 수 있다. Therefore, it is possible to accurately identify the halation intensity, and can be appropriately respond to halation.

상기 화상처리유닛(7)은, 상기 화상의 EVEN 필드 내의 흰색 블록을 특정하고, 그 후 상기 흰색 블록 주위의 회색 블록을 찾아낸다. The image processing unit 7, a particular white blocks in the EVEN field of the image, then find the gray blocks around the white block. 다른 흰색 블록이 발견되 는 경우, 상기 화상처리유닛(7)은 이를 선행하는 흰색 블록과 합친다. If the other white block is found, the image processing unit 7 and merges white blocks preceding it.

따라서, 흰색 블록의 그룹을 정확하고 신속하게 추출하여 흰색 블록 그룹에 관련된 헐레이션을 제어할 수 있다. Thus, a group of white blocks to accurately and rapidly extract may control the halation relating to the white block group.

본 실시형태에 따른 촬상시스템은, 자동차에 장착되는 상기 IR램프(3), CCD카메라(5), 및 화상처리유닛(7)을 포함한다. The imaging system according to the present embodiment includes the IR lamps (3), CCD camera 5, and an image processing unit 7 is built into the car. 상기 IR램프(3)는, 상기 자동차의 전방에 적외광을 조사하고, 상기 CCD카메라(5)는 상기 자동차의 전방을 촬상할 수 있다. The IR lamps (3) is irradiated with infrared light on the front of the motor vehicle, and the CCD camera 5 can image capturing a front of the motor vehicle.

본 실시형태에 따른 촬상시스템은, 고휘도가 점차 저휘도로 변하는 헤드라이트 주위의 영역을 제거 또는 억제함으로써, 맞은편 차의 헤드라이트와 같은 강한 광원에 의해 야기되는 헐레이션을 저감할 수 있다. The imaging system according to the present embodiment, a high luminance can be reduced gradually to halation, which is caused by a strong light source, such as by removing the region of the head around the light turns into a low light or reduced, and the headlights of the opposite order. 따라서, 상기 헐레이션 부근에 보행자 또는 장애물이 있어도, 상기 촬상시스템은 이의 화상을 명확하게 파악할 수 있다. Therefore, even if a pedestrian or an obstacle in the vicinity of the halation, the imaging system can clearly grasp the image thereof.

EVEN 필드와 ODD 필드 사이의 관계는 반대로 설정될 수 있다. Relationship between the EVEN field and the ODD field can be set opposite. 즉, ODD 필드의 헐레이션 강도를 구하여, 그 헐레이션 강도에 따라서, ODD 필드와 EVEN 필드 사이의 노광차를 구하여, EVEN 필드에서의 노광을 억제하는 구성으로 할 수도 있다. I.e., obtain the halation intensity of the ODD field, so that the halation intensity, and may be configured to obtain the exposure difference between the ODD field and the EVEN field, suppressing the exposure of the EVEN field.

상기 DSP(13)는 상기 ODD 필드 및 EVEN 필드의 전하를 각 화소당 또는 화소의 그룹별로 읽을 수 있다. Wherein the DSP (13) can read the charge of the ODD field and the EVEN field by each group of the pixels or each pixel.

상기 실시형태에서는, 출력화상을 헤드업 디스플레이(9) 상에 표시한다. In the above embodiment, and displays the output image on a heads up display (9). 그 대신에, 상기 화상을 차 실내 등에 구비된 모니터상에 표시하도록 구성할 수도 있다. Instead, it may be configured to display the image on a monitor or the like equipped with the car interior. 또한, 본 실시형태에서는, IR램프(3)로 자동차의 주행방향 전방을 조사하도록 했지만, 그 대신 후방 혹은 측방 등을 조사하여, CCD카메라(5)로 자동차의 후방 혹은 측방 등을 촬상하는 구성으로 할 수도 있다. In addition, in the present embodiment, IR lamps (3) with, but to illuminate the direction of travel ahead of the vehicle, but instead configured for imaging the irradiated with such as the rear or the side, etc. of a car rear or the side with a CCD camera 5 You may.

상기 실시형태의 촬상시스템은, 자동차에 한정하지 않고 이륜차, 선박 등에 적용될 수 있다. The imaging system of the embodiment, can be applied to not only the automotive two-wheeled vehicle, ship. 상기 촬상시스템은 교통수단으로부터 독립한(stand-alone) 촬상시스템으로서 구성할 수도 있다. The imaging system may be configured as a (stand-alone) imaging systems independent of the means of transport.

이상 설명한 바와 같이, 본 발명에 관한 촬상시스템은, 자동차의 야간주행중에, 자동차 전방에 적외광을 조사하고, 차량에 설치된 CCD카메라 등으로 차량의 전방를 촬상하여, 그 차량의 전방의 상태를 화상으로 파악할 수 있다. As described above, the image pickup system according to the present invention, a car at night while driving, by irradiating the infrared light on the automobile front and jeonbangreul of the vehicle imaged by the CCD camera or the like provided on the vehicle, the forward state of the vehicle in the image It can grasp.

Claims (8)

  1. 적외광을 조사(照射)하기 위한 적외광 조사수단과, Infrared light irradiation means for irradiating (照射) infrared light and,
    상기 적외광 조사수단에 의해 조사된 장소를 촬상(撮像)하고 상기 촬상된 화상을 전기신호로 변환하는 촬상수단과, And imaging means for converting the image pick-up place of the irradiated (撮 像) and the captured image by the infrared light irradiation unit into electrical signals,
    상기 촬상수단의 신호축적시간을 주기적으로(periodically) 변화시키고 노광량(exposure value)이 다른 화상을 연속하여 주기적으로 출력하도록 구성된 화상처리유닛을 구비하고, Periodically (periodically) change the signal storage time of the image pickup means and the exposure amount (exposure value) is continuous to the other image includes an image processing unit configured to periodically output,
    상기 화상처리유닛은, 상기 주기적으로 출력되는 화상의 제1 화상(first image)으로부터 중휘도 영역(medium-brightness area)으로 둘러싸인 고휘도 블록 (high-brightness block)을 추출하고, 상기 중휘도 영역의 정도(degree)에 따라서, 촬상되는 제2 화상의 신호축적시간을 제어하는 것을 특징으로 하는 촬상시스템. The image processing unit extracts a high luminance block (high-brightness block) surrounded by luminance region (medium-brightness area) of from the first image (first image) of an image to be the periodic output, and the level of the middle luminance region (degree) Thus, the imaging system characterized in that for controlling the signal accumulation time of the second image is captured.
  2. 제 1 항에 있어서, According to claim 1,
    상기 화상처리유닛은, 상기 제1 화상을 고휘도 블록, 중휘도 블록, 저휘도 블록으로 나누고, 고휘도 블록의 그룹 주위의 중휘도 블록의 수에 따라, 상기 제2 화상의 화상 신호축적시간을 제어하는 것을 특징으로 하는 촬상시스템. The image processing unit, the first image a high luminance block and the luminance block, the low luminance divided into blocks, with the number of luminance blocks of the surrounding group of the high luminance block, for controlling the image signal storage time of the second image the imaging system according to claim.
  3. 제 2 항에 있어서, 3. The method of claim 2,
    상기 화상처리유닛은, 상기 제1 화상을 복수의 블록으로 나누어, 각 블록의 휘도 평균치를 구하고, 상기 블록들의 휘도 평균치와 두 개의 역치(threshold)에 따라, 상기 블록을 고휘도 블록, 중휘도 블록, 및 저휘도 블록으로 분류하는 것을 특징으로 하는 촬상시스템. The image processing unit includes: dividing the first image into a plurality of blocks, obtaining a luminance average value of each block, according to the luminance average value and the two thresholds (threshold) of the blocks, the block high luminance block, of the luminance blocks, and low intensity imaging system, characterized in that for classifying the block.
  4. 제 2 항에 있어서, 3. The method of claim 2,
    상기 화상처리유닛은, 상기 제1 화상을 복수의 블록으로 나누고, 각 블록 내의 화소(pixel)를 두 개의 역치에 의해 고휘도 화소, 중휘도 화소, 저휘도 화소로 분류하여, 상기 각 블록 내의 고휘도 화소, 중휘도 화소 및 저휘도 화소의 수 중 최대수를 찾아내어 상기 최대수를 가지는 화소의 휘도 레벨을 그 블록의 휘도 레벨로 결정하며, 상기 결정된 블록의 휘도 레벨에 따라, 상기 블록들을 고휘도 블록, 중휘도 블록 및 저휘도 블록으로 분류하는 것을 특징으로 하는 촬상시스템. The image processing unit, divides the first image into a plurality of blocks, by the pixels (pixel) in each block to two threshold high luminance pixel, the luminance pixels, the low brightness to classified pixel, high-brightness pixels in the respective blocks , of the brightness pixels and low-luminance by finding the maximum number of the number of pixels determines the luminance level of the pixel having the maximum number of the luminance level of the block, the high luminance block of the blocks according to the luminance level of the determined block, of the luminance block and the low intensity imaging system, characterized in that for classifying the block.
  5. 제 2 항 내지 제 4 항 중의 어느 한 항에 있어서, According to any one of claim 2 to claim 4,
    상기 화상처리유닛은, 상기 각 고휘도 블록 주위의 중휘도 블록의 수를 찾아내고, 상기 주위의 중휘도 블록의 수 중 최대수를 찾아내어 그 최대수에 따라 상기 제2 화상의 화상 신호축적시간을 제어하는 것을 특징으로 하는 촬상시스템. The image processing unit, to find the number of each of the high luminance block luminance blocks of the surrounding, by finding the maximum number of the number of luminance blocks of the surrounding image signal storage time of the second image according to the maximum number of the imaging system characterized in that control.
  6. 제 2 항 내지 제 4 항 중의 어느 한 항에 있어서, According to any one of claim 2 to claim 4,
    상기 화상처리유닛은, 그룹을 형성하는 고휘도 블록의 수와, 상기 그룹 주위의 중휘도 블록의 수 및 상기 그룹에 관련된 중휘도 블록의 표준수(reference number)를 찾아내고, 이 수들에 따라 상기 제2 화상의 화상 신호축적시간을 제어하는 것을 특징으로 하는 촬상시스템. The image processing unit, to find the number of high luminance blocks forming the group, and a standard number (reference number) of the luminance blocks of related to the number and the group of luminance blocks of the periphery of the group, wherein, depending on the numbers second imaging system, characterized in that for controlling the image signal storage time of the image.
  7. 제 5 항 또는 제 6 항에 있어서, 6. The method of claim 5 or 6,
    상기 화상처리유닛은, 고휘도 블록을 특정하여(identify) 중휘도 블록과 고휘도 블록에 대하여 고휘도 블록의 바깥둘레(periphery)를 찾아내며, 상기 찾아진 고휘도 블록들을 고휘도 블록으로 그룹 짓는 것을 특징으로 하는 촬상시스템. The image processing unit, it still consumes a outer circumference (periphery) of the high luminance block with respect to the luminance blocks and the high luminance block of the specified high luminance block (identify), image pick-up, characterized in that to group said find binary high-luminance blocks as the high luminance block system.
  8. 제 1 항 내지 제 7 항 중의 어느 한 항에 있어서, 상기 적외광 조사수단, 촬상수단, 및 화상처리유닛은, 자동차에 구비되고, Claim 1 to claim according to any one of 7, wherein the infrared ray irradiation means, imaging means, and an image processing unit, is provided in the car,
    상기 적외광 조사수단은, 상기 자동차의 바깥쪽으로 적외광을 조사하고, The infrared light irradiating means, and irradiated with infrared light to the outside of the motor vehicle,
    상기 촬상수단은, 상기 자동차의 바깥쪽을 촬상하는 것을 특징으로 하는 촬상시스템. The imaging means includes an imaging system, characterized in that for imaging the outside of the motor vehicle.
KR1020067012699A 2006-06-23 2003-12-25 Imaging system KR20070005553A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020067012699A KR20070005553A (en) 2006-06-23 2003-12-25 Imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020067012699A KR20070005553A (en) 2006-06-23 2003-12-25 Imaging system

Publications (1)

Publication Number Publication Date
KR20070005553A true KR20070005553A (en) 2007-01-10

Family

ID=37871127

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067012699A KR20070005553A (en) 2006-06-23 2003-12-25 Imaging system

Country Status (1)

Country Link
KR (1) KR20070005553A (en)

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9521289B2 (en) 2011-06-10 2016-12-13 Flir Systems, Inc. Line based image processing and flexible memory system
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US9706139B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Low power and small form factor infrared imaging
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US9723227B2 (en) 2011-06-10 2017-08-01 Flir Systems, Inc. Non-uniformity correction techniques for infrared imaging devices
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9807319B2 (en) 2009-06-03 2017-10-31 Flir Systems, Inc. Wearable imaging devices, systems, and methods
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US10033944B2 (en) 2009-03-02 2018-07-24 Flir Systems, Inc. Time spaced infrared image enhancement
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9807319B2 (en) 2009-06-03 2017-10-31 Flir Systems, Inc. Wearable imaging devices, systems, and methods
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US9716844B2 (en) 2011-06-10 2017-07-25 Flir Systems, Inc. Low power and small form factor infrared imaging
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US9538038B2 (en) 2011-06-10 2017-01-03 Flir Systems, Inc. Flexible memory systems and methods
US10250822B2 (en) 2011-06-10 2019-04-02 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9521289B2 (en) 2011-06-10 2016-12-13 Flir Systems, Inc. Line based image processing and flexible memory system
US9706139B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Low power and small form factor infrared imaging
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9723228B2 (en) 2011-06-10 2017-08-01 Flir Systems, Inc. Infrared camera system architectures
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US10230910B2 (en) 2011-06-10 2019-03-12 Flir Systems, Inc. Infrared camera system architectures
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US9723227B2 (en) 2011-06-10 2017-08-01 Flir Systems, Inc. Non-uniformity correction techniques for infrared imaging devices
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views

Similar Documents

Publication Publication Date Title
US8977008B2 (en) Driver assistance system for vehicle
JP2004538545A (en) Image processing system for controlling vehicle headlamps or other vehicle equipment
JP2004217209A (en) Control of continuously variable headlight
US6144022A (en) Rain sensor using statistical analysis
US8456327B2 (en) Automatic vehicle equipment monitoring, warning, and control system
JP4204558B2 (en) Image forming apparatus and image forming method
JP4262072B2 (en) Auxiliary equipment control equipment for automobiles
US7839303B2 (en) Vehicle detecting apparatus
US20060257024A1 (en) Method and device for visualizing the surroundings of a vehicle
CN100472322C (en) Front image taking device
US10257432B2 (en) Method for enhancing vehicle camera image quality
JP4484856B2 (en) Automotive headlight controller
US20080030374A1 (en) On-board device for detecting vehicles and apparatus for controlling headlights using the device
CN1310499C (en) Image pick-up apparatus, fingerprint certification apparatus and image pick-up method
JP2006005520A (en) Imaging apparatus
EP1339227B1 (en) Image pickup apparatus
US20070263099A1 (en) Ambient Light Rejection In Digital Video Images
US6603137B2 (en) Differential imaging rain sensor
US20060215882A1 (en) Image processing apparatus and method, recording medium, and program
US7884868B2 (en) Image capturing element, image capturing apparatus, image capturing method, image capturing system, and image processing apparatus
JP2004021345A (en) Image processing device and its method
KR101709817B1 (en) Ambient correction in rolling image capture system
US9912876B1 (en) Vehicle vision system with enhanced low light capabilities
CN100391237C (en) Image processing device
JP2001527372A (en) Vehicle vision system

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination