KR20070005553A - Imaging system - Google Patents

Imaging system Download PDF

Info

Publication number
KR20070005553A
KR20070005553A KR1020067012699A KR20067012699A KR20070005553A KR 20070005553 A KR20070005553 A KR 20070005553A KR 1020067012699 A KR1020067012699 A KR 1020067012699A KR 20067012699 A KR20067012699 A KR 20067012699A KR 20070005553 A KR20070005553 A KR 20070005553A
Authority
KR
South Korea
Prior art keywords
image
luminance
block
blocks
processing unit
Prior art date
Application number
KR1020067012699A
Other languages
Korean (ko)
Inventor
히로유키 가와무라
히로노리 호시노
Original Assignee
나이루스 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 나이루스 가부시키가이샤 filed Critical 나이루스 가부시키가이샤
Priority to KR1020067012699A priority Critical patent/KR20070005553A/en
Publication of KR20070005553A publication Critical patent/KR20070005553A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

An imaging system comprises an IR lamp irradiating infrared light, a CCD camera (5) for imaging a place irradiated by the IR lamp and converting the image into an electric signal, and an image processing unit (7) capable of continuously and periodically outputting images of different exposure amounts by varying the signal storage time of the CCD camera (5) at a specified period. The image processing unit (7) extracts a mass of high luminance having a spread of intermediate luminance on the periphery of the images outputted periodically on one hand, and controls the signal storage time of the images periodically outputted according to the extent of the mass of high luminance on the other hand. ® KIPO & WIPO 2007

Description

촬상시스템{IMAGING SYSTEM}Imaging System

본 발명은, CCD카메라 등을 이용한 촬상시스템에 관한 것이다.The present invention relates to an imaging system using a CCD camera or the like.

도 22는 종래 기술에 따른 촬상시스템을 나타낸다. 이 도 22에서는, 촬상수단으로서 CCD(charge-coupled device;101)를 구비하고, 화상처리유닛으로서 DSP (Digital Signal Processor)(103) 및 CPU(중앙처리유닛;105)를 구비하고 있다.22 shows an imaging system according to the prior art. In FIG. 22, a charge-coupled device (CCD) 101 is provided as an imaging means, and a DSP (Digital Signal Processor) 103 and a CPU (central processing unit) 105 are provided as an image processing unit.

상기 CPU(105)와 DSP(103)는 멀티플렉서(multiplexer;107)를 통하여 접속된다. CPU(105)에는 셔터 스피드 설정스위치(109)로부터의 신호가 입력되게 되어 있다. 셔터 스피드 설정스위치(109)는, ODD 필드용의 셔터 스피드와 EVEN 필드용의 셔터 스피드를 각각 설정할 수 있게 되어 있다. 상기 CPU(105)는 상기 셔터 스피드 설정스위치(109)에 의해 설정된 셔터 스피드를 읽어내고, 주어진 필드에 대하여 읽혀진 셔터 스피드를 인코딩하여, 상기 인코딩된 셔터 스피드를 출력한다. 상기 DSP(103)는 도 23에 도시된 필드 펄스신호를 출력한다. 상기 필드 펄스신호가 하이(high)인 때는, 상기 멀티플렉서(107)는 DSP(103)의 셔터 스피드 설정 단자에 EVEN 필드에 대한 셔터 스피드를 제공한다. 상기 필드 펄스신호가 로우(low)인 때는, 상기 멀티플렉서(107)는 DSP(103)의 셔터 스피드 설정 단자에 ODD 필드에 대한 셔터 스피드를 제공한다. 이런 방식으로, 도 22의 촬상시스템은 필드마다 다른 셔 터 스피드를 설정할 수 있다.The CPU 105 and the DSP 103 are connected through a multiplexer 107. The signal from the shutter speed setting switch 109 is input to the CPU 105. The shutter speed setting switch 109 can set the shutter speed for the ODD field and the shutter speed for the EVEN field, respectively. The CPU 105 reads the shutter speed set by the shutter speed setting switch 109, encodes the shutter speed read for a given field, and outputs the encoded shutter speed. The DSP 103 outputs the field pulse signal shown in FIG. When the field pulse signal is high, the multiplexer 107 provides the shutter speed for the EVEN field to the shutter speed setting terminal of the DSP 103. When the field pulse signal is low, the multiplexer 107 provides the shutter speed for the ODD field to the shutter speed setting terminal of the DSP 103. In this way, the imaging system of Fig. 22 can set different shutter speeds for each field.

ODD 필드 및 EVEN 필드에 대해서 동일한 셔터 스피드를 채용한 CCD 카메라가 있다. 도 24는 이러한 종류의 CCD카메라로 찍은 화상의 일례를 나타낸 것이다. 상기 화상은 주변부가 어두운 밝은 광원을 포함하고 있다. 이 화상에서, 상기 밝은 광원과 그 주위 경계는 헐레이션(halation)으로 인하여 보이지 않게 된다.There is a CCD camera employing the same shutter speed for the ODD field and the EVEN field. Fig. 24 shows an example of an image taken by this type of CCD camera. The image contains a bright light source with a dark periphery. In this image, the bright light source and its borders become invisible due to halation.

도 24의 화상 촬상에 사용된 상기 CCD카메라는, 적외선 조사수단으로서 적외선(IR) 램프를 구비한 자동차에 탑재된 것이다. 자동차의 야간 주행중에 자동차는 IR램프로부터 자동차의 전방으로 적외광을 조사하여, 상기 CCD카메라로 도 24에 나타난 것과 같은 화상을 촬상 할 수 있다. 도 24에 도시된 밝은 광원은 맞은편 접근하는 차의 헤드라이트이고, 그 밝은 광원의 주변은 헐레이션에 의해서 보이지 않게 되고 있다. 만약, 야간에 밝은 광원이 어두운 주위에 있을 때, 전면 측광시스템(photometry system)을 채용한 CCD카메라는 어두운 주위에 의하여 지배되며, 따라서 긴 노출시간, 즉 느린 셔터 스피드를 계산해낸다. 이 셔터 스피드는 상기 밝은 광원에 대해서는 너무 느리기 때문에, 헐레이션을 초래하게 된다.The CCD camera used for image capturing in FIG. 24 is mounted on a vehicle equipped with an infrared (IR) lamp as infrared irradiation means. During night driving of the car, the car can irradiate infrared light from the IR lamp toward the front of the car, and can capture an image as shown in FIG. 24 with the CCD camera. The bright light source shown in FIG. 24 is the headlight of the car approaching on the opposite side, and the periphery of the bright light source is hidden by halation. If at night the bright light source is in the dark surroundings, the CCD camera employing the front photometry system is dominated by the dark surroundings, thus calculating the long exposure time, i.e. the slow shutter speed. This shutter speed is too slow for the bright light source, resulting in halation.

상기 셔터 스피드는 헐레이션을 억제하기 위하여 빨라지게 할 수 있다. 그러나, 이는 도 25와 같이, 주위의 어두운 부분이 보다 어두워져 버려, 배경이 전혀 보이지 않게 되어 버린다고 하는 문제를 만든다.The shutter speed can be made faster to suppress the halation. However, this creates a problem that, as shown in Fig. 25, the dark part of the surrounding becomes darker and the background becomes invisible at all.

도 26의 표지판 등과 같은 반사물이 있는 경우, 상기 표지만 때문에 셔터 스피드가 늦어지도록 제어되어 동일한 방식으로 표지만 주위가 보이지 않게 되어 버린다. If there is a reflector such as the sign of Fig. 26, the shutter speed is controlled to be slow because of the above mark, so that the mark is not visible in the same way.

이러한 문제를 극복하기 위하여, 각 필드마다 셔터 스피드를 바꾸는 이중노출제어가 있다. 이는 밝은 화상과 어두운 화상을 교대로 출력하도록 제어하는 것이다. 밝은 화상(예컨대, EVEN 필드)은 어두운 부분을 비추고, 어두운 화상(예컨대, ODD 필드)에서는 밝은 화상에서 헐레이션을 야기할 수 있는 밝은 부분을 비출 수 있다.In order to overcome this problem, there is a double exposure control that changes the shutter speed for each field. This controls to output a bright image and a dark image alternately. Bright pictures (eg, EVEN fields) can illuminate dark areas, and dark pictures (eg, ODD fields) can illuminate bright areas that can cause halation in bright pictures.

밝고 어두운 화상을 교대로 출력하여, 선명한 화상으로서 모니터에 표시시킬 수 있다.Bright and dark images can be output alternately and displayed on the monitor as clear images.

그러나, 상기 이중 노광제어는 밝은 화상과 어두운 화상(필드)를 교대로 출력하도록 제어하여 모니터 상에 깜박거림을 초래한다고 하는 문제가 있다.However, there is a problem that the double exposure control causes flicker on the monitor by controlling to output a bright image and a dark image (field) alternately.

또한, 일본 특허공개공보 평성 7-97841호에 기재된 도 27에 나타내는 촬상장치가 있다. 이 촬상장치는, 촬상소자(111)를 구비한 카메라부(113)와, 처리부(115)를 구비하고 있다.Moreover, there is an imaging device shown in Fig. 27 described in JP-A-7-97841. This imaging apparatus is equipped with the camera part 113 provided with the imaging element 111, and the processing part 115. As shown in FIG.

도 28은, 상기 도 27의 촬상장치에 의한 화상처리의 개념도를 나타낸 것이다. 도 28에서, 스루 화상(through image)이란, 상기 카메라부(113)의 촬상소자 (111)로부터 직접 출력되는 화상을 말하고, 메모리 화상(memory image)이란 화상 메모리(117)에 일단 기억되기 직전 필드의 화상을 말한다.FIG. 28 shows a conceptual diagram of image processing by the image capturing apparatus of FIG. 27. In FIG. 28, a through image is an image which is directly output from the image pickup device 111 of the camera unit 113, and a memory image is a field immediately before being stored in the image memory 117 once. Says burns.

도 28에서, 각 ODD 필드는 빠른 셔터 스피드로 설정되고, 각 EVEN 필드는 느린 셔터 스피드로 설정된다. 각 ODD필드에서, 스루 화상은 찌부러진 검은색 (crushed black)의 주 피사체를 나타내고, 각 EVEN 필드에서, 스루 화상은 포화된 흰색(saturated white)의 배경을 나타낸다. 각 메모리 화상은 1필드 뒤에 위치하고 있으므로, 찌부러진 검은색 또는 포화된 흰색이 대응하는 스루 화상과 반대가 되고 있다. 상기 스루 화상과 메모리 화상을 적절하게 조합하는 것에 의하여, 도 28의 최하단에 도시된 적절한 출력 화상을 얻을 수 있다.In FIG. 28, each ODD field is set to a fast shutter speed, and each EVEN field is set to a slow shutter speed. In each ODD field, the through image represents a crushed black main subject, and in each EVEN field, the through image represents a saturated white background. Since each memory picture is located one field later, the crushed black or saturated white color is opposite to the corresponding through picture. By properly combining the through image and the memory image, an appropriate output image shown at the bottom of Fig. 28 can be obtained.

그러나, 이 스루 화상과 메모리 화상의 합성은, 스루 화상 및 메모리 화상을 부분적으로 추출하여 포개는 것이기 때문에, 주로 노광량이 다른 화상을 함께 합성하게 된다. 따라서, 상기 단순한 이중 노광제어와 같은 깜박거림은 감소시킬 수 있지만, 합성된 스루 화상 및 메모리 화상의 경계가 부자연스럽게 된다고 하는 문제가 있다.However, since the synthesis of the through image and the memory image partially extracts and superimposes the through image and the memory image, images of different exposure amounts are mainly combined together. Therefore, although flickering such as the simple double exposure control can be reduced, there is a problem that the boundary between the synthesized through image and the memory image becomes unnatural.

본 발명은, 보다 선명한 화상 출력을 가능하게 하는 촬상시스템의 제공을 목적으로 한다.An object of the present invention is to provide an image capturing system that enables a clearer image output.

상기 목적을 달성하기 위하여, 본 발명의 제1 관점은, 적외광을 조사하기 위한 적외광 조사수단과, 상기 적외광 조사수단에 의해 조사된 장소를 촬상(撮像)하고 상기 촬상된 화상을 전기신호로 변환하는 촬상수단과, 상기 촬상수단의 신호축적시간을 주기적으로(periodically) 변화시키고 노광량이 다른 화상을 연속하여 주기적으로 출력하도록 구성된 화상처리유닛을 포함하는 촬상시스템을 제공한다. 상기 화상처리유닛은, 상기 주기적으로 출력되는 화상의 제1 화상(first image)으로부터 중휘도 영역(medium-brightness area)으로 둘러싸인 고휘도 블록(high-brightness block)을 추출하고, 상기 중휘도 영역의 정도(degree)에 따라서, 촬상되는 제2 화상의 신호축적시간을 제어한다.In order to achieve the above object, a first aspect of the present invention is to provide an infrared light irradiation means for irradiating infrared light, a place irradiated by the infrared light irradiation means, and to pick up the captured image by an electric signal. And an image processing unit configured to periodically change the signal accumulation time of the image pickup means and to periodically output images having different exposure amounts. The image processing unit extracts a high-brightness block surrounded by a medium-brightness area from a first image of the periodically output image, and the degree of the medium luminance area is extracted. According to the degree, the signal accumulation time of the second image imaged is controlled.

상기 제1 관점에 따르면, 상기 적외광 조사수단은 적외광을 조사하고, 상기 촬상수단은 적외광 조사수단에 의해 조사된 장소를 촬상하여 전기신호로 변환하며, 상기 화상처리유닛은 촬상수단의 신호축적시간을 주기적으로 변화시켜 노광량이 다른 화상을 연속하여 주기적으로 출력한다.According to the first aspect, the infrared light irradiation means irradiates infrared light, the image pickup means images the place irradiated by the infrared light irradiation means and converts it into an electrical signal, and the image processing unit is a signal of the imaging means. By accumulating the accumulation time periodically, images of different exposure amounts are periodically outputted.

상기 제1 관점에 따르면, 상기 화상처리유닛은, 상기 주기적으로 출력되는 화상의 제1 화상으로부터 중휘도 영역으로 둘러싸인 고휘도 블록을 추출하고, 상기 중휘도 영역의 정도에 따라서, 촬상되는 제2 화상의 신호축적시간을 제어한다.According to the first aspect, the image processing unit extracts a high luminance block surrounded by a medium luminance region from the first image of the periodically output image, and according to the degree of the medium luminance region, Control signal accumulation time.

이러한 제어에 의해, 상기 촬상수단에 예를 들어 맞은 편 차의 헤드라이트로부터의 강한 빛이 들어와도, 상기 제1 관점의 발명은 상기 촬상된 화상에서, 상기 강한 빛에 의한 고휘도 블록 주변의 점차적으로 어두워지는 영역을 제거 또는 억제할 있어서, 상기 강한 빛 부근에 보행자 또는 장애물이 있어도, 그 보행자 또는 장애물의 화상을 명확하게 촬상할 수 있다.By this control, even if strong light from the headlights of the opposite deviation enters the imaging means, for example, the invention of the first aspect is gradually darkened around the high luminance block by the strong light in the captured image. By removing or suppressing the lost area, even if there is a pedestrian or obstacle near the strong light, the image of the pedestrian or obstacle can be clearly captured.

본 발명의 제2 관점에 따르면, 상기 화상처리유닛은, 상기 제1 화상을 고휘도 블록, 중휘도 블록, 저휘도 블록으로 나누고, 고휘도 블록의 그룹 주위의 중휘도 블록의 수에 따라, 상기 제2 화상의 화상 신호축적시간을 제어한다.According to a second aspect of the present invention, the image processing unit divides the first image into a high luminance block, a medium luminance block, and a low luminance block, and according to the number of medium luminance blocks around a group of high luminance blocks, the second image. Image signal accumulation time of an image is controlled.

따라서, 고휘도 블록의 그룹 주위의 중휘도 블록의 수에 따라, 상기 제2 관점의 발명은 중휘도 블록의 정도를 확실하게 파악하여 상기 제2 화상의 신호축적시간을 제어할 수 있다.Therefore, according to the number of heavy luminance blocks around a group of high luminance blocks, the invention of the second aspect can reliably grasp the degree of the heavy luminance block and control the signal accumulation time of the second image.

본 발명의 제3 관점에 따르면, 상기 화상처리유닛은, 상기 제1 화상을 복수의 블록으로 나누어, 각 블록의 휘도 평균치를 구하고, 상기 블록들의 휘도 평균치와 두 개의 역치(threshold)에 따라, 상기 블록을 고휘도 블록, 중휘도 블록, 및 저휘도 블록으로 분류한다.According to a third aspect of the present invention, the image processing unit divides the first image into a plurality of blocks to obtain a luminance average value of each block, and according to the luminance average value of the blocks and two thresholds. The blocks are classified into high luminance blocks, medium luminance blocks, and low luminance blocks.

따라서, 상기 제3 관점의 발명은, 화소(pixel)에 의하여 화상 화소를 처리하는 기술에 비하여 화상처리시간을 향상시킬 수 있다.Therefore, the invention of the third aspect can improve the image processing time as compared to the technique of processing image pixels by pixels.

본 발명의 제4 관점에 따르면, 상기 화상처리유닛은, 상기 제1 화상을 복수의 블록으로 나누고, 각 블록 내의 화소(pixel)를 두 개의 역치에 의해 고휘도 화소, 중휘도 화소, 저휘도 화소로 분류하여, 상기 각 블록 내의 고휘도 화소, 중휘도 화소 및 저휘도 화소의 수 중 최대수를 찾아내고, 상기 최대수를 가지는 화소의 휘도 레벨을 그 블록의 휘도 레벨로 결정하며, 상기 결정된 블록의 휘도 레벨에 따라, 상기 블록들을 고휘도 블록, 중휘도 블록 및 저휘도 블록으로 분류한다.According to a fourth aspect of the present invention, the image processing unit divides the first image into a plurality of blocks, and divides pixels in each block into high luminance pixels, medium luminance pixels, and low luminance pixels by two threshold values. Classify and find the maximum number of the high luminance pixels, the medium luminance pixels, and the low luminance pixels in each block, determine the luminance level of the pixel having the maximum number as the luminance level of the block, and determine the luminance of the determined block. According to the level, the blocks are classified into high luminance blocks, medium luminance blocks, and low luminance blocks.

상기 제4 관점의 발명은, 화소에 의하여 화상 화소를 처리하는 것에 의하여 정확성을 강화시킬 수 있다.The invention of the fourth aspect can enhance the accuracy by processing the image pixels by the pixels.

본 발명의 제5 관점에 따르면, 상기 화상처리유닛은, 상기 각 고휘도 블록 주위의 중휘도 블록의 수를 찾아내고, 상기 주위의 중휘도 블록의 수 중 최대수를 찾아내어 그 최대수에 따라 상기 제2 화상의 화상 신호축적시간을 제어한다.According to a fifth aspect of the present invention, the image processing unit finds the number of the medium luminance blocks around each of the high luminance blocks, finds the maximum number of the number of the medium luminance blocks around the high luminance block, and according to the maximum number. The image signal accumulation time of the second image is controlled.

상기 제5관점의 발명은, 헐레이션을 쉽게 특정할 수 있어, 신속한 화상처리를 행할 수 있다.According to the fifth aspect of the invention, the halation can be easily specified, and rapid image processing can be performed.

본 발명의 제6 관점에 따르면, 상기 화상처리유닛은, 그룹을 형성하는 고휘도 블록의 수와, 상기 그룹 주위의 중휘도 블록의 수 및 상기 그룹에 관련된 중휘도 블록의 표준수 (reference number)를 찾아내고, 이 수들에 따라 상기 제2 화상의 화상 신호축적시간을 제어한다.According to a sixth aspect of the present invention, the image processing unit includes a number of high luminance blocks forming a group, a number of heavy luminance blocks around the group, and a reference number of heavy luminance blocks associated with the group. The image signal accumulation time of the second image is controlled according to these numbers.

상기 제6 관점의 발명은, 헐레이션을 적절하게 특정할 수 있어, 보다 정확한 화상처리를 행할 수 있다.According to the invention of the sixth aspect, the halation can be appropriately specified, and more accurate image processing can be performed.

본 발명의 제7 관점에 따르면, 상기 화상처리유닛은, 고휘도 블록을 식별하여(identify) 중휘도 블록과 고휘도 블록에 대하여 고휘도 블록의 바깥둘레 (periphery)를 찾아내며, 상기 찾아진 고휘도 블록들을 고휘도 블록으로 그룹 짓는다.According to a seventh aspect of the present invention, the image processing unit identifies a high luminance block and finds a periphery of the high luminance block with respect to the medium luminance block and the high luminance block, and the high luminance blocks are found. Group into blocks

상기 제7 관점의 발명은, 고휘도 블록을 정확하고 신속하게 추출하여 제어할 수 있다.According to the seventh aspect of the invention, the high luminance block can be extracted and controlled accurately and quickly.

본 발명의 제8 관점에 따르면, 상기 적외광 조사수단, 촬상수단, 및 화상처리유닛은, 자동차에 설치된다. 상기 적외광 조사수단은, 상기 자동차의 바깥쪽으로 적외광을 조사한다. 상기 촬상수단은, 상기 자동차의 바깥쪽을 촬상한다.According to the eighth aspect of the present invention, the infrared light irradiation means, the imaging means, and the image processing unit are provided in an automobile. The infrared light irradiation means irradiates infrared light to the outside of the vehicle. The imaging means picks up the outside of the vehicle.

따라서, 예컨대 맞은편 차의 헤드라이트에 의한 헐레이션이 있어도, 상기 제8 관점의 발명은, 헐레이션 주위의 점차적으로 어두워지는 영역을 제거 또는 억제할 수 있다. 따라서, 상기 헐레이션 부근에 보행자 또는 장애물이 있어도, 상기 보행자 또는 장애물의 화상을 명확하게 촬상할 수 있다.Therefore, even if there is halation caused by headlights of opposite cars, for example, the invention of the eighth aspect can remove or suppress the gradually darkening area around the halation. Therefore, even if there is a pedestrian or obstacle near the halation, the image of the pedestrian or obstacle can be clearly captured.

도 1은, 본 발명의 일실시형태에 따른 촬상시스템이 설치된 자동차의 개념도이다.1 is a conceptual diagram of a vehicle provided with an imaging system according to an embodiment of the present invention.

도 2는, 상기 촬상시스템의 카메라와 화상처리유닛을 나타낸 블록도이다.2 is a block diagram showing a camera and an image processing unit of the imaging system.

도 3은, 본 발명의 일실시형태에 따른 노광 전환제어를 나타낸 플로우차트이다.3 is a flowchart showing exposure switching control according to an embodiment of the present invention.

도 4는, 단순한 제어에 따라 촬상된 화상 내의 광원을 도시한 화상도이다.4 is an image diagram showing a light source in an image picked up under simple control.

도 5는, 도 4의 광원을 가로지르는 수평선을 따른 휘도 변화를 나타낸 그래프이다..5 is a graph showing a change in luminance along a horizontal line across the light source of FIG. 4.

도 6은, 단순한 제어에 따라 촬상된 반사물을 도시한 화상도이다.6 is an image diagram showing a reflector picked up under simple control.

도 7은, 도 6의 반사물을 가로지는 수평선에 따른 휘도 변화를 나타낸 그래프이다.FIG. 7 is a graph illustrating a change in luminance along a horizontal line crossing the reflector of FIG. 6.

도 8은, 본 발명의 일실시형태에 관한 것으로, EVEN 필드의 휘도 데이터를 몇 개의 블록으로 분할한 모식도이다.8 is a schematic diagram of dividing luminance data of an EVEN field into several blocks according to an embodiment of the present invention.

도 9는, 본 발명의 일실시형태에 관한 것으로, 회색의 비율에 의한 블록 색분류를 나타내는 도표이다.Fig. 9 relates to an embodiment of the present invention and is a diagram showing block color classification by gray ratios.

도 10은, 본 발명의 일실시형태에 관한 것으로, 블록 색분류를 나타내는 개념도이다. 10 is a conceptual diagram illustrating block color classification according to an embodiment of the present invention.

도 11은, 본 발명의 일실시형태에 관한 것으로, 블록내 검색순서를 나타내는 개념도이다.Fig. 11 is a conceptual diagram showing an intrablock search procedure in accordance with an embodiment of the present invention.

도 12는, 그 바깥둘레가 검색된 밝은 광원을 포함하는 출력 화상을 나타낸 도면이다.Fig. 12 is a diagram showing an output image including a bright light source whose outer periphery is found.

도 13은, 본 발명의 일실시형태에 관한 것으로, 상기 밝은 광원의 바깥둘레가 3색으로 표시된 도12의 화상을 검사한 결과를 나타내는 화상도이다.FIG. 13 relates to an embodiment of the present invention, and is an image diagram showing a result of inspection of the image of FIG. 12 in which the outer periphery of the bright light source is displayed in three colors.

도 14는, 본 발명의 일실시형태에 관한 것으로, 표준 블록수와 흰색 블록수 사이의 관계를 나타내고, 도 14(a)는 흰색 블록수 1개, 도 14(b)는 흰색 블록수 2개, 도14(c)는 흰색 블록수 3개를 포함한 개념도이다.Fig. 14 relates to an embodiment of the present invention, which shows the relationship between the number of standard blocks and the number of white blocks, in which Fig. 14 (a) shows one white block and Fig. 14 (b) shows two white blocks. 14 (c) is a conceptual diagram including three white blocks.

도 15는, 본 발명의 일실시형태에 관한 것으로, 헐레이션 검출 블록수를 나타내는 개념도이다.15 is a conceptual diagram illustrating the number of halation detection blocks in accordance with an embodiment of the present invention.

도 16은, 빛을 반사할 수 있는 반사물과 광원 사이를 나타낸 출력 화상을 나타내는 도면이다.FIG. 16 is a diagram illustrating an output image showing a reflection object that can reflect light and a light source.

도 17은, 본 발명의 일실시형태에 관한 것으로, 도 16의 화상에 관하여 수행된 색분류의 결과를 나타내는 처리 화상도이다.FIG. 17 relates to one embodiment of the present invention and is a processed image diagram showing the results of color classification performed on the image of FIG. 16.

도 18은, 본 발명의 일실시형태에 관한 것으로, EVEN 필드와 ODD 필드 사이의 노광차를 나타내는 도표이다.18 is a diagram showing an exposure difference between an EVEN field and an ODD field according to an embodiment of the present invention.

도 19는, 본 발명의 일실시형태에 관한 것으로, 헐레이션 강도의 상태 천이도이다.Fig. 19 relates to an embodiment of the present invention and is a state transition diagram of halation intensity.

도 20은, 본 발명의 일실시형태에 관한 것으로, 목적물이 헐레이션 내에서 보이는 예의 처리 화상도이다.Fig. 20 relates to one embodiment of the present invention and is a processed image diagram of an example in which an object is seen in halation.

도 21은, 본 발명의 일실시형태에 관한 것으로, 반사물에 관계없이 주변이 보이는 예를 나타내는 처리 화상도이다.Fig. 21 relates to one embodiment of the present invention and is a processed image diagram showing an example of the surroundings irrespective of the reflecting material.

도 22는, 종래예에 따른 촬상시스템을 도시한 블록도이다.Fig. 22 is a block diagram showing an imaging system according to a conventional example.

도 23은, 종래예에 관한 것으로, 필드 펄스의 출력도이다.Fig. 23 relates to a conventional example and is an output diagram of a field pulse.

도 24는, 종래예에 관한 것으로, 헐레이션에 의해서 광원과 그 주변이 보이 지 않게 되는 예를 나타내는 출력 화상도이다.24 relates to a conventional example, and is an output image diagram showing an example in which the light source and its surroundings are not visible due to halation.

도 25는, 종래예에 관한 것으로, 헐레이션에 의해서 보이지 않게 되는 부분들을 포함한 출력 화상도이다.Fig. 25 relates to a conventional example and is an output image diagram including portions that are not visible by halation.

도 26은, 종래예에 관한 것으로, 반사물과 그 주위가 보이지 않게 되는 예를 나타내는 출력 화상도이다.Fig. 26 relates to a conventional example and is an output image diagram showing an example in which the reflector and its surroundings are not visible.

도 27도는, 다른 종래예에 관한 촬상시스템을 나타내는 블록도이다.27 is a block diagram showing an imaging system according to another conventional example.

도 28은, 도 27에 따른 종래예에 의하여 제공된 화상을 나타낸 도면이다.FIG. 28 is a view showing an image provided by the conventional example according to FIG. 27.

본 발명의 일실시형태에 따른 촬상시스템을 설명한다. 도 1은 본 발명의 일 실시형태에 따른 촬상시스템을 적용한 자동차의 개념도, 도 2는 상기 촬상시스템의 블록도, 도 3은 상기 실시형태에 따른 노광 전환제어를 나타내는 플로우차트이다.An imaging system according to an embodiment of the present invention will be described. 1 is a conceptual diagram of a vehicle to which an imaging system according to an embodiment of the present invention is applied, FIG. 2 is a block diagram of the imaging system, and FIG. 3 is a flowchart showing exposure switching control according to the embodiment.

도 1에서, 자동차(1)는 적외선을 조사하기 위한 적외선 조사수단으로서 제공되는 IR램프(3)와, 촬상수단으로서 CCD카메라(5)와, 화상처리유닛(7)과, 헤드업(head-up) 디스플레이(9)를 구비한다.In Fig. 1, a motor vehicle 1 includes an IR lamp 3 provided as infrared irradiation means for irradiating infrared rays, a CCD camera 5 as an image pickup means, an image processing unit 7, and a head-up. up) a display 9.

상기 IR램프(3)는, 야간 또는 자동차(1)의 주위가 어두울 때에 촬상하기 위하여 자동차(1)의 주행방향의 전방으로 적외광을 조사한다. 상기 CCD카메라(5)는, 상기 IR램프(3)로부터 발산된 적외광으로 자동차(1)의 전방을 감광요소로 찍고, 그 찍혀진 화상을 전기신호로 변환한다. 더욱 상세하게는, 상기 CCD카메라(5) 내의 포토 다이오드(photodiode)가 화상을 전기신호로 변환한다. 상기 화상처리유닛(7)은, 상기 CCD카메라(5)의 신호축적시간을 소정의 주기에서 변화시켜, 노광량이 다른 화 상을 연속하여 주기적으로 출력한다.The IR lamp 3 irradiates infrared light toward the front of the vehicle 1 in the traveling direction for imaging at night or when the circumference of the vehicle 1 is dark. The CCD camera 5 photographs the front of the vehicle 1 as a photosensitive element with infrared light emitted from the IR lamp 3, and converts the captured image into an electrical signal. More specifically, a photodiode in the CCD camera 5 converts the image into an electrical signal. The image processing unit 7 changes the signal accumulation time of the CCD camera 5 at a predetermined cycle, and periodically outputs images with different exposure amounts continuously.

상기 신호축적시간은, 모든 화소에 대하여 설정된다. 신호축적시간을 소정의 주기로 변화시킨다는 것은, 각 화소에 축적된 불필요한 전하를 방출하는 펄스의 회수를 변화시키는 것을 의미한다. 이러한 동작은 전자 셔터동작이다. 또한 노광량이 다른 화상을 연속하여 주기적으로 출력한다는 것은, 상기 전자 셔터동작에 의해서 ODD 필드, EVEN 필드마다 셔터 스피드를 설정하여, 각각의 셔터 스피드로 읽혀진 각 필드의 화상을 예를 들면 1/60초 간격으로 연속하여 교대로 출력하는 것을 말한다.The signal accumulation time is set for all the pixels. Changing the signal accumulation time by a predetermined period means changing the number of pulses for releasing unnecessary charge accumulated in each pixel. This operation is an electronic shutter operation. In addition, periodically outputting images with different exposure amounts continuously sets the shutter speed for each ODD field and EVEN field by the electronic shutter operation, and displays images of each field read at each shutter speed, for example, 1/60 second. It means to output successively at intervals.

그리고, 셔터 스피드를 빠르게 한 고속셔터에서는, 어두운 부분은 비치기 어렵지만 밝은 부분은 선명히 비치고, 셔터 스피드를 늦게 한 저속셔터에서는, 밝은 부분은 포화되어 날아가 버리고 어두운 부분이 선명하게 비치게 된다.In high-speed shutters with faster shutter speeds, darker parts are less visible, while brighter parts are more clearly visible, while slower shutter speeds are slower, brighter parts are saturated and fly away, and darker parts are more clearly visible.

상기 화상처리유닛(7)은, 제1 화상으로부터, 바깥둘레에 중휘도를 가지는 고휘도 블록을 추출하여, 상기 중휘도의 정도에 따라서 제2 화상의 신호축적시간을 제어한다.The image processing unit 7 extracts, from the first image, a high luminance block having a medium luminance at the outer circumference, and controls the signal accumulation time of the second image according to the degree of the medium luminance.

도 2에서, 상기 CCD카메라(5) 및 화상처리유닛(7)은, CCD(5a), AFE(Analog Front End;11), DSP(13), RAM(15), CPU(17) 등을 구비하고 있다.In Fig. 2, the CCD camera 5 and the image processing unit 7 include a CCD 5a, an analog front end (AFE) 11, a DSP 13, a RAM 15, a CPU 17, and the like. Doing.

상기 CCD카메라(5)는, 상기 CCD(5a), AFE(11), DSP(13), 및 CPU(17)의 일부를 포함하고 있다. 상기 화상처리유닛(7)은, DSP(13)의 일부, RAM(15), CPU(17)를 포함하고 있다. The CCD camera 5 includes a part of the CCD 5a, the AFE 11, the DSP 13, and the CPU 17. As shown in FIG. The image processing unit 7 includes a part of the DSP 13, a RAM 15, and a CPU 17.

상기 AFE(11)는, 상기 CCD(5a)의 출력신호를 증폭하여, 그 증폭된 신호를 디 지털 신호로 변환한다.The AFE 11 amplifies the output signal of the CCD 5a and converts the amplified signal into a digital signal.

상기 DSP(13)는, 디지털 신호처리부이고, 상기 CCD(5a), AFE(11) 작동을 위한 타이밍 신호를 생성하고, 신호변환, 비디오 신호생성, AFE(11)를 통한 CCD(5a)로부터의 신호의 γ변환, 인핸서처리(enhancement), 디지털신호 증폭처리 등을 행한다. The DSP 13 is a digital signal processor, which generates timing signals for the CCD 5a and AFE 11 operation, and converts the signals from the CCD 5a through the signal conversion, video signal generation, and the AFE 11. Γ conversion of signals, enhancement processing, digital signal amplification processing, and the like are performed.

상기 RAM(15)은, 메모리이고, 상기 DSP(13)로부터 출력된 EVEN 필드화상의 휘도(=농도) 데이터를 일시 저장한다.The RAM 15 is a memory and temporarily stores luminance (= density) data of an EVEN field image output from the DSP 13.

상기 CPU(17)는, 각종 연산을 행하는 동시에, 도 22에서 설명한 것과 동일한 구성에 의해서 ODD 필드, EVEN 필드마다의 셔터 스피드를 제어한다. 즉 EVEN 필드에 대해서는, 상기 CPU(17)는 EVEN 필드의 평균 휘도에 따라 최적인 노광 조건을 산출하고, 그 산출된 조건에 따라 상기 AFE(11)에 대한 증폭 제어 및 CCD(5a)에 대한 전자 셔터 동작 제어를 행한다.The CPU 17 performs various operations and controls the shutter speed for each ODD field and EVEN field by the same configuration as described in FIG. 22. That is, for the EVEN field, the CPU 17 calculates an optimal exposure condition according to the average brightness of the EVEN field, and amplifies control for the AFE 11 and electrons for the CCD 5a according to the calculated conditions. Shutter operation control is performed.

도 2의 촬상시스템의 작용을 설명한다.The operation of the imaging system of FIG. 2 will be described.

우선, 상기 CPU(17)는 초기 셔터 스피드를 설정하고 상기 DSP(13)에 ODD 필드측의 셔터 스피드 컨트롤신호 및 EVEN 필드측의 셔터 스피드 컨트롤신호를 출력한다.First, the CPU 17 sets an initial shutter speed and outputs a shutter speed control signal on the ODD field side and a shutter speed control signal on the EVEN field to the DSP 13.

상기 DSP(13)에서는, CCD(5a), AFE(11) 작동을 위한 타이밍신호가 생성된다. 이 타이밍신호에 기초하여, CCD(5a)에 의한 촬상이 행하여지고, 상기 CCD(5a)의 전체 화소의 포토 다이오드는 신호전하를 축적한다. 수직방향으로 EVEN 필드의 중간에 교대로 배치된 ODD 필드측에서는, 수직방향으로 매 홀수번째의 포토 다이오드 (화소)의 신호 전하가 설정된 셔터 스피드로 읽혀진다. EVEN 필드측에서는, 수직방향으로 매 짝수번째의 포토 다이오드(화소)의 신호전하가 설정된 셔터 스피드로 읽혀진다.In the DSP 13, timing signals for the operation of the CCD 5a and the AFE 11 are generated. Based on this timing signal, imaging by the CCD 5a is performed, and the photodiodes of all the pixels of the CCD 5a accumulate signal charges. On the ODD field side alternately arranged in the middle of the EVEN field in the vertical direction, the signal charges of every odd-numbered photodiode (pixel) in the vertical direction are read at the set shutter speed. On the EVEN field side, the signal charge of every even photodiode (pixel) in the vertical direction is read at the set shutter speed.

상기 CCD(5a)에서 읽혀진 신호 전하는 AFE(11)에서 증폭됨과 동시에 디지털 신호로 변환되어, DSP(13)로 제공된다. DSP(13)에서는, 제공된 신호의 신호변환, 비디오 신호생성, γ변환, 인핸서 처리, 디지털신호 증폭처리 등이 수행된다.The signal charge read from the CCD 5a is amplified by the AFE 11 and converted into a digital signal and provided to the DSP 13. In the DSP 13, signal conversion, video signal generation, gamma conversion, enhancer processing, digital signal amplification processing, and the like of the provided signal are performed.

상기 DSP(13)로부터 출력된 EVEN 필드 화상의 휘도 데이터는, RAM(15)에 일시 저장된다.The luminance data of the EVEN field image output from the DSP 13 is temporarily stored in the RAM 15.

상기 CPU(17)는, EVEN 필드에 대해서, 평균농도로부터 최적인 노광조건을 산출하고, 그 산출된 조건에 따라 DSP(13)를 통하여 CCD(5a)에 대한 전자셔터의 제어를 행한다.The CPU 17 calculates an optimal exposure condition for the EVEN field from the average concentration, and controls the electronic shutter for the CCD 5a through the DSP 13 according to the calculated condition.

상기 CPU(17)는, ODD 필드에 대해서, 도 3의 플로우차트에 도시된 노광 전환제어에 의해 노광조건을 산출한다.The CPU 17 calculates exposure conditions for the ODD field by exposure switching control shown in the flowchart of FIG. 3.

도 3의 노광 전환제어의 스텝 S1에서는, EVEN 필드 블록단위의 휘도 데이터 를 꺼내온다. 더욱 상세하게는, 스텝 S1은 상기 RAM(15)에 저장된 EVEN 필드의 휘도데이터를 몇 개의 블록으로 분할하고 각 블록의 평균휘도를 산출한다. In step S1 of exposure switching control in Fig. 3, luminance data in units of EVEN field blocks is taken out. More specifically, step S1 divides the luminance data of the EVEN field stored in the RAM 15 into several blocks and calculates an average luminance of each block.

스텝 S2에서는, '블록단위 3치화 데이터(three-valued date) 변환'의 처리가 실행된다. 이 스텝은 두 개의 역치(threshold)를 이용하여 스텝 S1에서 제공된 각 블록의 평균 휘도를 3치화 데이터로 변환한다.In step S2, a process of "block-level digitized data conversion" is executed. This step uses two thresholds to convert the average luminance of each block provided in step S1 into digitized data.

스텝 S3에서는, '고휘도 블록검출'의 처리가 실행된다. 이 스텝에서는, 상 기 각 블록의 3치화 데이터를 검사하여 고휘도 블록의 덩어리(mass)를 검출한다.In step S3, the process of "high brightness block detection" is performed. In this step, the quantization data of each block is examined, and the mass of a high brightness block is detected.

스텝 S4에서는, '고휘도 블록그룹화'의 처리가 실행된다. 이 스텝에서는, 인접하는 고휘도 블록이 결합(그룹화)되어 각 그룹의 크기로서 각 그룹의 블록수가 검출된다.In step S4, the process of "high brightness block grouping" is performed. In this step, adjacent high luminance blocks are combined (grouped), and the number of blocks in each group is detected as the size of each group.

스텝 S5에서는, '중휘도 블록검출'의 처리가 실행된다. 이 스텝에서는, 상기 고휘도 블록 그룹 주위의 중휘도 블록의 그룹이 검출된다.In step S5, the process of "medium intensity block detection" is performed. In this step, a group of heavy luminance blocks around the high luminance block group is detected.

스텝 S6에서는, 상기 고휘도 그룹의 크기와 중휘도 그룹의 크기, 또는 중휘도 그룹의 크기 만으로부터 '헐레이션 레벨계산'의 처리가 실행된다. 이 스텝에서는, EVEN 필드내에서 최대의 헐레이션 레벨(강도)이 검출된다.In step S6, the processing of "halation level calculation" is performed based only on the size of the high luminance group, the size of the medium luminance group, or the size of the medium luminance group. In this step, the maximum halation level (intensity) is detected in the EVEN field.

스텝 S7에서는, ODD 필드에 대한 노광목표치를 결정한다. 이 스텝에서는, 상기 EVEN 필드의 헐레이션 레벨에 따라 ODD 필드의 노광량을 산출한다. 이 후에, 다음의 EVEN 필드의 처리로 이행된다.In step S7, the exposure target value for the ODD field is determined. In this step, the exposure amount of the ODD field is calculated according to the halation level of the EVEN field. After this, the process proceeds to the next EVEN field.

도 3의 스텝들을 통하여 산출된 노광조건에 따라, CCD(5a)의 전자셔터(1), AFE(11)의 AGC 게인(gain), DSP(13)의 디지털 게인 등이 제어되어 얻을 수 있는 영상의 밝기를 최적화한다.According to the exposure conditions calculated through the steps of FIG. 3, the electronic shutter 1 of the CCD 5a, the AGC gain of the AFE 11, the digital gain of the DSP 13, and the like are controlled and obtained. To optimize the brightness.

한편, 상기 스텝 S2에서의 3치화 데이터 산출은 블록의 평균 휘도 대신에, 소정 블록내에서 가장 대부분을 차지하는 화소의 속성(屬性)에 기초할 수도 있다.On the other hand, the quantization data calculation in step S2 may be based on the attribute of the pixel which occupies the most part in the predetermined block instead of the average luminance of the block.

도 1의 CCD카메라(5)가 예를 들면 맞은편 차의 헤드라이트와 같은 강한 빛을 받았을 때, 상술한 제어는 헤드라이트 주변의 어두운 부분의 영상의 밝기를 떨어뜨리는 일 없이 강한 빛의 영향을 억제할 수 있다.When the CCD camera 5 of FIG. 1 receives a strong light, for example, the headlights of the opposite car, the above-described control does not affect the strong light without degrading the brightness of the image of the dark part around the headlights. It can be suppressed.

자동차용으로서 사용되는 촬상시스템의 CCD카메라는, 영상방식으로서 인터레이스 방식(interlace method)을 채용하는 것이 일반적이다. 상기 인터레이스 방식은 EVEN 필드와 ODD 필드의 2개의 필드로 이루어지고, 2개의 필드가 시간적으로 교대로 출력되는 것에 의해서, 보는 사람의 눈에 일정한 해상도를 가진 영상으로서 비친다.The CCD camera of an imaging system used for automobiles generally employs an interlace method as an image method. The interlacing method consists of two fields, an EVEN field and an ODD field, and the two fields are alternately outputted in time, so that the image of the viewer has a constant resolution.

상기 통상의 CCD카메라는, EVEN 필드 또는 ODD 필드의 평균 휘도로부터 노광조건을 계산한다. 상기 노광조건은, CCD의 전자 셔터 스피드, AFE에서의 증폭율(amplication factor;AGC 게인), 및 DSP의 디지털 증폭율을 결정하는 것에 의하여 최적인 밝기의 영상을 모니터 상에 출력할 수 있다. The conventional CCD camera calculates exposure conditions from the average luminance of the EVEN field or the ODD field. The exposure condition can output an image of optimal brightness on the monitor by determining the electronic shutter speed of the CCD, the amplification factor (AGC gain) in the AFE, and the digital amplification factor of the DSP.

일반적인 CCD카메라는, 상기 계산된 노광조건이 EVEN 필드/ODD 필드의 어느 것에도 적용되어, 결과적으로 양 필드는 동일한 정도의 밝기를 가진 영상이 출력되게 된다. 야간에 접근하는 맞은편 차의 헤드라이트와 같이 강한 광원이 있을 때, 상기 통상의 기술에서는 전체 휘도 평균치에 따라 노광조건이 결정된다. 결과적으로, 상기 통상의 기술에서는 강한 광원과 그 주변이 하얗게 포화된 영상으로서 출력되는 것이 많다(이른바 헐레이션). In a typical CCD camera, the calculated exposure condition is applied to any of the EVEN field / ODD field, and as a result, both fields output images having the same brightness. When there is a strong light source such as a headlight of the opposite vehicle approaching at night, in the conventional technique, the exposure conditions are determined according to the overall luminance average value. As a result, in the above conventional technique, a strong light source and its surroundings are often output as a white saturated image (so-called halation).

헐레이션의 예는 도 4에 나타나 있다. 상기 도면에서, 강한 광원과 그 주위가 하얗게 포화되고, 그 포화된 부분이 방사적으로 산란되고 있다. 도 5는 도 4의 강한 광원을 가로지르는 라인을 따른 휘도 레벨을 나타내는 그래프이다. 도 5에서, 상기 강한 광원과 그 주위는 최대 휘도로 포화되고, 그 휘도는 상기 강한 광원으로부터 멀어질수록 점차적으로 감소한다. An example of halation is shown in FIG. 4. In this figure, the strong light source and its surroundings are saturated white, and the saturated portions thereof are scattered radially. FIG. 5 is a graph showing luminance levels along a line across the strong light source of FIG. 4. In Fig. 5, the strong light source and its surroundings are saturated to the maximum brightness, and the brightness gradually decreases away from the strong light source.

만약 보행자가 상기 포화 영역에 존재한다면, 상기 CCD카메라가 보행자의 영상을 파악하는 것은 불가능하다. 상기 강한 광원의 중심은 하얗게 포화된다 할지라도, 그 주위 또는 상기 헤드라이트의 사이는 상기 보행자의 영상을 촬상 할 수 있도록 포화되지 않아야 한다. If the pedestrian is in the saturation region, it is impossible for the CCD camera to grasp the image of the pedestrian. Although the center of the strong light source is saturated white, the surroundings or between the headlights should not be saturated so that the image of the pedestrian can be captured.

도 6은 반사물이 촬상된 일례를 도시한 것이다. 상기 도 6에서 반사물은 헤드라이트로부터의 빛을 반사하는 광고판, 도로 표지, 간판 등이다. 도 7은 도 6의 반사물을 가로지는 선을 따른 휘도 레벨을 나타내는 그래프이다. 도 7에서, 상기 반사물은 하얗게 포화되어 있다. 그러나, 반사물 주위는 헐레이션이 없다. 즉, 도 7의 휘도 곡선은 반사물의 피크로부터 급격하게 저하한다. 상기 반사물의 근처에 보행자가 있다면, 그 보행자를 명확하게 영상으로서 파악할 수 있다. 이 경우, 헐레이션에 대한 대책을 취할 필요가 없다. 즉, EVEN 필드의 노광량보다 ODD 필드의 노광량을 억제할 필요는 없다. 오히려 야간에 피사체의 광량이 작은 것을 생각하면, ODD 필드도 EVEN 필드와 같이, 충분히 노광량을 확보하는 것이, 보행자와 같은 목적물을 쉽게 인식하는데 바람직할 것이다.6 shows an example in which the reflector is imaged. In FIG. 6, the reflector is a billboard, a road sign, a signboard, or the like, which reflects light from the headlight. FIG. 7 is a graph illustrating luminance levels along a line crossing the reflector of FIG. 6. In Figure 7, the reflector is white saturated. However, there is no halation around the reflector. That is, the luminance curve of FIG. 7 drops sharply from the peak of the reflector. If there is a pedestrian near the reflection, the pedestrian can be clearly identified as an image. In this case, it is not necessary to take measures against halation. That is, it is not necessary to suppress the exposure amount of the ODD field than the exposure amount of the EVEN field. On the contrary, considering that the amount of light of the subject is small at night, as in the EVEN field, it is preferable that the exposure amount be sufficiently secured to easily recognize an object such as a pedestrian.

본 발명에 따르면, 각 EVEN 필드는, 상기 도 3의 플로우차트에 따라 처리되어 헐레이션을 검출하고 본 발명의 기술적사상에 따라 최적노광조건을 검출하여 야간의 어두운 목적물을 더 밝게 출력하도록 한다. 각 ODD 필드에 대해서는, 이전의 EVEN 필드에서 얻어진 휘도 데이터를 기초로 노광차를 설정하여, 강한 빛에 의한 영향을 최소화한 영상을 나타내도록 한다. According to the present invention, each EVEN field is processed according to the flowchart of FIG. 3 to detect halation and to detect an optimal exposure condition according to the technical concept of the present invention, so that a dark object at night is brighter. For each ODD field, an exposure difference is set on the basis of the luminance data obtained in the previous EVEN field, so as to display an image which minimizes the influence of strong light.

이러한 다른 특징을 가진 ODD 필드와 EVEN 필드의 화상을 합성하는 것에 의 해, 본 발명은 야간에 강한 빛을 받아도, 헐레이션을 일으키는 일 없이, 또한 강한 빛의 주변부를 밝게 유지하여 각 목적물이 명확하게 보여지는 화상을 출력할 수 있다.By combining the images of the ODD field and the EVEN field with these other characteristics, the present invention clearly does not cause halation even when receiving a strong light at night, and keeps the bright part of the light bright so that each object can be clearly seen. The image shown can be output.

여기서, EVEN 필드의 휘도 데이터로부터 헐레이션 레벨을 검출하고, 그 헐레이션 레벨에 따라 노광조건을 산출하여, 그 산출결과를 출력할 때까지의 일련의 처리를 상세하게 설명한다.Here, a series of processes until detecting the halation level from the luminance data of the EVEN field, calculating the exposure condition according to the halation level, and outputting the calculation result will be described in detail.

EVEN 필드의 블록분류를 설명하기로 한다. 이 과정은 도 3의 스텝 S1에서 실행된다. 상기 EVEN 필드의 휘도 데이터는 상기 DSP(13)로부터 꺼내어져 RAM(15)에 저장된다. 상기 휘도 데이터는, 예컨대 512도트×240라인으로 구성된다. 이 데이터는 도 8에 도시된 바와 같이, 각 블록이 8도트×4라인을 가지는 예컨대 64×60블록으로 분할된다.The block classification of the EVEN field will be described. This process is executed in step S1 of FIG. The luminance data of the EVEN field is taken out of the DSP 13 and stored in the RAM 15. The luminance data is composed of, for example, 512 dots x 240 lines. This data is divided into, for example, 64 x 60 blocks, each block having 8 dots x 4 lines, as shown in FIG.

이후, 각 블록의 휘도 데이터의 평균치가 산출된다. 즉, 각 블록의 모든 화소(8×4화소)의 화소치의 평균이 산출된다. 이 산출은 도 3의 스텝 S1에서 실행된다.Then, the average value of the luminance data of each block is calculated. That is, the average of pixel values of all pixels (8x4 pixels) of each block is calculated. This calculation is performed in step S1 of FIG.

이후, 각 블록의 휘도 평균치는 두 개의 역치를 사용하여 3치화 데이터로 변환된다. 이 변환은 상기 도 3의 스텝 S2에서 실행된다. 각 휘도치는 예를 들면, 8비트로 표현된다. 이 경우, 최저 휘도가 0, 최고 휘도가 255이다. 예컨대, 흰색 역치를 220(이상), 검은색 역치를 150(이하)으로 하고, 그 중간을 회색으로서 설정한다. 각 블록은 그 평균 휘도에 따라 다음과 같이 분류된다:Thereafter, the luminance average of each block is converted into digitized data using two thresholds. This conversion is performed in step S2 of FIG. Each luminance value is represented by 8 bits, for example. In this case, the lowest luminance is 0 and the highest luminance is 255. For example, the white threshold is set to 220 (or higher) and the black threshold is 150 (or lower), and the middle is set as gray. Each block is classified as follows according to its average brightness:

· 평균 휘도≥흰색 역치일 때, 흰색; 또는White when mean luminance ≧ white threshold; or

· 흰색 역치>평균 휘도≥검은색 역치일 때, 회색; 또는Gray when white threshold> average luminance≥black threshold; or

· 평균 휘도<검은색 역치일 때, 검은색.Black when average luminance <black threshold.

두 개의 역치를 사용하여 각 블록의 휘도 평균치를 3치 데이터로 변환하는 대신에, 동일한 역치를 사용하여 각 블록의 각 화소를 3치 데이터로 변환하여, 흰색(고휘도) 화소, 회색(중휘도) 화소, 검은색(저휘도) 화소의 수들을 계산하고, 최대수의 화소의 색깔을 그 블록에 대하여 지정할 수 있다.Instead of converting the average luminance of each block to ternary data using two thresholds, each pixel in each block is converted to ternary data using the same threshold, resulting in white (high brightness) pixels, gray (medium brightness) The number of pixels, black (low luminance) pixels can be calculated, and the color of the maximum number of pixels can be specified for the block.

도 9는 3치화 데이터가 제공된 화소에 기초한 분류를 나타낸 일례이다. 소정 블록 내의 각 화소는 회색 화소의 수에 따라 흰색, 회색 및 검은색으로 분류된다. 상기 블록의 회색화소의 비율이 50% 이상일 때, 그 블록은 회색으로 분류된다. 회색 화소의 비율이 50% 미만인 경우는, 흰색 또는 검은색으로 분류된다. 도 10에서는, 32 (8×4) 화소를 가지는 블록의 일례를 나타낸다. 이 블록의 회색 회소의 비율은 50% 이상이므로, 상기 블록은 회색으로 분류된다.9 is an example showing classification based on pixels provided with digitized data. Each pixel in a given block is classified into white, gray and black according to the number of gray pixels. When the ratio of gray pixels of the block is 50% or more, the block is classified as gray. When the ratio of gray pixels is less than 50%, it is classified as white or black. In FIG. 10, an example of the block which has 32 (8x4) pixel is shown. Since the gray fraction of this block is at least 50%, the block is classified as gray.

필드를 블록으로 나누는 대신에, 각 화소는 헐레이션 검출 및 노광량 계산을 위하여 연구될 수 있다.Instead of dividing the field into blocks, each pixel can be studied for halation detection and exposure calculation.

각 블록을 3치화 데이터로 변환한 후에, 그룹처리가 도 3의 스탭 S4에서 행해진다. 그룹처리는, 흰색(고휘도) 블록의 덩어리(mass)를 검출한다.After each block is converted into digitized data, group processing is performed in step S4 of FIG. The group processing detects mass of white (high brightness) blocks.

도 8에서, 상기 블록은 제1 블록(0,0)으로부터 최종 블록(63,59)까지 검사하여 첫번째 라인으로부터 순차적으로 흰색 블록을 찾는다. 각 라인에서, 상기 검사는 도 8의 왼쪽 블록으로부터 오른쪽 블록을 향하여 수행된다.In Fig. 8, the block checks from the first block (0,0) to the last block (63,59) to find the white blocks sequentially from the first line. In each line, the check is performed from the left block of FIG. 8 toward the right block.

하나의 흰색 블록이 찾아지면, 도 11에 도시된 바와 같이 그 발견된 흰색 블 록의 주위 8블록에 대해서 흰색 블록이 있는지 체크된다. 도 11에서, 상기 체크는 왼쪽 블록 "1"로부터 시계방향으로 더 낮은 왼쪽 블록 "8"을 향하여 수행된다. 발견된 흰색 블록들은 연속적으로 연결되어 흰색 블록의 그룹을 형성한다.If one white block is found, then there are white blocks for the surrounding eight blocks of the found white block as shown in FIG. In FIG. 11, the check is performed from the left block “1” toward the lower left block “8” in the clockwise direction. The white blocks found are connected in series to form a group of white blocks.

도 12는 그 둘레가 조사(照射)된 강한 광원을 포함하는 출력 화상도이고, 도 13은 상술한 스텝 S1~S4를 통하여 처리된 화상을 나타낸 것이다. 도 12의 강한 광원은 헤드라이트로부터 나온 것이다. 도 13에서, 도 12의 강한 광원은 연속적인 회색 블록으로 둘러싸여 있다. 회색 블록 경계 내부에는, 단지 흰색 블록들만 있으며, 이것이 1개의 그룹을 형성한다.FIG. 12 is an output image diagram including a strong light source irradiated around its circumference, and FIG. 13 shows an image processed through steps S1 to S4 described above. The strong light source of Figure 12 comes from the headlights. In FIG. 13, the strong light source of FIG. 12 is surrounded by continuous gray blocks. Inside the gray block boundary, there are only white blocks, which form one group.

이후, 상기 도 3의 스텝 S5에서 헐레이션이 검출된다. 헐레이션은 강한 빛 때문에 포화된 중심부를 포함하며, 그 주위는 점차 어두어진다. 상기 헐레이션의 중심은 흰색 블록의 그룹이고, 그 주위는 회색 블록이 형성된다.Then, the halation is detected in step S5 of FIG. Halation contains saturated centers due to strong light, and it gradually darkens around it. The center of the halation is a group of white blocks, around which gray blocks are formed.

헐레이션을 탐지하기 위하여, 흰색 블록의 일 그룹 주위의 회색 블록이 탐지되고, 상기 회색 블록의 수를 센다.To detect halation, gray blocks around a group of white blocks are detected and the number of gray blocks is counted.

도 14는 주위에 회색 블록들을 구비한 한 그룹의 횐색 블록을 가지는 헐레이션의 이상적인 또는 전형적인 예를 나타낸다. 도 14(a)의 헐레이션의 예에서, 하나의 흰색 블록 그룹은 하나의 흰색 블록과 주위의 8개의 회색 블록으로 구성된다. 도 14(b)의 헐레이션의 예에서, 하나의 흰색 블록 그룹은 두 개의 흰색 블록과 주위의 10개의 회색 블록으로 구성된다. 도 14(c)의 헐레이션의 예에서, 하나의 흰색 블록 그룹은 세 개의 흰색 블록과 주위의 12개의 회색 블록으로 구성된다. 이러한 회색 블록수는, 후술하는 제2 계산방법에 따라 헐레이션 레벨을 계산할 때의 표준 블록수수(reference block number)로서 제공된다.14 shows an ideal or typical example of halation with a group of white blocks with gray blocks around them. In the example of the halation of FIG. 14 (a), one white block group is composed of one white block and eight gray blocks around it. In the example of the halation of Fig. 14 (b), one white block group is composed of two white blocks and ten gray blocks around it. In the example of the halation of Fig. 14 (c), one white block group is composed of three white blocks and twelve gray blocks around it. This gray block number is provided as a reference block number when calculating the halation level according to the second calculation method described later.

헐레이션 레벨은, 상기 도 3의 스텝 S6에서 흰색 블록의 그룹과 그 주변의 회색 블록을 기초로 계산된다.The halation level is calculated based on the group of white blocks and the gray blocks around them in step S6 of FIG.

헐레이션 레벨을 계산하는 첫번째 방법은, 흰색 블록 그룹 중에서, 하나의 흰색 블록 그룹 주위의 최대 회색 블록 수를 찾아내고, 그 최대수를 헐레이션 레벨로 결정하는 방법이다.The first method of calculating the halation level is to find the maximum number of gray blocks around one white block group among the white block groups, and determine the maximum number as the halation level.

헐레이션 레벨을 계산하는 두번째 방법은, 소정의 흰색 블록 그룹의 크기와 그 그룹의 헐레이션 확률을 조사(examine)하는 방법이다.The second method of calculating the halation level is a method of examining the size of a predetermined white block group and the halation probability of the group.

상기 첫번째 방법을 설명한다.The first method will be described.

첫번째 방법은 각 흰색 블록 그룹(광원 표본) 주위의 회색블록의 수를 센다. 세어진 회색ㅂ 블록의 수 중에서, 최대의 수가 헐레이션 레벨로서 선택된다.The first method counts the number of gray blocks around each white block group (source sample). From the number of grayed out blocks, the maximum number is selected as the halation level.

헐레이션 레벨 = 1 화상에서 흰색 블록 그룹 주위의 회색 블록의 최대수Halation Level = 1 Maximum number of gray blocks around a white block group in a picture

도 15는, 하나의 흰색 블록을 가지는 흰색 블록 그룹의 일례를 나타낸 것이다. 이 예에서, 상기 흰색 블록 그룹 주위의 회색 블록의 수는 7이고, 따라서 헐레이션 레벨은 7이다.15 shows an example of a white block group having one white block. In this example, the number of gray blocks around the white block group is seven, so the halation level is seven.

도 16은 반사물과 헐레이션을 가지는 광원을 포함하는 최초 화상을 나타낸것이다. 도 17은, 도 16의 화상으로부터 만들어진 3치화 데이터로 블록을 구성한 처리화상을 나타낸 것이다. 도 17의 화상은 많은 흰색블록과 흰색블록 그룹을 포함한다. 긱 흰색블록들과 흰색 블록 그룹들은 주위의 회색블록의 수를 결정하기 위하여 검사되며, 회색블록의 최대수가 헐레이션 레벨로서 선택된다. 16 shows an initial image that includes a reflector and a light source having halation. FIG. 17 shows a processing image in which blocks are formed from ternary data created from the image of FIG. The image of FIG. 17 includes many white blocks and white block groups. Gig whiteblocks and white block groups are examined to determine the number of gray blocks nearby, and the maximum number of gray blocks is selected as the halation level.

첫번째 방법에 따르면, 도 17의 화상은 다음과 같이 분석된다:According to the first method, the image of FIG. 17 is analyzed as follows:

· 상기 화상 위쪽 중앙부의 큰 간판 주변의 회색 블록수 0개0 gray blocks around the large signboard in the center above the image

· 상기 화상의 왼쪽 부분의 작은 간판 주변의 회색 블록수 0개0 gray blocks around the small signboard in the left part of the image

· 상기 화상 중앙의 전방 자동차 미등(taillight) 주변의 회색 블록수 2개2 gray blocks around the front vehicle taillight in the center of the image

· 상기 화상의 위쪽 오른쪽의 가로등 주변의 회색 블록수 4개4 gray blocks around a street lamp on the top right of the image

· 상기 화상의 아래 오른쪽의 맞은편 차 헤드라이트 주변의 회색 블록수 32개32 gray blocks around the car headlights across the bottom right of the image

결과적으로, 32가 도 17의 화상의 회색 블록의 최대수이고, 따라서 그 값이 헐레이션 레벨로 선택된다.As a result, 32 is the maximum number of gray blocks of the picture of Fig. 17, and therefore its value is selected as the halation level.

그 크기와 흰색 블록 그룹의 확률에 따라 헐레이션 레벨을 계산하는 두번째 방법을 설명한다.A second method of calculating the halation level based on the size and probability of the white block group is described.

소정의 흰색 블록 그룹 주위의 회색 블록의 수가 실제로 세어진다. 흰색 블록 그룹 내 흰색 블록의 수가 세어지고, 이 숫자에 따라, 회색 블록의 표준수(도 14)가 계산된다. 상기 실제로 계산된 회색 블록수와, 회색 블록의 표준수에 따라, 상기 흰색 블록 그룹의 헐레이션 레벨을 다음과 같이 계산한다:The number of gray blocks around a given group of white blocks is actually counted. The number of white blocks in the white block group is counted and, according to this number, the standard number of gray blocks (FIG. 14) is calculated. According to the actually calculated number of gray blocks and the standard number of gray blocks, the halation level of the white block group is calculated as follows:

헐레이션 확률(%)Halation Probability (%)

= ( 회색 블록의 실제 수/회색 블록의 표준 블록수) × 100         = (Actual number of gray blocks / standard number of gray blocks) × 100

상기 헐레이션 확률에, 흰색 블록 그룹의 흰색 블록의 수를 곱한 수치를 그 흰색 블록 그룹의 헐레이션 레벨로 제공한다. The halation probability is multiplied by the number of white blocks of the white block group to provide the halation level of the white block group.

상기 도 17의 화상은 다음과 같이 분석된다:The image of FIG. 17 is analyzed as follows:

· 큰 간판의 헐레이션 레벨 (0/26)×100×21=0Large signage halation level (0/26) × 100 × 21 = 0

· 작은 간판의 헐레이션 레벨 (0/26)×100×7=0Small signage halation level (0/26) × 100 × 7 = 0

· 상기 미등의 헐레이션 레벨 (2/8)×100×1=25Halation level (2/8) × 100 × 1 = 25 of the taillight

· 가로등의 헐레이션 레벨 (4/18)×100×8=178Halation Level (4/18) × 100 × 8 = 178

· 헤드라이트의 헐레이션 레벨 (32/37)×100×43=3718 Headlight halation level (32/37) × 100 × 43 = 3718

상기 헐레이션 레벨 중 최대치는 도 17의 화상의 헐레이션 레벨로서 선택된다.The maximum value of the halation levels is selected as the halation level of the image of FIG.

즉, 맞은편 차의 헤드라이트 주변의 3718의 헐레이션 레벨이 도 17의 화상의 헐레이션 레벨로서 선택된다.That is, the 3718 halation level around the headlights of the opposite vehicle is selected as the halation level of the image of FIG.

이후, ODD 필드에 대한 노광조건이 도 3의 스텝 S7에서 결정된다.Thereafter, the exposure conditions for the ODD field are determined in step S7 of FIG.

상술한 바와 같이 결정된 EVEN 필드의 헐레이션 레벨에 따라서, 상기 EVEN 필드와 ODD 필드 사이의 노광차가 예컨대 도 18에 도시된 표로 구해진다. 상기 노광차에 따라서, ODD필드에 대한 노광조건이 헐레이션을 억제하기 위하여 결정된다.According to the halation level of the EVEN field determined as described above, the exposure difference between the EVEN field and the ODD field is obtained, for example, from the table shown in FIG. In accordance with the exposure difference, an exposure condition for the ODD field is determined to suppress the halation.

상기 첫번째 방법에 따라 얻어진 헐레이션 레벨이 도 18의 STEP 0(0∼5)의 범위일 때 상기 노광차는 0dB이고, 상기 헐레이션 레벨이 STEP 6(31∼35)의 범위일 때 상기 노광차는 -12dB이 된다. 상기 두번째 방법에 따라 얻어진 헐레이션 레벨이 STEP 0(0∼500)의 범위일 때 상기 노광차는 0dB이고, 상기 헐레이션 레벨이 STEP 6(3001∼3500)의 범위일 때 상기 노광차는 -12dB가 된다. The exposure difference is 0 dB when the halation level obtained according to the first method is in the range of STEP 0 (0 to 5) in FIG. 18, and the exposure difference is-when the halation level is in the range of STEP 6 (31 to 35). 12 dB. The exposure difference is 0 dB when the halation level obtained according to the second method is in the range of STEP 0 (0 to 500), and the exposure difference is -12 dB when the halation level is in the range of STEP 6 (3001 to 3500). .

상기 헐레이션 레벨이 STEP 0의 범위이면, EVEN 필드와 ODD 필드의 노광차는 없지만, 헐레이션 레벨이 STEP 6의 범위이면 ODD 필드의 노광량이 EVEN 필드의 노 광량보다 12dB 정도 작게 설정된다.If the halation level is in the range of STEP 0, there is no exposure difference between the EVEN field and the ODD field. If the halation level is in the range of STEP 6, the exposure amount of the ODD field is set to be about 12 dB smaller than the exposure amount of the EVEN field.

이런 식으로, 소정의 EVEN 필드의 헐레이션 레벨이 STEP O ~ STEP 10 중 하나로 분류되고, 대응하는 ODD 필드의 노광량은 도 18의 최우측 칼럼에 대응되게 표시된 노광차와 같이 감소한다.In this way, the halation level of a given EVEN field is classified into one of STEP O to STEP 10, and the exposure amount of the corresponding ODD field is reduced as the exposure difference indicated corresponding to the rightmost column of FIG.

상술한 바와 같이, 본 발명은 헐레이션의 레벨에 따른 이중 노광제어를 수행하여, 야간과 같이 어두운 환경하에 접근하는 자동차의 헤드라이트와 같이 강한 광원이 있어도, 헐레이션을 일으키지 않고, 어두운 부분을 보다 밝고, 과도하게 밝은부분을 보다 어둡게 하여 보여지도록 할 수 있다.As described above, the present invention performs double exposure control according to the level of halation, so that even if there is a strong light source such as a headlight of a car approaching under a dark environment such as at night, no halation occurs, Bright, excessively bright parts can be made darker so that they can be seen.

실제로는, 화상 사이의 휘도 변화에 기인하여 자동차 운전자에게 발생하는 위화감을 최소화할 필요가 있다. 이를 위하여 도 19에 도시된 바와 같이, 강한 빛을 받았을 때는, 그에 따른 이중 노광제어를 신속하게 수행하고, 빛이 약해져 갈 때에는, ODD 필드를 서서히 더 밝게 하도록 한다.In practice, it is necessary to minimize the discomfort caused to the motor vehicle driver due to the change in luminance between images. For this purpose, as shown in FIG. 19, when strong light is received, the double exposure control accordingly is quickly performed, and when the light is weakened, the ODD field is gradually made brighter.

예를 들면, 자동차(1)(도 1)가 모퉁이를 돌아 맞은편 차의 헤드라이트의 강한 빛과 마주쳤을 때, 상기 헐레이션 레벨에 따른 이중 노광제어를 즉시 행하게 한다. 이 경우, 맞은편 차가 지나가면, 상기 헐레이션 레벨은 STEP 0의 범위로 떨어진다. 상기 이중 노출제어가 즉시 STEP 0의 노출범위를 따르도록 하면, 자동차(1)의 운전자에게 제공되는 화상의 헐레이션 레벨이 급격하게 변하여 운전자에게 위화감을 초래할 우려가 있다.For example, when the automobile 1 (FIG. 1) turns around a corner and encounters the strong light of the headlight of the vehicle opposite, it makes the double exposure control according to the halation level immediately. In this case, when the opposite difference passes, the halation level falls to the range of STEP 0. If the double exposure control immediately follows the exposure range of STEP 0, there is a fear that the halation level of the image provided to the driver of the vehicle 1 changes abruptly, causing discomfort to the driver.

이를 피하기 위하여, CCD카메라(5)(도 1)에 입사하는 빛이 약해져 갈 때에는, 서서히 ODD 필드측의 영상을 밝게 하여 위화감을 최소화, 제거 또는 억제하도 록 하였다.In order to avoid this, when the light incident on the CCD camera 5 (Fig. 1) is weakened, the image on the ODD field side is gradually brightened to minimize, eliminate or suppress discomfort.

어떤 일례를 설명한다. 자동차(1)(도 1)가 코너를 돌았을 때, 맞은편 차가 존재하여 갑자기 그 자동차 헤드라이트의 헐레이션 강도가 도 18의 STEP 6의 범위가 된다. 상기 헐레이션 레벨이 EVEN 필드의 적어도 2프레임 동안 계속되었을 때, STEP 6의 헐레이션 레벨에 대하여 설정된 노광차(-12dB)에 따라 ODD 필드측의 노광량을 즉시 제어한다. 맞은편 차가 지나가면 상기 헐레이션은 약해진다. STEP 6을 밑도는 헐레이션 레벨이 EVEN 필드의 적어도 3 프레임 동안 계속되었을 때, 상기 ODD 필드에 대한 노광량은 STEP 5의 헐레이션 범위에 대하여 설정된 노광차(-10dB)에 따라 제어된다. 이후, STEP 5를 밑도는 헐레이션 레벨이 EVEN 필드의 적어도 3 프레임 동안 계속되었을 때, 상기 ODD 필드에 대한 노광량은 STEP 4의 헐레이션 범위에 대하여 설정된 노광차(-8dB)에 따라 제어된다. 이와 같이, ODD 필드에 대한 노광량을 STEP 0의 헐레이션 범위까지 서서히 변화시켜 ODD 필드측의 영상을 서서히 밝게 한다. 따라서, 자동차(1)의 운전자는 위화감을 느끼지 않을 수 있다.An example is explained. When the vehicle 1 (Fig. 1) turns a corner, there exists a vehicle opposite, and suddenly the halt intensity of the headlight of the vehicle falls within the range of STEP 6 in Fig. 18. When the halation level is continued for at least two frames of the EVEN field, the exposure amount on the ODD field side is immediately controlled in accordance with the exposure difference (-12 dB) set for the halation level in STEP 6. The halation is weakened when the opposite car passes. When the halation level below STEP 6 has been continued for at least three frames of the EVEN field, the exposure amount for the ODD field is controlled according to the exposure difference (-10 dB) set for the halation range of STEP 5. Then, when the halation level below STEP 5 continues for at least three frames of the EVEN field, the exposure amount for the ODD field is controlled according to the exposure difference (-8 dB) set for the halation range of STEP 4. In this way, the exposure amount for the ODD field is gradually changed to the halation range of STEP 0 to gradually lighten the image on the ODD field side. Therefore, the driver of the vehicle 1 may not feel discomfort.

이런 식으로, 본 발명의 일실시형태에 따른 촬상시스템은, 직접광과 반사광에 따른 노광을 바꾸도록 제어할 수 있다. 자동차(1)가 헤드라이트 등의 강한 빛을 직접 받았을 경우에도, 상기 촬상시스템은 중심부의 흰색 포화영역과 완만하게 어두어져 가는 주위를 포함하는 강한 빛의 헐레이션을 제거 또는 억제할 수 있다. 따라서, 상기 헐레이션 주위에 보행자 또는 장애물이 있다 하더라도, 본 발명에 따른 촬상시스템은 그 보행자 또는 장애물을 도 20에 나타난 바와 같이 명확하게 파악할 수 있다.In this way, the imaging system according to one embodiment of the present invention can be controlled to switch the exposure according to the direct light and the reflected light. Even when the automobile 1 is directly subjected to strong light such as a headlight, the imaging system can remove or suppress the halo of strong light including a white saturation region of the center portion and a dimly dark surrounding. Therefore, even if there is a pedestrian or obstacle around the halation, the imaging system according to the present invention can clearly grasp the pedestrian or obstacle as shown in FIG.

자동차(1)(도 1)의 헤드라이트가 예컨대, 간판을 비추었을 때, 상기 간판으로부터 반사되는 반사광은 도 21에 도시된 바와 같이, 자동차(1)에 이를 수 있다. 이 경우, 단지 반사물(간판) 자체는 하얗게 포화된 영상이 되지만, 그 주변에는 거의 헐레이션이 발생하지 않는다. 즉, 상기 반사물의 휘도 곡선은 피크의 각 에지로부터 급격하게 저하한다(도 7) 따라서, 상기 반사물의 근방의 보행자 또는 장애물을 명확하게 영상으로서 파악할 수 있다. 이 경우, EVEN 필드와 ODD 필드 사이의 노광량을 바꿀 필요가 없다. 오히려 야간에 피사체를 명확하게 파악하기 위하여, ODD 필드와 EVEN 필드에 대해서, 충분한 노광량을 확보할 필요가 있다. When the headlights of the automobile 1 (FIG. 1) are illuminated, for example, with a signage, the reflected light reflected from the signage can reach the car 1, as shown in FIG. 21. In this case, only the reflector (signboard) itself becomes a white saturated image, but hardly halation occurs around it. In other words, the luminance curve of the reflector drops sharply from each edge of the peak (Fig. 7). Thus, the pedestrian or obstacle in the vicinity of the reflector can be clearly identified as an image. In this case, it is not necessary to change the exposure amount between the EVEN field and the ODD field. On the contrary, in order to clearly grasp the subject at night, it is necessary to secure a sufficient exposure amount for the ODD field and the EVEN field.

이상, 본 발명 실시형태의 촬상시스템에 의하면, 맞은편 차의 헤드라이트와 같은 강한 강원에 의하여 야기되는 헐레이션을 감소할 수 있고, 헐레이션 주위에 있을 수 있는 장애물과 보행자를 명확하게 비출 수 있다. 광고판, 간판, 도로 표지 등으로부터의 반사에 대하여, 상기 실시형태는 충분한 노광을 유지하여 밝은 영상을 제공할 수 있다.As described above, according to the imaging system of the embodiment of the present invention, it is possible to reduce halation caused by strong sources such as headlights of opposite cars, and to clearly project obstacles and pedestrians that may be around the halation. . With respect to reflections from billboards, signboards, road signs, etc., the above embodiments can maintain a sufficient exposure to provide bright images.

본 실시형태에 따른 상기 화상처리유닛(7)은, 상기 EVEN 필드의 화상을 고휘도 흰색 블록, 중휘도 회색 블록, 저휘도 검은색 블록으로 나누고, 상기 EVEN 필드의 흰색 블록의 그룹 주위의 회색 블록의 수에 따라 ODD 필드의 노광량을 제어한다.The image processing unit 7 according to the present embodiment divides an image of the EVEN field into a high luminance white block, a medium luminance gray block, and a low luminance black block, and divides the gray block around a group of white blocks of the EVEN field. The exposure amount of the ODD field is controlled according to the number.

EVEN 필드의 흰색 블록 그룹 주위 회색 블록의 수에 기초하여, 상기 실시형태는 흰색 블록 그룹의 헐레이션 레벨을 쉽게 산정할 수 있고, 상기 헐레이션 레벨에 따라, 주기적으로 출력되는 ODD 필드의 노광량을 적절하게 제어한다.Based on the number of gray blocks around the white block group of the EVEN field, the above embodiment can easily estimate the halation level of the white block group, and according to the halation level, it is appropriate to suit the exposure amount of the periodically output ODD field. Control.

상기 화상처리유닛(7)는, 상기 화상의 EVEN 필드를 복수의 블록으로 나누어 각 블록의 휘도 평균치를 산출하고, 두 개의 휘도 역치를 사용하여 상기 블록들을 흰색, 회색, 검은색 블록으로 분류한다.The image processing unit 7 divides the EVEN field of the image into a plurality of blocks to calculate the luminance average value of each block, and classifies the blocks into white, gray, and black blocks using two luminance thresholds.

이 기술은 각 화소당 휘도를 조사(examine)하여 EVEN 필드를 블록으로 나누는 것보다 더 신속한 처리를 할 수 있다.This technique allows for faster processing than exposing the luminance per pixel to divide the EVEN field into blocks.

상기 화상처리유닛(7)은, EVEN 필드를 복수의 블록으로 나누고, 두 개의 역치를 사용하여 각 블록의 화소들을 흰색, 회색, 검은색 화소로 분류하며, 흰색, 회색, 검은색 화소의 수 중 최대수를 선택하여 그 블록의 색으로 한다.The image processing unit 7 divides the EVEN field into a plurality of blocks, classifies the pixels of each block into white, gray, and black pixels using two thresholds, and counts the number of white, gray, and black pixels. Select the maximum number to be the color of the block.

이 기술은 화소단위로 화소를 처리하므로, 정확한 결과를 얻을 수 있다.This technique processes pixels on a pixel-by-pixel basis, so that accurate results can be obtained.

상기 화상처리유닛(7)은, EVEN 필드의 흰색 블록 그룹의 주위의 회색 블록의 수의 최대수에 따라 ODD 필드의 화상 신호축적시간을 제어할 수 있다.The image processing unit 7 can control the image signal accumulation time of the ODD field according to the maximum number of gray blocks around the white block group of the EVEN field.

따라서, 헐레이션을 쉽게 특정할 수 있어 헐레이션에 신속하게 대처할 수 있다.Therefore, the halation can be easily specified, and the halation can be coped with quickly.

상기 화상처리유닛(7)은, 흰색 블록 그룹 내의 흰색 블록의 수와, 사익 흰색 블록 그룹 주위의 회색 블록의 수 및 EVEN 필드의 흰색 블록 그룹에 상응하는 회색 블록의 표준 블록수에 따라 각 ODD 필드의 화상 신호축적시간을 제어할 수 있다.The image processing unit 7 each ODD field according to the number of white blocks in the white block group, the number of gray blocks around the interest white block group, and the standard block number of gray blocks corresponding to the white block group of the EVEN field. The image signal accumulation time can be controlled.

따라서, 헐레이션 강도를 정확하게 특정할 수 있어, 헐레이션에 적절하게 대처할 수 있다.Therefore, the intensity of halation can be specified accurately, and the halation can be appropriately coped with.

상기 화상처리유닛(7)은, 상기 화상의 EVEN 필드 내의 흰색 블록을 특정하고, 그 후 상기 흰색 블록 주위의 회색 블록을 찾아낸다. 다른 흰색 블록이 발견되 는 경우, 상기 화상처리유닛(7)은 이를 선행하는 흰색 블록과 합친다.The image processing unit 7 specifies a white block in the EVEN field of the image, and then finds a gray block around the white block. If another white block is found, the image processing unit 7 merges it with the preceding white block.

따라서, 흰색 블록의 그룹을 정확하고 신속하게 추출하여 흰색 블록 그룹에 관련된 헐레이션을 제어할 수 있다.Therefore, the group of white blocks can be extracted accurately and quickly to control the halation associated with the white block group.

본 실시형태에 따른 촬상시스템은, 자동차에 장착되는 상기 IR램프(3), CCD카메라(5), 및 화상처리유닛(7)을 포함한다. 상기 IR램프(3)는, 상기 자동차의 전방에 적외광을 조사하고, 상기 CCD카메라(5)는 상기 자동차의 전방을 촬상할 수 있다.The imaging system according to the present embodiment includes the IR lamp 3, the CCD camera 5, and the image processing unit 7 mounted on an automobile. The IR lamp 3 irradiates infrared light to the front of the vehicle, and the CCD camera 5 can capture the front of the vehicle.

본 실시형태에 따른 촬상시스템은, 고휘도가 점차 저휘도로 변하는 헤드라이트 주위의 영역을 제거 또는 억제함으로써, 맞은편 차의 헤드라이트와 같은 강한 광원에 의해 야기되는 헐레이션을 저감할 수 있다. 따라서, 상기 헐레이션 부근에 보행자 또는 장애물이 있어도, 상기 촬상시스템은 이의 화상을 명확하게 파악할 수 있다.The imaging system according to the present embodiment can reduce halation caused by a strong light source such as headlights of opposite cars by removing or suppressing the area around the headlights in which the high brightness gradually changes to the low brightness. Therefore, even if there is a pedestrian or obstacle in the vicinity of the halation, the imaging system can clearly grasp its image.

EVEN 필드와 ODD 필드 사이의 관계는 반대로 설정될 수 있다. 즉, ODD 필드의 헐레이션 강도를 구하여, 그 헐레이션 강도에 따라서, ODD 필드와 EVEN 필드 사이의 노광차를 구하여, EVEN 필드에서의 노광을 억제하는 구성으로 할 수도 있다.The relationship between the EVEN field and the ODD field may be set in reverse. In other words, it is possible to obtain a halation intensity of the ODD field, to obtain an exposure difference between the ODD field and the EVEN field according to the halation intensity, and to suppress exposure in the EVEN field.

상기 DSP(13)는 상기 ODD 필드 및 EVEN 필드의 전하를 각 화소당 또는 화소의 그룹별로 읽을 수 있다.The DSP 13 may read charges of the ODD field and the EVEN field for each pixel or for each group of pixels.

상기 실시형태에서는, 출력화상을 헤드업 디스플레이(9) 상에 표시한다. 그 대신에, 상기 화상을 차 실내 등에 구비된 모니터상에 표시하도록 구성할 수도 있다. 또한, 본 실시형태에서는, IR램프(3)로 자동차의 주행방향 전방을 조사하도록 했지만, 그 대신 후방 혹은 측방 등을 조사하여, CCD카메라(5)로 자동차의 후방 혹은 측방 등을 촬상하는 구성으로 할 수도 있다.In the above embodiment, the output image is displayed on the head-up display 9. Instead, the image may be configured to be displayed on a monitor provided in a car interior or the like. In the present embodiment, the IR lamp 3 is used to irradiate the front of the vehicle in the driving direction, but instead the rear or the side is irradiated, and the CCD camera 5 captures the rear or the side of the vehicle. You may.

상기 실시형태의 촬상시스템은, 자동차에 한정하지 않고 이륜차, 선박 등에 적용될 수 있다. 상기 촬상시스템은 교통수단으로부터 독립한(stand-alone) 촬상시스템으로서 구성할 수도 있다.The imaging system of the above embodiment can be applied to two-wheeled vehicles, ships, and the like, without being limited to automobiles. The imaging system may be configured as a stand-alone imaging system.

이상 설명한 바와 같이, 본 발명에 관한 촬상시스템은, 자동차의 야간주행중에, 자동차 전방에 적외광을 조사하고, 차량에 설치된 CCD카메라 등으로 차량의 전방를 촬상하여, 그 차량의 전방의 상태를 화상으로 파악할 수 있다.As described above, the imaging system according to the present invention irradiates infrared light to the front of the vehicle during the night driving of the vehicle, captures the front of the vehicle with a CCD camera or the like installed in the vehicle, and displays the state of the front of the vehicle as an image. I can figure it out.

Claims (8)

적외광을 조사(照射)하기 위한 적외광 조사수단과,Infrared light irradiation means for irradiating infrared light, 상기 적외광 조사수단에 의해 조사된 장소를 촬상(撮像)하고 상기 촬상된 화상을 전기신호로 변환하는 촬상수단과,Imaging means for imaging a place irradiated by the infrared light irradiation means and converting the captured image into an electrical signal; 상기 촬상수단의 신호축적시간을 주기적으로(periodically) 변화시키고 노광량(exposure value)이 다른 화상을 연속하여 주기적으로 출력하도록 구성된 화상처리유닛을 구비하고,And an image processing unit configured to periodically change a signal accumulation time of the imaging means periodically and periodically output images having different exposure values, 상기 화상처리유닛은, 상기 주기적으로 출력되는 화상의 제1 화상(first image)으로부터 중휘도 영역(medium-brightness area)으로 둘러싸인 고휘도 블록 (high-brightness block)을 추출하고, 상기 중휘도 영역의 정도(degree)에 따라서, 촬상되는 제2 화상의 신호축적시간을 제어하는 것을 특징으로 하는 촬상시스템.The image processing unit extracts a high-brightness block surrounded by a medium-brightness area from a first image of the periodically output image, and the degree of the medium luminance area is extracted. and the signal accumulation time of the second image to be imaged is controlled in accordance with the degree. 제 1 항에 있어서, The method of claim 1, 상기 화상처리유닛은, 상기 제1 화상을 고휘도 블록, 중휘도 블록, 저휘도 블록으로 나누고, 고휘도 블록의 그룹 주위의 중휘도 블록의 수에 따라, 상기 제2 화상의 화상 신호축적시간을 제어하는 것을 특징으로 하는 촬상시스템. The image processing unit divides the first image into a high luminance block, a medium luminance block, and a low luminance block, and controls the image signal accumulation time of the second image according to the number of the medium luminance blocks around the group of the high luminance blocks. An imaging system, characterized in that. 제 2 항에 있어서, The method of claim 2, 상기 화상처리유닛은, 상기 제1 화상을 복수의 블록으로 나누어, 각 블록의 휘도 평균치를 구하고, 상기 블록들의 휘도 평균치와 두 개의 역치(threshold)에 따라, 상기 블록을 고휘도 블록, 중휘도 블록, 및 저휘도 블록으로 분류하는 것을 특징으로 하는 촬상시스템.The image processing unit divides the first image into a plurality of blocks, obtains an average luminance value of each block, and divides the block into a high luminance block, a medium luminance block, and a block according to the luminance average value of the blocks and two thresholds. And a low luminance block. 제 2 항에 있어서, The method of claim 2, 상기 화상처리유닛은, 상기 제1 화상을 복수의 블록으로 나누고, 각 블록 내의 화소(pixel)를 두 개의 역치에 의해 고휘도 화소, 중휘도 화소, 저휘도 화소로 분류하여, 상기 각 블록 내의 고휘도 화소, 중휘도 화소 및 저휘도 화소의 수 중 최대수를 찾아내어 상기 최대수를 가지는 화소의 휘도 레벨을 그 블록의 휘도 레벨로 결정하며, 상기 결정된 블록의 휘도 레벨에 따라, 상기 블록들을 고휘도 블록, 중휘도 블록 및 저휘도 블록으로 분류하는 것을 특징으로 하는 촬상시스템. The image processing unit divides the first image into a plurality of blocks, classifies pixels in each block into high luminance pixels, medium luminance pixels, and low luminance pixels by two thresholds, and then stores the high luminance pixels in each block. Finding a maximum number of the medium and low luminance pixels and determining a luminance level of the pixel having the maximum number as the luminance level of the block, and determining the blocks according to the luminance level of the determined block. An imaging system characterized by being classified into a medium luminance block and a low luminance block. 제 2 항 내지 제 4 항 중의 어느 한 항에 있어서, The method according to any one of claims 2 to 4, 상기 화상처리유닛은, 상기 각 고휘도 블록 주위의 중휘도 블록의 수를 찾아내고, 상기 주위의 중휘도 블록의 수 중 최대수를 찾아내어 그 최대수에 따라 상기 제2 화상의 화상 신호축적시간을 제어하는 것을 특징으로 하는 촬상시스템.The image processing unit finds the number of the medium luminance blocks around each of the high luminance blocks, finds the maximum number of the neighboring medium luminance blocks, and sets the image signal accumulation time of the second image according to the maximum number. An imaging system, characterized in that for controlling. 제 2 항 내지 제 4 항 중의 어느 한 항에 있어서, The method according to any one of claims 2 to 4, 상기 화상처리유닛은, 그룹을 형성하는 고휘도 블록의 수와, 상기 그룹 주위의 중휘도 블록의 수 및 상기 그룹에 관련된 중휘도 블록의 표준수(reference number)를 찾아내고, 이 수들에 따라 상기 제2 화상의 화상 신호축적시간을 제어하는 것을 특징으로 하는 촬상시스템.The image processing unit finds the number of high luminance blocks forming a group, the number of heavy luminance blocks around the group, and a reference number of the heavy luminance blocks associated with the group, according to the numbers. An image pickup system, characterized by controlling the image signal accumulation time of two images. 제 5 항 또는 제 6 항에 있어서,The method according to claim 5 or 6, 상기 화상처리유닛은, 고휘도 블록을 특정하여(identify) 중휘도 블록과 고휘도 블록에 대하여 고휘도 블록의 바깥둘레(periphery)를 찾아내며, 상기 찾아진 고휘도 블록들을 고휘도 블록으로 그룹 짓는 것을 특징으로 하는 촬상시스템.The image processing unit identifies the high brightness block, finds the outer periphery of the high brightness block with respect to the medium brightness block, and the high brightness block, and groups the found high brightness blocks into high brightness blocks. system. 제 1 항 내지 제 7 항 중의 어느 한 항에 있어서, 상기 적외광 조사수단, 촬상수단, 및 화상처리유닛은, 자동차에 구비되고,8. The motor vehicle according to any one of claims 1 to 7, wherein the infrared light irradiation means, the image pickup means, and the image processing unit are provided in an automobile, 상기 적외광 조사수단은, 상기 자동차의 바깥쪽으로 적외광을 조사하고,The infrared light irradiation means irradiates infrared light to the outside of the vehicle, 상기 촬상수단은, 상기 자동차의 바깥쪽을 촬상하는 것을 특징으로 하는 촬상시스템.And the imaging means picks up the outside of the vehicle.
KR1020067012699A 2006-06-23 2003-12-25 Imaging system KR20070005553A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020067012699A KR20070005553A (en) 2006-06-23 2003-12-25 Imaging system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020067012699A KR20070005553A (en) 2006-06-23 2003-12-25 Imaging system

Publications (1)

Publication Number Publication Date
KR20070005553A true KR20070005553A (en) 2007-01-10

Family

ID=37871127

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067012699A KR20070005553A (en) 2006-06-23 2003-12-25 Imaging system

Country Status (1)

Country Link
KR (1) KR20070005553A (en)

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9521289B2 (en) 2011-06-10 2016-12-13 Flir Systems, Inc. Line based image processing and flexible memory system
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9706139B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Low power and small form factor infrared imaging
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US9723227B2 (en) 2011-06-10 2017-08-01 Flir Systems, Inc. Non-uniformity correction techniques for infrared imaging devices
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9807319B2 (en) 2009-06-03 2017-10-31 Flir Systems, Inc. Wearable imaging devices, systems, and methods
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor

Cited By (49)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9998697B2 (en) 2009-03-02 2018-06-12 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9635285B2 (en) 2009-03-02 2017-04-25 Flir Systems, Inc. Infrared imaging enhancement with fusion
US10757308B2 (en) 2009-03-02 2020-08-25 Flir Systems, Inc. Techniques for device attachment with dual band imaging sensor
US9208542B2 (en) 2009-03-02 2015-12-08 Flir Systems, Inc. Pixel-wise noise reduction in thermal images
US9235876B2 (en) 2009-03-02 2016-01-12 Flir Systems, Inc. Row and column noise reduction in thermal images
US10244190B2 (en) 2009-03-02 2019-03-26 Flir Systems, Inc. Compact multi-spectrum imaging with fusion
US10033944B2 (en) 2009-03-02 2018-07-24 Flir Systems, Inc. Time spaced infrared image enhancement
US9986175B2 (en) 2009-03-02 2018-05-29 Flir Systems, Inc. Device attachment with infrared imaging sensor
US9451183B2 (en) 2009-03-02 2016-09-20 Flir Systems, Inc. Time spaced infrared image enhancement
US9948872B2 (en) 2009-03-02 2018-04-17 Flir Systems, Inc. Monitor and control systems and methods for occupant safety and energy efficiency of structures
US9843742B2 (en) 2009-03-02 2017-12-12 Flir Systems, Inc. Thermal image frame capture using de-aligned sensor array
US9517679B2 (en) 2009-03-02 2016-12-13 Flir Systems, Inc. Systems and methods for monitoring vehicle occupants
US9756264B2 (en) 2009-03-02 2017-09-05 Flir Systems, Inc. Anomalous pixel detection
US9292909B2 (en) 2009-06-03 2016-03-22 Flir Systems, Inc. Selective image correction for infrared imaging devices
US9716843B2 (en) 2009-06-03 2017-07-25 Flir Systems, Inc. Measurement device for electrical installations and related methods
US9674458B2 (en) 2009-06-03 2017-06-06 Flir Systems, Inc. Smart surveillance camera systems and methods
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US9807319B2 (en) 2009-06-03 2017-10-31 Flir Systems, Inc. Wearable imaging devices, systems, and methods
US9843743B2 (en) 2009-06-03 2017-12-12 Flir Systems, Inc. Infant monitoring systems and methods using thermal imaging
US9819880B2 (en) 2009-06-03 2017-11-14 Flir Systems, Inc. Systems and methods of suppressing sky regions in images
US9756262B2 (en) 2009-06-03 2017-09-05 Flir Systems, Inc. Systems and methods for monitoring power systems
US9706138B2 (en) 2010-04-23 2017-07-11 Flir Systems, Inc. Hybrid infrared sensor array having heterogeneous infrared sensors
US9207708B2 (en) 2010-04-23 2015-12-08 Flir Systems, Inc. Abnormal clock rate detection in imaging sensor arrays
US9848134B2 (en) 2010-04-23 2017-12-19 Flir Systems, Inc. Infrared imager with integrated metal layers
US9723228B2 (en) 2011-06-10 2017-08-01 Flir Systems, Inc. Infrared camera system architectures
US9716844B2 (en) 2011-06-10 2017-07-25 Flir Systems, Inc. Low power and small form factor infrared imaging
US10841508B2 (en) 2011-06-10 2020-11-17 Flir Systems, Inc. Electrical cabinet infrared monitor systems and methods
US9538038B2 (en) 2011-06-10 2017-01-03 Flir Systems, Inc. Flexible memory systems and methods
US9723227B2 (en) 2011-06-10 2017-08-01 Flir Systems, Inc. Non-uniformity correction techniques for infrared imaging devices
US9509924B2 (en) 2011-06-10 2016-11-29 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
US9521289B2 (en) 2011-06-10 2016-12-13 Flir Systems, Inc. Line based image processing and flexible memory system
US9900526B2 (en) 2011-06-10 2018-02-20 Flir Systems, Inc. Techniques to compensate for calibration drifts in infrared imaging devices
US9473681B2 (en) 2011-06-10 2016-10-18 Flir Systems, Inc. Infrared camera system housing with metalized surface
US9961277B2 (en) 2011-06-10 2018-05-01 Flir Systems, Inc. Infrared focal plane array heat spreaders
US9706139B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Low power and small form factor infrared imaging
US10389953B2 (en) 2011-06-10 2019-08-20 Flir Systems, Inc. Infrared imaging device having a shutter
US9058653B1 (en) 2011-06-10 2015-06-16 Flir Systems, Inc. Alignment of visible light sources based on thermal images
US9143703B2 (en) 2011-06-10 2015-09-22 Flir Systems, Inc. Infrared camera calibration techniques
US10051210B2 (en) 2011-06-10 2018-08-14 Flir Systems, Inc. Infrared detector array with selectable pixel binning systems and methods
US10079982B2 (en) 2011-06-10 2018-09-18 Flir Systems, Inc. Determination of an absolute radiometric value using blocked infrared sensors
US9706137B2 (en) 2011-06-10 2017-07-11 Flir Systems, Inc. Electrical cabinet infrared monitor
US10169666B2 (en) 2011-06-10 2019-01-01 Flir Systems, Inc. Image-assisted remote control vehicle systems and methods
US10230910B2 (en) 2011-06-10 2019-03-12 Flir Systems, Inc. Infrared camera system architectures
US9235023B2 (en) 2011-06-10 2016-01-12 Flir Systems, Inc. Variable lens sleeve spacer
US10250822B2 (en) 2011-06-10 2019-04-02 Flir Systems, Inc. Wearable apparatus with integrated infrared imaging module
USD765081S1 (en) 2012-05-25 2016-08-30 Flir Systems, Inc. Mobile communications device attachment with camera
US9811884B2 (en) 2012-07-16 2017-11-07 Flir Systems, Inc. Methods and systems for suppressing atmospheric turbulence in images
US9973692B2 (en) 2013-10-03 2018-05-15 Flir Systems, Inc. Situational awareness by compressed display of panoramic views
US11297264B2 (en) 2014-01-05 2022-04-05 Teledyne Fur, Llc Device attachment with dual band imaging sensor

Similar Documents

Publication Publication Date Title
KR20070005553A (en) Imaging system
JP6851985B2 (en) Vehicle and vehicle image acquisition method equipped with vehicle image acquisition device, control device, vehicle image acquisition device or control device
JP7296350B2 (en) Video stream image processing system and method for flicker correction of amplitude modulated light
JP5437855B2 (en) Obstacle detection device, obstacle detection system including the same, and obstacle detection method
JP4985394B2 (en) Image processing apparatus and method, program, and recording medium
JP3970903B2 (en) Imaging system
US20060215882A1 (en) Image processing apparatus and method, recording medium, and program
JP5629521B2 (en) Obstacle detection system and method, obstacle detection device
JPWO2006109398A1 (en) Image processing apparatus and method, program, and recording medium
JP5071198B2 (en) Signal recognition device, signal recognition method, and signal recognition program
KR20050065421A (en) Imaging system
JP4798945B2 (en) Imaging device
JP3793487B2 (en) Imaging system
JP2004048455A (en) Image pickup system
CN110536814B (en) Camera device and method for detecting a region of the surroundings of a vehicle in response to the surroundings
CN113126252B (en) Low-light-level imaging system
JP2009257982A (en) Device for generating distance image data for vehicle
JP4782491B2 (en) Imaging device
US20050258370A1 (en) Imaging system
JP2010071704A (en) Device and method for generating distance image data for vehicle
JP2970168B2 (en) Vehicle detection device
JP2009258015A (en) Apparatus and method for generating range image data for vehicle
CN109788211B (en) Captured image display system, electronic mirror system, and captured image display method
JP5161751B2 (en) Imaging apparatus and imaging system
JP3385641B2 (en) Floodlight imaging device

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid