KR20070099238A - Image sensor for expanding wide dynamic range and output bayer-pattern image - Google Patents

Image sensor for expanding wide dynamic range and output bayer-pattern image Download PDF

Info

Publication number
KR20070099238A
KR20070099238A KR1020060030388A KR20060030388A KR20070099238A KR 20070099238 A KR20070099238 A KR 20070099238A KR 1020060030388 A KR1020060030388 A KR 1020060030388A KR 20060030388 A KR20060030388 A KR 20060030388A KR 20070099238 A KR20070099238 A KR 20070099238A
Authority
KR
South Korea
Prior art keywords
pixel
image
bayer
component
unit
Prior art date
Application number
KR1020060030388A
Other languages
Korean (ko)
Other versions
KR100810155B1 (en
Inventor
전정범
남승준
Original Assignee
엠텍비젼 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엠텍비젼 주식회사 filed Critical 엠텍비젼 주식회사
Priority to KR1020060030388A priority Critical patent/KR100810155B1/en
Publication of KR20070099238A publication Critical patent/KR20070099238A/en
Application granted granted Critical
Publication of KR100810155B1 publication Critical patent/KR100810155B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

An image sensor for broadening a dynamic range and outputting a bayer image is provided to synthesize two images whose exposure time differs, broaden the dynamic range, and output image data of a different bayer pattern to an existing interface. A pixel unit(410) converts an optical signal of an object inputted through a lens into an electric signal, and outputs bayer pattern data. A high-exposure interpolation unit(422) receives high-exposure bayer pattern data from the pixel unit(410), and converts the received high-exposure bayer pattern data into the first RGB image. A low-exposure interpolation unit(425) receives low-exposure bayer pattern data from the pixel unit(410), and converts the received low-exposure bayer pattern data into the second RGB image. An image synthesizing unit(430) synthesizes the first RGB image with the second RGB image. An RGB-bayer converting unit(440) converts the synthesized image into bayer data corresponding to a predetermined bayer pattern, and outputs the converted bayer data.

Description

다이내믹 레인지 넓힌 후 베이어 이미지를 출력할 수 있는 이미지 센서{Image sensor for expanding wide dynamic range and output Bayer-pattern image}Image sensor for expanding wide dynamic range and output Bayer-pattern image}

도 1 및 도 2는 각각 빛에 대한 노출이 상이한 RGB 이미지.1 and 2 each show an RGB image with different exposure to light.

도 3은 도 1 및 도 2의 RGB 이미지를 WDR을 적용한 이미지. 3 is an image to which the WDR is applied to the RGB image of FIGS. 1 and 2.

도 4는 본 발명의 바람직한 일 실시예에 따른 이미지 센서의 블록도.4 is a block diagram of an image sensor according to an exemplary embodiment of the present invention.

도 5는 본 발명의 바람직한 일 실시예에 따른 이미지 센서의 CFA를 통해 출력되는 베이어 이미지의 색상 정보를 예시한 도면.5 is a diagram illustrating color information of a Bayer image output through the CFA of the image sensor according to an embodiment of the present invention.

도 6은 본 발명의 바람직한 일 실시예에 따른 이미지 센서의 칼라 보간부를 통해 RGB 이미지에 상응하여 보간된 색상 정보를 예시한 도면.6 is a diagram illustrating color information interpolated corresponding to an RGB image through a color interpolation unit of an image sensor according to an exemplary embodiment of the present invention.

도 7은 본 발명의 바람직한 일 실시예에 따른 이미지 센서에 미리 설정된 베이어 형식을 예시한 도면.7 is a diagram illustrating a Bayer format preset in an image sensor according to an exemplary embodiment of the present invention.

도 8은 본 발명의 바람직한 일 실시예에 따른 WDR에서의 이미지 데이터 합성 연산 수행을 위해 필요한 컬러 게인 곡선을 예시한 도면.8 is a diagram illustrating a color gain curve required for performing an image data synthesis operation in a WDR according to an embodiment of the present invention.

도 9는 본 발명의 바람직한 일 실시예에 따른 이미지 센서에서 WDR을 수행한 후 베이어 이미지 데이터를 출력하는 방법을 나타낸 순서도.9 is a flowchart illustrating a method of outputting Bayer image data after performing WDR in an image sensor according to an exemplary embodiment of the present invention.

도 10은 노출 시간이 상이한 RGB 형식의 두 이미지를 합성한 RGB 이미지.10 is an RGB image obtained by combining two images of RGB format having different exposure times.

도 11은 도 10과 같이 합성된 RGB 이미지를 베이어 형식으로 변환한 이미지.FIG. 11 is an image obtained by converting the RGB image synthesized as shown in FIG. 10 to Bayer format.

<도면의 주요 부분에 대한 부호의 설명> <Explanation of symbols for main parts of the drawings>

410 : 픽셀부410 pixels

422 : 고노출 보간부422 high exposure interpolator

425 : 저노출 보간부425 low exposure interpolator

430 : 이미지 합성부430: image synthesis unit

440 : RGB-베이어 변환부440: RGB to Baye converter

본 발명은 이미지 센서에 관한 것으로, 특히 노출 시간이 상이한 두 이미지를 합성하여 다이내믹 레인지를 넓힌 후 베이어 이미지를 출력할 수 있는 이미지 센서에 관한 것이다.The present invention relates to an image sensor, and more particularly, to an image sensor capable of outputting a Bayer image after synthesizing two images having different exposure times to widen a dynamic range.

최근 이미지 센서를 구비한 휴대용 장치(예를 들어, 디지털 카메라, 이동 통신 단말기 등)가 개발되어 판매되고 있다. 이미지 센서는 픽셀(pixel)들 또는 포토사이트(Photosite)들로 불리는 작은 감광 다이오드들의 어레이로서 구성된다. 픽셀들 자체는 보통 광으로부터 컬러를 추출하지 않으며, 넓은 스펙트럼 밴드로부터의 광자들을 전자들로 변환한다. 따라서, 단일 센서를 가지고 컬러 이미지들을 기록하기 위해서 센서는 상이한 픽셀들이 상이한 컬러 조명을 수신하도록 필터링된다. 이러한 타입의 센서는 컬러 필터 어레이 또는 CFA(Color Filter Array)로 알려져 있으며, 각각의 상이한 칼라 필터들이 센서를 가로질러 미리 정의된 패턴으로 배열된다.Recently, portable devices (eg, digital cameras, mobile communication terminals, etc.) equipped with image sensors have been developed and sold. The image sensor is configured as an array of small photosensitive diodes called pixels or photosites. The pixels themselves usually do not extract color from the light and convert photons from the broad spectral band into electrons. Thus, in order to record color images with a single sensor, the sensor is filtered so that different pixels receive different color illumination. Sensors of this type are known as color filter arrays or color filter arrays (CFAs), and each different color filter is arranged in a predefined pattern across the sensor.

이미지 센서의 품질을 나타내는 데 있어, 중요한 판단 기준이 되는 것 중에 하나가 다이내믹 레인지(Dynamic Range)이다. 다이내믹 레인지는 일반적으로 입력 신호를 왜곡하지 않으면서 신호를 처리할 수 있는 최대 범위를 나타낸다. 이미지 센서의 경우에는 다이내믹 레인지가 넓을수록 넓은 범위의 명도 변화에 관계없이 좋은 이미지를 얻을 수 있다. 그러나 기존의 컬러 이미지 센서는 다이내믹 레인지가 좁아서 레드(Red), 그린(Green) 및 블루(Blue) 중 어느 하나 이상의 컬러가 포화상태인 경우 이미지 원래의 색을 잘 표현하지 못하는 단점이 있다. 이러한 다이내믹 레인지가 좁은 단점을 극복하기 위하여 노출 시간이 다른 이미지를 합성하는 방법이 시도되고 있다. 즉, 도 1 내지 도 2와 같이 노출 시간이 다른 각각 상이한 이미지를 도 3과 같이 합성하는 방법이 시도되고 있다. 그러나, 이와 같은 이미지 센서는 RGB 이미지 데이터를 출력함으로 인해 베이어 형식의 이미지 데이터를 입력받는 기존의 영상 처리 소자들과의 인터페이스가 맞지 않는 문제점이 발생하였다.In determining the quality of an image sensor, one of the important criteria is the dynamic range. Dynamic range generally refers to the maximum range that a signal can be processed without distorting the input signal. In the case of an image sensor, the wider the dynamic range, the better the image can be obtained regardless of the wide range of brightness changes. However, the conventional color image sensor has a disadvantage in that the original color of the image may not be represented well when one or more of red, green, and blue colors are saturated due to a narrow dynamic range. In order to overcome the shortcomings of such a dynamic range, a method of synthesizing images having different exposure times has been attempted. That is, a method of synthesizing different images having different exposure times as shown in FIGS. 1 and 2 as shown in FIG. 3 has been attempted. However, such an image sensor has a problem that the interface with the existing image processing devices that receive the Bayer format image data is not matched by outputting the RGB image data.

따라서, 상술한 문제점을 해결하기 위한 본 발명의 목적은 노출 시간이 다른 두 이미지를 합성하여 다이내믹 레인지를 넓힌 후 베이어 형식의 이미지를 출력할 수 있는 이미지 센서를 제공하는 것이다.Accordingly, an object of the present invention is to provide an image sensor capable of outputting a Bayer type image after widening the dynamic range by synthesizing two images having different exposure times.

이외의 본 발명의 목적들은 하기의 실시예에 대한 설명을 통해 쉽게 이해될 수 있을 것이다.Other objects of the present invention will be easily understood through the description of the following examples.

상술한 목적을 달성하기 위하여, 본 발명의 일 측면에 따르면, 동일한 피사체에 노출 시간을 달리하여 획득한 두 이미지 신호를 합성하여 다이내믹 레인지를 넓힌 후 베이어 이미지로 출력할 수 있는 이미지 센서가 제공된다. In order to achieve the above object, according to an aspect of the present invention, there is provided an image sensor capable of synthesizing two image signals obtained by varying the exposure time to the same subject to widen the dynamic range and output as a Bayer image.

본 발명의 바람직한 일 실시예에 따르면, 렌즈를 통해 입력되는 피사체의 광학적 신호를 전기적인 신호로 변환하여 베이어 패턴 데이터를 출력하는 픽셀부; 상기 픽셀부로부터 고노출 베이어 패턴 데이터를 입력받아 제1 RGB 이미지로 변환하는 고노출 보간부; 상기 픽셀부로부터 저노출 베이어 패턴 데이터를 입력받아 제2 RGB 이미지로 변환하는 저노출 보간부; 상기 제1 RGB 이미지 및 상기 제2 RGB 이미지를 합성하는 이미지 합성부; 및 상기 합성된 이미지를 미리 정해진 베이어 형식에 상응하는 베이어 데이터로 변환하여 출력하는 RGB-베이어 변환부를 포함하는 이미지 센서가 제공될 수 있다. According to a preferred embodiment of the present invention, the pixel unit for outputting the Bayer pattern data by converting the optical signal of the subject input through the lens into an electrical signal; A high exposure interpolation unit which receives the high exposure Bayer pattern data from the pixel unit and converts the high exposure Bayer pattern data into a first RGB image; A low exposure interpolation unit receiving low exposure Bayer pattern data from the pixel unit and converting the low exposure Bayer pattern data into a second RGB image; An image synthesizer configured to synthesize the first RGB image and the second RGB image; And an RGB to Bayer converter for converting the synthesized image into Bayer data corresponding to a predetermined Bayer format and outputting the Bayer data.

상기 픽셀부는 소정의 시간동안 광원에 노출되어 생성된 두 종류의 베이어 패턴 데이터를 출력할 수 있다.The pixel unit may output two kinds of Bayer pattern data generated by being exposed to a light source for a predetermined time.

상기 RGB-베이어 변환부는 상기 합성된 이미지의 변환 대상 픽셀이 R 픽셀이면 G성분 및 B 성분을 제거하며, 상기 변환 대상 픽셀이 G 픽셀이면 R 성분 및 B 성분을 제거하고 상기 변환 대상 픽셀이 B 픽셀이면 R 성분 및 G 성분을 제거할 수 있다.The RGB-Bay converter removes a G component and a B component when the pixel to be converted of the synthesized image is an R pixel, and removes an R component and a B component when the pixel to be converted is a G pixel, and the pixel to be converted is a B pixel. The R component and the G component can be removed.

상기 저노출 보간부 및 고노출 보간부는 G 픽셀의 R 성분을 하기 수학식을 이용하여 산출할 수 있다.The low exposure interpolation unit and the high exposure interpolation unit may calculate the R component of the G pixel by using the following equation.

Figure 112006023477687-PAT00001
, 여기서, Kr1, Kr2는 상기 G 픽셀에 인접한 R 픽셀에 인접한 4개의 G 픽셀들의 평균값을 산출한 후 상기 R 픽셀의 값을 감산하여 산출된 값일 수 있다.
Figure 112006023477687-PAT00001
Here, Kr1 and Kr2 may be calculated by calculating an average value of four G pixels adjacent to an R pixel adjacent to the G pixel and subtracting the value of the R pixel.

상기 저노출 보간부 및 상기 고노출 보간부는 상기 G 픽셀의 B 성분을 하기 수학식을 이용하여 산출할 수 있다.The low exposure interpolation unit and the high exposure interpolation unit may calculate the B component of the G pixel by using the following equation.

Figure 112006023477687-PAT00002
, 여기서, Kr1, Kr2는 상기 G 픽셀에 인접한 B 픽셀에 인접한 4개의 G 픽셀들의 평균값을 산출한 후 상기 B 픽셀의 값을 감산하여 산출된 값일 수 있다.
Figure 112006023477687-PAT00002
Here, Kr1 and Kr2 may be calculated by calculating an average value of four G pixels adjacent to the B pixel adjacent to the G pixel and subtracting the value of the B pixel.

상기 저노출 보간부 및 상기 고노출 보간부는 상기 B 픽셀의 G 성분을 하기 수학식을 이용하여 산출할 수 있다.The low exposure interpolation unit and the high exposure interpolation unit may calculate the G component of the B pixel by using the following equation.

Figure 112006023477687-PAT00003
Figure 112006023477687-PAT00003

여기서, B2는 보간 대상 픽셀이며, B1, B3는 B2 픽셀에 가로축으로 인접한 픽셀이고, B1', B3'는 B2 픽셀에 세로축으로 인접한 픽셀이며, B2 픽셀에 인접한 G 픽셀일 수 있다.Here, B2 may be an interpolation target pixel, B1 and B3 may be pixels horizontally adjacent to B2 pixels, B1 'and B3' may be pixels adjacent to B2 pixels vertically, and may be G pixels adjacent to B2 pixels.

상기 저노출 보간부 및 상기 고노출 보간부는 상기 B 픽셀의 상기 R 성분을 하기 수학식을 이용하여 산출할 수 있다.The low exposure interpolation unit and the high exposure interpolation unit may calculate the R component of the B pixel by using the following equation.

Figure 112006023477687-PAT00004
, 여기서, G는 상기 B 픽셀에 상응하여 산출된 G 성분이며, R1, R2, R3, R4는 상기 B 픽셀에 인접한 4개의 R 픽셀들이고, g1, g2, g3, g4는 상기 B픽셀에 인접한 4개의 R 픽셀에 인접한 4개의 G 픽셀들의 평균값일 수 있다.
Figure 112006023477687-PAT00004
Where G is a G component calculated corresponding to the B pixel, and R1, R2, R3, and R4 are four R pixels adjacent to the B pixel, and g1, g2, g3, and g4 are 4 adjacent to the B pixel. It may be an average value of four G pixels adjacent to the R pixels.

이미지 합성부는 하기 수학식을 이용하여 보간 대상 픽셀을 합성할 수 있다.The image synthesizing unit may synthesize the interpolation target pixels using the following equation.

Figure 112006023477687-PAT00005
Figure 112006023477687-PAT00005

여기서, M은 보간 대상 픽셀의 색상 성분 중 최소값이며, r, g, b는 고노출 보간부로부터 입력된 이미지 데이터의 픽셀의 색상 성분값이고,

Figure 112006023477687-PAT00006
,
Figure 112006023477687-PAT00007
,
Figure 112006023477687-PAT00008
는 칼라 게인 곡선에 의해 산출된 칼라 게인값이며, S는 '0' 초과 '1' 미만의 임의의 실수값일 수 있다.Here, M is the minimum value among the color components of the interpolation target pixel, r, g, b are the color component value of the pixel of the image data input from the high exposure interpolation unit,
Figure 112006023477687-PAT00006
,
Figure 112006023477687-PAT00007
,
Figure 112006023477687-PAT00008
Is the color gain value calculated by the color gain curve, and S may be any real value greater than '0' and less than '1'.

이하, 본 발명의 바람직한 실시예를 첨부한 도면들을 참조하여 상세히 설명하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

또한, 이하에서는 첨부 도면을 참조하여 설명함에 있어서 동일하거나 대응하는 구성요소는 도면 부호에 상관없이 동일한 참조번호를 부여하여 설명하기로 한다.In the following description, the same or corresponding elements will be described with the same reference numerals regardless of the reference numerals in the description with reference to the accompanying drawings.

도 4는 본 발명의 바람직한 일 실시예에 따른 이미지 센서의 블록도이며, 도 5는 본 발명의 바람직한 일 실시예에 따른 이미지 센서의 CFA를 통해 출력되는 베이어 이미지의 색상 정보를 예시한 도면이고, 도 6은 본 발명의 바람직한 일 실시예에 따른 이미지 센서의 칼라 보간부를 통해 RGB 이미지에 상응하여 보간된 색상 정보를 예시한 도면이며, 도 7은 본 발명의 바람직한 일 실시예에 따른 이미지 센서에 미리 설정된 베이어 형식을 예시한 도면이고, 도 8은 본 발명의 바람직한 일 실시예에 따른 WDR에서의 이미지 데이터 합성 연산 수행을 위해 필요한 컬러 게인 곡선을 예시한 도면이다. 4 is a block diagram of an image sensor according to an exemplary embodiment of the present invention, and FIG. 5 is a diagram illustrating color information of a Bayer image output through a CFA of an image sensor according to an exemplary embodiment of the present invention. FIG. 6 is a diagram illustrating color information interpolated corresponding to an RGB image through a color interpolation unit of an image sensor according to an exemplary embodiment of the present invention, and FIG. 7 is an image sensor according to an exemplary embodiment of the present invention. FIG. 8 is a diagram illustrating a preset Bayer format, and FIG. 8 is a diagram illustrating a color gain curve required for performing an image data synthesis operation in a WDR according to an exemplary embodiment of the present invention.

도 4를 참조하면, 본 발명의 바람직한 일 실시예에 따른 이미지 센서(400)는 픽셀부(410), 고노출 보간부(422), 저노출 보간부(425), 이미지 합성부(430) 및 RGB-베이어 변환부(440)를 포함하여 구성된다. Referring to FIG. 4, an image sensor 400 according to an exemplary embodiment of the present invention may include a pixel unit 410, a high exposure interpolation unit 422, a low exposure interpolation unit 425, an image synthesis unit 430, and the like. The RGB to Bayer converter 440 is configured.

픽셀부(410)(color filter array)는 렌즈를 통해 입력되는 광학적 피사체의 신호를 전기적인 신호로 변환하여 출력하는 기능을 수행한다. 즉, 픽셀부(410)는 동일한 피사체에 노출 시간을 달리하여 획득한 두 이미지 신호를 칼라 보간부(420)로 전달하는 기능을 수행한다. 픽셀부(410)는 해상도면에서 유리한 베이어(Bayer) 패턴을 사용하며, 각 픽셀마다 하나의 색 정보를 가지는 이미지 데이터가 출력된다. 예를 들어, R 패턴에 해당하는 픽셀에서는 R 성분만을 가지는 이미지 데이터가 출력되고, G 패턴에 해당하는 픽셀에서는 G 성분만을 가지는 이미지 데이터가 출력되며, B 패턴에 해당하는 픽셀에서는 B 성분만을 가지는 이미지 데이터가 출력될 수 있다. 베이어 패턴에 상응하여 각각 하나의 색상 성분만을 가지는 이미지 데이터가 출력된 예가 도 5에 예시되어 있다. 물론, 픽셀부(410)에 의해 출력되는 아날로그 이미지 데이터를 디지털 이미지 데이터로 변환하여 출력하는 A/D 변환부(미도시)가 픽셀부(410)에 연결된다. 즉, A/D 변환부는 픽셀부(410)를 통해 출력된 아날로그 베이어 이미지 데이터를 디지털 베이어 이미지 데이터로 변환하여 고노출 보간부(422) 및 저노출 보간부(425)로 전달한다. The pixel unit 410 (color filter array) performs a function of converting and outputting the signal of the optical object input through the lens into an electrical signal. That is, the pixel unit 410 transmits two image signals acquired by different exposure times to the same subject to the color interpolator 420. The pixel unit 410 uses a Bayer pattern which is advantageous in terms of resolution, and image data having one color information is output for each pixel. For example, image data having only an R component is output from a pixel corresponding to an R pattern, image data having only a G component is output from a pixel corresponding to a G pattern, and an image having only a B component from a pixel corresponding to a B pattern. Data can be output. An example of outputting image data having only one color component in correspondence with a Bayer pattern is illustrated in FIG. 5. Of course, an A / D converter (not shown) that converts analog image data output by the pixel unit 410 into digital image data and outputs the digital image data is connected to the pixel unit 410. That is, the A / D converter converts analog Bayer image data output through the pixel unit 410 into digital Bayer image data and transfers the digital Bayer image data to the high exposure interpolation unit 422 and the low exposure interpolation unit 425.

예를 들어, 픽셀부(410)는 다수의 픽셀부가 배열되어 있으며, 각각의 픽셀부는 하나의 포토 다이오드(photo diode)와 포토 다이오드에 모인 전하를 읽기 위한 MOS 트랜지스터로 이루어진다. 이와 같은 픽셀부(410)는 저장부를 별도로 구비하지 않으므로 연속적으로 이미지를 읽어내기 위해서 컬럼별로 빛에 노출을 시키고 즉시 읽어내는 방법을 사용한다.For example, the pixel unit 410 includes a plurality of pixel units, and each pixel unit includes one photo diode and a MOS transistor for reading charges collected in the photo diode. Since the pixel unit 410 does not have a separate storage unit, in order to continuously read an image, light is exposed to each column and immediately read.

칼라 보간부(420)는 고노출 보간부(422) 및 저노출 보간부(425)를 포함하며, 픽셀부(410)로부터 노출 시간을 달리하여 획득된 상이한 두 베이어 패턴 데이터를 입력받아 미리 정해진 방법에 의해 RGB 이미지로 변환하여 이미지 합성부(430)로 출력한다. The color interpolation unit 420 includes a high exposure interpolation unit 422 and a low exposure interpolation unit 425. The color interpolation unit 420 receives two different Bayer pattern data obtained by different exposure times from the pixel unit 410. Converts the image into an RGB image and outputs the image to the image combining unit 430.

여기서, 칼라 보간부(420)는 바이리니어 인터폴레이션(bilinear interpolation), 근접픽셀 인터폴레이션(nearest interpolation), 효과적인 인터폴레이션(effective interpolation) 등과 같은 인터폴레이션 방법에 의해 각각의 픽셀에 필요한 색상 정보를 보간할 수 있다. 본 명세서에서는 칼라 보간부(420)가 효과적인 인터폴레이션 방법을 사용하여 각각의 픽셀에 없는 색상 정보를 보간하는 것을 중점으로 설명하기로 한다. Here, the color interpolator 420 may interpolate color information required for each pixel by an interpolation method such as bilinear interpolation, neighbor pixel interpolation, effective interpolation, and the like. In this specification, the color interpolator 420 will focus on interpolating color information not present in each pixel using an effective interpolation method.

예를 들어, 픽셀부(410)에서 출력되는 베이어 이미지 데이터를 출력하기 위해 사용하는 베이어 패턴이 도 7과 같다고 가정하자. 이때, 픽셀부(410)는 도 5와 같은 베이어 이미지 데이터를 생성하여 고노출 보간부(422) 또는 저노출 보간부(425)로 전달할 수 있다. 이하, 고노출 보간부(422) 및 저노출 보간부(425)에서 베이어 패턴 데이터를 RGB 이미지로 변환하는 방법은 동일하므로 고노출 보간부(422)를 중점으로 RGB 이미지로 변환하는 설명하기로 한다. For example, assume that a Bayer pattern used to output Bayer image data output from the pixel unit 410 is illustrated in FIG. 7. In this case, the pixel unit 410 may generate Bayer image data as shown in FIG. 5 and transmit the Bayer image data to the high exposure interpolator 422 or the low exposure interpolator 425. Hereinafter, since the method of converting the Bayer pattern data to the RGB image in the high exposure interpolation unit 422 and the low exposure interpolation unit 425 is the same, a description will be given of converting the high exposure interpolation unit 422 into an RGB image. .

우선, G 성분만을 가진 픽셀을 중점으로 R 성분 및 B 성분을 산출하는 방법에 대해 간략히 설명하기로 한다. 설명의 편의를 위해, 도 7에서 중심 픽셀(즉, (3,3) 픽셀)(533)의 R 성분 및 B 성분을 보간하는 방법을 우선 간략히 설명하기로 한다. (3,3) 픽셀을 중점으로 (2,3) 픽셀(523)을 "R1 픽셀"이라 정의하며, (3,2) 픽셀(532)을 "B1 픽셀"이라 정의하고, (4,3) 픽셀(543)을 "R2 픽셀"이라 정의하고, (3,4) 픽셀을 "B2 픽셀"이라 정의하자. 그리고, R1 픽셀을 기준으로 4개의 인접한 G 성분들의 평균값을 g1, B1 픽셀을 기준으로 4개의 인접한 G 성분들의 평균값을 g2, R2 픽셀을 기준으로 4개의 인접한 G 성분들의 평균값을 g3, B2 픽셀들을 기준으로 4개의 인접한 G 성분들의 평균값을 g4라고 정의하자. First, a brief description will be given of a method of calculating the R component and the B component focusing on pixels having only the G component. For convenience of description, a method of interpolating the R component and the B component of the center pixel (ie, (3,3) pixel) 533 in FIG. 7 will first be briefly described. Define (2,3) pixels 523 as "R1 pixels" with (3,3) pixels as the center, (3,2) pixels 532 as "B1 pixels", and (4,3) Define pixel 543 as "R2 pixel" and define (3,4) pixel as "B2 pixel". The average value of four adjacent G components based on the R1 pixel is g1, and the average value of four adjacent G components based on the B1 pixel is g2, and the average value of four adjacent G components based on the R2 pixel is g3 and B2 pixels. Define g4 as the average of four adjacent G components.

본 명세서에서 R1, B2, R3, B4와 같이 근접한 G 성분들의 평균값을 구하는데 사용되는 픽셀들을 "기준 픽셀"이라 정의하기로 하자.In the present specification, pixels used to obtain average values of adjacent G components, such as R1, B2, R3, and B4, will be defined as "reference pixels."

이와 같이, 기준 픽셀들을 중점으로 산출된 G 성분들의 픽셀값에서 기준 픽셀의 성분값을 감산하여 새로운 변수를 정의한다. 예를 들어, g1에서 R1 픽셀에 상응하는 픽셀값을 감산하여 Kr1이라 정의하고, g2 에서 B2 픽셀에 상응하는 픽셀값을 감산하여 Kb2이라 정의하며, g3에서 R3 픽셀에 상응하는 픽셀값을 감산하여 Kr3라 정의하고, g4에서 B4 픽셀에 상응하는 픽셀값을 감산하여 Kb4라 정의하자.In this way, a new variable is defined by subtracting the component value of the reference pixel from the pixel values of the G components calculated with respect to the reference pixels. For example, the pixel value corresponding to the R1 pixel is subtracted from g1 to be defined as Kr1, the pixel value corresponding to the B2 pixel is subtracted from g2 to be defined as Kb2, and the pixel value corresponding to the R3 pixel is subtracted from g3. Let it be defined as Kr3 and subtract the pixel value corresponding to B4 pixel from g4 as Kb4.

이와 같은 상태에서, (3,3) 픽셀의 R 성분은 예를 들어, 하기 수학식1을 이용하여 산출될 수 있으며, (3,3) 픽셀의 B 성분은 예를 들어, 하기 수학식 2를 이용하여 산출될 수 있다.In this state, the R component of the (3,3) pixel may be calculated using, for example, Equation 1 below, and the B component of the (3,3) pixel may be, for example, represented by Equation 2 below. Can be calculated using.

Figure 112006023477687-PAT00009
Figure 112006023477687-PAT00009

Figure 112006023477687-PAT00010
Figure 112006023477687-PAT00010

이와 같은 방식으로 모든 G 성분만을 가진 픽셀들의 R 성분 및 B 성분을 산출할 수가 있다.In this manner, the R and B components of pixels having all G components can be calculated.

이하에서는 B 성분만을 가진 픽셀을 "B 픽셀"이라 칭하며, R 성분만을 가진 픽셀을 R 픽셀이라 칭하고, G 성분만을 가진 픽셀을 G 픽셀이라 칭하기로 하자.Hereinafter, a pixel having only a B component will be referred to as a "B pixel", a pixel having only a R component will be referred to as an R pixel, and a pixel having only a G component will be referred to as a G pixel.

다음으로, B 픽셀 또는 R 픽셀의 R 성분 및 G 성분 또는 B 성분 및 G 성분을 산출하는 방법을 설명하기로 한다.Next, a method of calculating the R component and the G component or the B component and the G component of the B pixel or the R pixel will be described.

(3,4) 픽셀의 R 성분 및 G 성분 산출하는 방법을 우선 설명하기로 하자. (3,4) 픽셀의 G 성분을 산출하기 위해, 우선 (3,4) 픽셀에 인접한 가로 및 세로 축으로의 B 성분들의 델타(delta)값을 산출한다. 예를 들어, (3,4) 픽셀을 중점으로 가로축 B 성분의 델타는 (3,4) 픽셀값에서 (3,2) 및 (3,6)의 픽셀의 평균값을 감산한 후 1/2하여 B 성분의 한 픽셀당 델타를 산출할 수 있다. 이와 같은 식으로 세로축으로도 B 성분의 한 픽셀당 델타를 산출한다. 각각의 가로축 및 세로축의로의 B 성분의 한 픽셀당 델타의 평균값을 편의상 "X"라 정의하기로 한다. 이와 같은 상태에서, (3,4) 픽셀에 인접한 4개의 G 픽셀들의 평균값을 산출하여 X에 더하면 (3,4) 픽셀의 G 성분을 산출할 수 있다.First, a method of calculating the R and G components of the (3,4) pixel will be described. To calculate the G component of the (3,4) pixel, first calculate the delta value of the B components along the horizontal and vertical axes adjacent to the (3,4) pixel. For example, the delta of the horizontal B component centered on (3,4) pixels is subtracted by subtracting the mean value of the pixels of (3,2) and (3,6) from the (3,4) pixel value. The delta per pixel of the B component can be calculated. In this way, the delta per pixel of the B component is calculated also on the vertical axis. The average value of the delta per pixel of the B component in each of the horizontal and vertical axes will be defined as "X" for convenience. In this state, an average value of four G pixels adjacent to the (3,4) pixel may be calculated and added to X to calculate the G component of the (3,4) pixel.

예를 들어, 고노출 보간부(422)는 수학식 3을 이용하여 B 픽셀의 G 성분을 산출할 수 있다.For example, the high exposure interpolation unit 422 may calculate the G component of the B pixel by using Equation 3.

Figure 112006023477687-PAT00011
Figure 112006023477687-PAT00011

여기서, B2는 (3,4) 픽셀값이며, B1, B3는 B2 픽셀에 상응하여 가로축으로 인접한 B 픽셀에 상응하는 픽셀값이며, B1', B3'는 B2 픽셀에 상응하여 세로축으로 인접한 B 픽셀에 상응하는 픽셀값이고, G1, G2, G3, G4는 B2 픽셀에 인접한 G 픽셀에 상응하는 픽셀값이다.Here, B2 is a (3,4) pixel value, B1 and B3 are pixel values corresponding to B pixels horizontally adjacent to B2 pixels, and B1 'and B3' are B pixels vertically adjacent to B2 pixels. Is a pixel value corresponding to G1, G2, G3, and G4 are pixel values corresponding to G pixels adjacent to the B2 pixel.

(3,4) 픽셀의 R 성분을 산출하는 방법은 다음과 같다. (3,4) 픽셀에 인접한 R 픽셀들을 설명의 편의를 위해, R1, R2, R3, R4라고 정의하자. R1, R2, R3, R4를 기준으로 인접한 4개의 G 성분들의 평균값을 산출하여, g1, g2, g3, g4라고 정의하자. 이는 G 픽셀의 R성분 및 B 성분을 산출하는 방법에서 설명한 것과 유사하므로 상세한 설명은 생략하기로 한다.The method of calculating the R component of the (3,4) pixel is as follows. For convenience of explanation, the R pixels adjacent to the (3,4) pixels are defined as R1, R2, R3, and R4. Calculate the average value of four adjacent G components based on R1, R2, R3, and R4, and define g1, g2, g3, and g4. Since this is similar to that described in the method of calculating the R component and the B component of the G pixel, detailed description thereof will be omitted.

이와 같이, (3,4) 픽셀의 G 성분값에서 g1, g2, g3, g4를 산출한 평균값에서 각각의 기준 픽셀 값을 감한 평균값을 산출한 값을 감하여 R 성분을 산출할 수 있다. 예를 들어, 고노출 보간부(422)는 하기 수학식 4를 이용하여 B 픽셀의 R 성분을 산출할 수 있다.In this way, the R component can be calculated by subtracting the average value obtained by subtracting each reference pixel value from the average value of g1, g2, g3, and g4 calculated from the G component values of the (3,4) pixels. For example, the high exposure interpolation unit 422 may calculate the R component of the B pixel using Equation 4 below.

Figure 112006023477687-PAT00012
Figure 112006023477687-PAT00012

R 픽셀의 B 성분 및 G 성분을 산출하는 방법은 B 픽셀의 R 성분 및 G 성분을 산출하는 방법과 동일하다. 따라서 이에 대한 중복되는 설명은 생략하기로 한다.The method for calculating the B component and the G component of the R pixel is the same as the method for calculating the R component and the G component of the B pixel. Therefore, duplicate description thereof will be omitted.

고노출 보간부(422)는 상술한 바와 같은 방법으로 픽셀부(410)로부터 입력된 베이어 데이터를 각각의 픽셀에 상응하는 색상 정보를 보간하여 이미지 데이터를 생성하여 이미지 합성부(430)로 전달할 수 있다.The high exposure interpolation unit 422 may generate image data by interpolating Bayer data input from the pixel unit 410 and color information corresponding to each pixel in the same manner as described above, and transmit the image data to the image synthesis unit 430. have.

본 명세서에서는 고노출 보간부(422) 및 저노출 보간부(425)는 각각 상이한 이미지를 이용하여 동일한 방법으로 색상 정보를 보간한다. 따라서, 저노출 보간부(425)에 대한 설명은 고노출 보간부(422)와 중복되므로 이에 대한 설명은 생략하기로 한다.In the present specification, the high exposure interpolation unit 422 and the low exposure interpolation unit 425 respectively interpolate color information using different images. Therefore, since the description of the low exposure interpolation unit 425 overlaps with the high exposure interpolation unit 422, the description thereof will be omitted.

고노출 보간부(422) 및 저노출 보간부(425)는 픽셀부(410)로부터 각각 상이한 베이어 패턴 이미지를 입력받아 동일한 방법에 의해 각각의 픽셀의 색상 정보를 미리 정해진 형식에 상응하는(즉, 정해진 이미지 형식에 상응하는) 색상 정보로 보간하여 이미지 합성부(430)로 출력하는 기능을 수행한다.The high exposure interpolation unit 422 and the low exposure interpolation unit 425 respectively receive different Bayer pattern images from the pixel unit 410 and correspond to color information of each pixel in a predetermined format by the same method (that is, Interpolates color information corresponding to a predetermined image format) and outputs the image to the image synthesis unit 430.

이미지 합성부(430)는 고노출 보간부(422) 및 저노출 보간부(425)로부터 입력된 이미지 데이터를 합성하여 RGB-베이어 변환부(440)로 전달하는 기능을 수행한다. 즉, 이미지 합성부(430)는 WDR(wide dynamic range)를 수행하여 각각 상이하게 광원에 노출된 이미지 데이터를 합성할 수 있다.The image synthesizing unit 430 synthesizes the image data input from the high exposure interpolation unit 422 and the low exposure interpolation unit 425, and transfers the image data to the RGB-bayer conversion unit 440. That is, the image synthesizing unit 430 may synthesize image data exposed to a light source differently by performing a wide dynamic range (WDR).

이하, 본 명세서에서, 고노출 보간부(422)에서 보간된 이미지 데이터를 "제1 이미지 데이터"라 정의하며, 저노출 보간부(425)에서 보간된 이미지 데이터를 "제2 이미지 데이터"라 정의하기로 한다. Hereinafter, in the present specification, image data interpolated by the high exposure interpolation unit 422 is defined as “first image data,” and image data interpolated by the low exposure interpolation unit 425 is defined as “second image data.” Let's do it.

예를 들어, 제1 이미지 데이터는 빛에 많이 노출된 고노출 이미지 데이터 일 수 있으며, 제2 이미지 데이터는 고노출 이미지 데이터에 비해 상대적으로 적은 빛에 노출된 저노출 이미지 데이터일 수 있다.For example, the first image data may be high exposure image data exposed to much light, and the second image data may be low exposure image data exposed to less light than the high exposure image data.

또한, 이미지 합성부(430)에서 합성되어 출력되는 이미지 데이터를 "합성 이미지 데이터"라 정의하기로 한다.In addition, image data synthesized and output by the image synthesizing unit 430 will be defined as "synthetic image data."

각각의 픽셀의 R 성분, G 성분, B 성분들 중에서 최소값을 M이라고 정의하면, 각각의 픽셀별 컬러 게인은

Figure 112006023477687-PAT00013
과 같이 정의될 수 있다. 여기서, 컬러 게인을 S라 정의하면, S는
Figure 112006023477687-PAT00014
을 만족하는 임의의 값일 수 있으며 고정된 상수 값이 아닐 수도 있다.If the minimum value among the R, G, and B components of each pixel is defined as M, the color gain for each pixel is
Figure 112006023477687-PAT00013
It can be defined as Here, if the color gain is defined as S, S is
Figure 112006023477687-PAT00014
It may be any value that satisfies and may not be a fixed constant value.

이미지 합성부(430)는 제1 이미지 데이터와 제2 이미지 데이터를 합성하기 위해 예를 들어, 하기 수학식 5를 이용하여 합성할 수 있다.The image synthesizing unit 430 may synthesize the first image data and the second image data using, for example, Equation 5 below.

Figure 112006023477687-PAT00015
Figure 112006023477687-PAT00015

여기서, R', G', B'는 제1 이미지 데이터와 제2 이미지 데이터의 각각의 색상 정보를 합성하여 생성된 색상 정보이다.Here, R ', G', and B 'are color information generated by synthesizing respective color information of the first image data and the second image data.

우선, 도 8은 R성분에 관한

Figure 112006023477687-PAT00016
성분을 산출하기 위한 곡선이다. 여기서, 이해와 설명의 편의를 위해, 본 명세서에서는 제1 이미지 데이터는 고노출 이미지인것으로 가정하며, 제2 이미지 데이터는 저노출 이미지인것으로 가정하여 설명하기로 한다. 도 8을 참조하면, R1과 R2는 그래프의 영역을 나누기 위한 경계값이며, 제1
Figure 112006023477687-PAT00017
과 제2
Figure 112006023477687-PAT00018
에서 제1
Figure 112006023477687-PAT00019
이 클수도 있으며, 제2
Figure 112006023477687-PAT00020
이 클수도 있다. 도 8과 같이, 제1 이미지 데이터의 R 성분과 제2 이미지 데이터의 r성분에 상응하여 제1 이미지 데이터의 색상 정보에 의존하는 제1 영역, 제2 이미지 데이터의 색상 정보에 의존하는 제3 영역, 제1 영역과 제3 영역의 중간 영역인 제2 영역으로 각각의 구간을 분리할 수 있다. 도 8에서 제1 영역을 구분하기 위한 R1의 값이 예를 들어, 250(예를 들어, 제1 이미지 데이터 및 제2 이미지 데이터가 8비트 이미지 데이터라고 가정하면)이며, 제3 영역을 구분하기 위한 R2의 값이 예를 들어, 350이라고 가정하자. 이때, 제1 이미지 데이터의 R성분과 제2 이미지 데이터의 r성분을 합산한 R+r의 값이 250이라고 한다면, 제1 이미지 데이터의 R 성분이 포화(saturation)에 근접하지만 아직 미치지 못하였다는 것을 의미한다. 따라서, 이와 같이 제1 이미지 데이터 및 제2 이미지 데이터의 각각의 성분을 합산한 값이 R1 이하이면, 제1 이미지 데이터의 색상 성분이 신뢰도가 더 높다. 따라서, 이 경우, 제1 이미지 데이터의 색상 성분으로 해당 픽셀의 색상 성분을 결정할 수 있다. First, FIG. 8 relates to an R component.
Figure 112006023477687-PAT00016
Curve for calculating the components. Here, for convenience of understanding and description, it is assumed herein that the first image data is a high exposure image and the second image data is assumed to be a low exposure image. Referring to FIG. 8, R1 and R2 are boundary values for dividing an area of the graph.
Figure 112006023477687-PAT00017
And second
Figure 112006023477687-PAT00018
1st in
Figure 112006023477687-PAT00019
This may be large, second
Figure 112006023477687-PAT00020
This might be big. As shown in FIG. 8, a first area depending on color information of the first image data and a third area depending on color information of the second image data, corresponding to the R component of the first image data and the r component of the second image data. Each section may be divided into a second region, which is an intermediate region between the first region and the third region. In FIG. 8, for example, a value of R1 for dividing the first region is 250 (for example, assuming that the first image data and the second image data are 8-bit image data), and to distinguish the third region. Suppose the value of R2 for is 350, for example. In this case, if the R + r value obtained by adding the R component of the first image data and the r component of the second image data is 250, the R component of the first image data is close to saturation, but not yet reached. Means that. Thus, when the sum of the respective components of the first image data and the second image data is R1 or less, the color component of the first image data is more reliable. Therefore, in this case, the color component of the pixel may be determined as the color component of the first image data.

또한, 제1 이미지 데이터 및 제2 이미지 데이터의 각각의 성분을 합산한 값이 R2 이상이면, 제1 이미지 데이터의 색상 성분의 포화(saturation)에 다다랐음을 의미한다. 따라서, 이 경우에는 제2 이미지 데이터의 색상 성분이 신뢰도가 더 높으므로, 제2 이미지 데이터의 색상 성분으로 해당 픽셀의 색상 성분을 결정할 수 있다. 제2 영역은 제1 영역과 제3 영역의 중간 영역으로 미리 정의된(실험적으로 산출된) 함수에 의해 직선 또는 곡선으로 나타낼 수 있다. 도 8에서는 R성분의 컬러 게인을 획득하는 방법만을 설명하였으나, B 성분 및 G 성분도 R성분과 동일한 방법으로 컬러 게인 곡선을 생성하여 컬러 게인을 획득할 수 있다. 이와 같은 방식으로 이미지 합성부(430)는 제1 이미지 데이터 및 제2 이미지 데이터를 합산하여 하나의 이미지 데이터(즉, 합성 이미지 데이터)를 생성하여 RGB-베이어 변환부(440)로 전달할 수 있다.In addition, when the sum of the respective components of the first image data and the second image data is equal to or larger than R2, it means that the saturation of the color components of the first image data is reached. Therefore, in this case, since the color component of the second image data has higher reliability, the color component of the pixel may be determined as the color component of the second image data. The second region may be represented by a straight line or a curve by a function (experimentally calculated) which is a middle region between the first region and the third region. In FIG. 8, only the method of obtaining the color gain of the R component is described, but the B and G components may also obtain the color gain by generating a color gain curve in the same manner as the R component. In this manner, the image synthesizing unit 430 may generate one image data (that is, composite image data) by adding the first image data and the second image data and transfer the generated image data to the RGB-bayer converter 440.

RGB-베이어 변환부(440)는 이미지 합성부(430)를 통해 입력된 합성 이미지 데이터를 베이어 이미지 데이터로 변환하여 이미지 프로세서부(미도시)로 출력한다. 예를 들어, RGB-베이어 변환부(440)는 RGB 이미지 데이터에서 미리 정해진 베이어 패턴에 상응하여 각각의 픽셀당 두개의 색상 정보를 버림으로써 베이어 이미지 데이터로 변환할 수 있다.The RGB-bayer converter 440 converts the composite image data inputted through the image synthesizer 430 into Bayer image data and outputs them to an image processor unit (not shown). For example, the RGB-bayer converter 440 may convert the Bayer image data by discarding two pieces of color information for each pixel corresponding to a predetermined Bayer pattern in the RGB image data.

예를 들어, 도 6의 RGB 이미지 데이터를 도 7의 베이어 패턴에 상응하는 베이어 이미지 데이터로 변경한다고 가정하자. RGB-베이어 변환부(440)는 611 픽셀을 G 성분만을 남기고 R 성분 및 B 성분을 버림으로써 G성분만을 가진 픽셀로 생성할 수 있다. 이와 같은 식으로, RGB-베이어 변환부(440)는 도 7의 베이어 형식을 이용 하여 RGB 이미지 데이터의 각각의 픽셀에 하나의 색상 성분의 정보만 남기고 나머지 두개의 색상 성분을 버리는 연산을 수행하여 원하는 베이어 패턴에 상응하는 베이어 이미지 데이터로 변환할 수 있다.For example, assume that the RGB image data of FIG. 6 is changed to Bayer image data corresponding to the Bayer pattern of FIG. 7. The RGB-bayer converter 440 may generate 611 pixels as pixels having only G components by leaving only the G components and discarding the R and B components. In this way, the RGB-Bay converter 440 performs an operation of discarding the other two color components by leaving only one color component information in each pixel of the RGB image data using the Bayer format of FIG. 7. The Bayer image data corresponding to the Bayer pattern can be converted.

도 9는 본 발명의 바람직한 일 실시예에 따른 이미지 센서에서 WDR을 수행한 후 베이어 이미지 데이터를 출력하는 방법을 나타낸 순서도이며, 도 10은 본 발명의 바람직한 일 실시예에 따른 노출 시간이 상이한 RGB 형식의 두 이미지를 합성한 이미지(RGB 형식)이고, 도 11은 본 발명의 바람직한 일 실시예에 따른 도 10의 합성된 이미지를 베이어 형식으로 변환한 이미지의 예시도이다. 이하에서는 픽셀부(410)에서 광 노출이 상이한 두개의 영상이 소정의 시간차에 의해 생성되어 출력되는 과정 이후부터 설명하기로 한다.9 is a flowchart illustrating a method of outputting Bayer image data after performing a WDR in an image sensor according to an exemplary embodiment of the present invention, and FIG. 10 is a RGB format having different exposure times according to an exemplary embodiment of the present invention. An image obtained by synthesizing two images of (RGB format), and FIG. 11 is an exemplary view of an image obtained by converting the synthesized image of FIG. 10 into a Bayer format according to an exemplary embodiment of the present invention. Hereinafter, a process in which two images having different light exposures in the pixel unit 410 are generated and output by a predetermined time difference will be described.

단계 910에서 픽셀부(410)는 피사체에 노출 시간을 달리하여 획득한 두 베이어 패턴 데이터를 고노출 보간부(422) 및 저노출 보간부(425)로 출력한다. In operation 910, the pixel unit 410 outputs the two Bayer pattern data obtained by varying the exposure time to the subject to the high exposure interpolator 422 and the low exposure interpolator 425.

예를 들어, 픽셀부(410)는 렌즈를 통해 입력되는 광학적 피사체의 신호를 전기적인 신호로 변환하여 출력할 수 있다. For example, the pixel unit 410 may convert a signal of an optical object input through a lens into an electrical signal and output the converted signal.

단계 915에서 고노출 보간부(422) 또는 저노출 보간부(425)는 픽셀부(410)를 통해 입력된 각각의 상이한 베이어 패턴 데이터를 미리 설정된 방법에 의해 보간하여 제1 이미지 데이터 또는 제2 이미지 데이터로 변환하여 이미지 합성부(430)로 전달한다.In operation 915, the high exposure interpolation unit 422 or the low exposure interpolation unit 425 interpolates each of the different Bayer pattern data input through the pixel unit 410 by using a preset method to generate the first image data or the second image. The data is converted into data and transferred to the image synthesizer 430.

예를 들어, 칼라 보간부(420)는 대상 픽셀을 중심으로 주변 픽셀들의 색상 정보를 이용하여 대상 픽셀의 나머지 색상 정보를 보간할 수 있다. 칼라 보간부(420)에서 대상 픽셀의 각각의 색상 정보를 보간하는 방법은 도 4를 참조하여 칼라 보간부(420)를 설명하면서 상세히 설명하였으므로 중복되는 설명은 생략하기로 한다.For example, the color interpolator 420 may interpolate the remaining color information of the target pixel using the color information of the neighboring pixels around the target pixel. Since the color interpolator 420 interpolates respective color information of the target pixel, the color interpolator 420 will be described in detail with reference to FIG. 4, and thus redundant descriptions thereof will be omitted.

단계 920에서 이미지 합성부(430)는 고노출 보간부(422) 및 저노출 보간부(425)로부터 입력된 제1 이미지 데이터 및 제2 이미지 데이터를 미리 정해진 알고리즘을 이용하여 합성하여 RGB-베이어 변환부(440)로 전달한다. In operation 920, the image synthesizing unit 430 synthesizes the first image data and the second image data input from the high exposure interpolation unit 422 and the low exposure interpolation unit 425 using a predetermined algorithm and converts RGB to Bayes. Transfer to section 440.

단계 925에서 RGB-베이어 변환부(440)는 이미지 합성부(430)로부터 입력된 합성 이미지 데이터의 각각의 픽셀의 색상 성분을 미리 정해진 베이어 패턴에 상응하는 색상 성분만 남기고 나머지 색상 성분은 제거하여 베이어 이미지로 변환한다. 즉, RGB-베이어 변환부(440)는 이미지 합성부(430)로부터 RGB 형식으로 입력된 합성 이미지 데이터를 미리 정해진 베이어 패턴에 상응하는 베이어 이미지 데이터로 변환하여 이미지 프로세서부(미도시)로 출력할 수 있다. In operation 925, the RGB-Bay converter 440 removes the color components of each pixel of the composite image data input from the image synthesizer 430, leaving only the color components corresponding to the predetermined Bayer pattern and removing the remaining color components. Convert to an image. That is, the RGB-Bay converter 440 converts the composite image data input in the RGB format from the image synthesizer 430 into Bayer image data corresponding to a predetermined Bayer pattern and outputs the converted Bayer image data to an image processor unit (not shown). Can be.

도10 내지 도 11에서 보여지는 바와 같이, 육안으로는 그 차이점을 확인할 수 없음을 알 수 있다. 보다 정교한 비교를 위해, MSE(mean square error) 분석을 이용하여 각각의 픽셀의 색상별 비교치를 살펴보면, 두 이미지의 MSE가 '1'정도로 획득되었다. 여기서, MSE는 두 이미지를 가지고 모든 픽셀에 대하여 각 픽셀당의 오차를 절대값화하기 위해 제곱을 하여 모두 더한 것을 픽셀의 개수로 나눈 수치이다. 따라서, 동일한 두 이미지를 이용하여 MSE를 산출하면 "0"이 획득된다. 두 이미지가 상이할 수록 큰 수치의 MSE값이 획득된다. As shown in Figures 10 to 11, it can be seen that the difference can not be confirmed with the naked eye. For a more sophisticated comparison, using MSE (mean square error) analysis, the color comparison of each pixel is obtained. The MSE of the two images is obtained as '1'. Here, the MSE is a number obtained by dividing the sum of the sum of the two pixels by adding the squares to make the absolute error of each pixel absolute for all pixels. Therefore, if MSE is calculated using the same two images, "0" is obtained. The higher the two images, the larger the MSE value is obtained.

따라서, 도 10 내지 도 11의 이미지를 비교하여 획득된 MSE가 '1'이므로, 두 이미지는 거의 일치되는 이미지임을 알 수 있다. Therefore, since the MSE obtained by comparing the images of FIGS. 10 to 11 is '1', it can be seen that the two images are almost identical images.

상술한 바와 같이, 본 발명에 따른 다이내믹 레인지 넓힌 후 베이어 이미지를 출력할 수 있는 이미지 센서 및 그 방법을 제공함으로써, 노출 시간이 다른 두 이미지를 합성하여 다이내믹 레인지를 넓힐 수 있으며, 기존의 인터페이스에 상이한 베이어 형식의 이미지 데이터를 출력할 수 있는 효과가 있다.As described above, by providing an image sensor and a method for outputting a Bayer image after widening the dynamic range according to the present invention, it is possible to widen the dynamic range by synthesizing two images having different exposure times, and different from the existing interface. This has the effect of outputting Bayer format image data.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to a preferred embodiment of the present invention, those skilled in the art to which the present invention pertains without departing from the spirit and scope of the present invention as set forth in the claims below It will be appreciated that modifications and variations can be made.

Claims (8)

렌즈를 통해 입력되는 피사체의 광학적 신호를 전기적인 신호로 변환하여 베이어 패턴 데이터를 출력하는 픽셀부;A pixel unit converting an optical signal of a subject input through the lens into an electrical signal and outputting Bayer pattern data; 상기 픽셀부로부터 고노출 베이어 패턴 데이터를 입력받아 제1 RGB 이미지로 변환하는 고노출 보간부;A high exposure interpolation unit which receives the high exposure Bayer pattern data from the pixel unit and converts the high exposure Bayer pattern data into a first RGB image; 상기 픽셀부로부터 저노출 베이어 패턴 데이터를 입력받아 제2 RGB 이미지로 변환하는 저노출 보간부;A low exposure interpolation unit receiving low exposure Bayer pattern data from the pixel unit and converting the low exposure Bayer pattern data into a second RGB image; 상기 제1 RGB 이미지 및 상기 제2 RGB 이미지를 합성하는 이미지 합성부; 및 An image synthesizer configured to synthesize the first RGB image and the second RGB image; And 상기 합성된 이미지를 미리 정해진 베이어 형식에 상응하는 베이어 데이터로 변환하여 출력하는 RGB-베이어 변환부를 포함하는 이미지 센서. And an RGB to Bayer converter for converting the synthesized image into Bayer data corresponding to a predetermined Bayer format and outputting the Bayer data. 제 1항에 있어서,The method of claim 1, 상기 픽셀부는 소정의 시간동안 광원에 노출되어 생성된 두 종류의 베이어 패턴 데이터를 출력하는 것을 특징으로 하는 이미지 센서. And the pixel unit outputs two kinds of Bayer pattern data generated by being exposed to a light source for a predetermined time. 제 1항에 있어서,The method of claim 1, 상기 RGB-베이어 변환부는 상기 합성된 이미지의 변환 대상 픽셀이 R 픽셀이 면 G성분 및 B 성분을 제거하며, 상기 변환 대상 픽셀이 G 픽셀이면 R 성분 및 B 성분을 제거하고 상기 변환 대상 픽셀이 B 픽셀이면 R 성분 및 G 성분을 제거하는 것을 특징으로 하는 이미지 센서.The RGB-Bay converter removes a G component and a B component when the pixel to be converted of the synthesized image is an R pixel, and removes an R component and a B component when the pixel to be converted is a G pixel, and the pixel to be converted is B. If it is a pixel, the image sensor, characterized in that to remove the R and G components. 제 1항에 있어서,The method of claim 1, 상기 저노출 보간부 및 상기 고노출 보간부는 G 픽셀의 R 성분을 하기 수학식을 이용하여 산출하는 것을 특징으로 하는 이미지 센서.And the low exposure interpolation unit and the high exposure interpolation unit calculate an R component of a G pixel by using the following equation.
Figure 112006023477687-PAT00021
Figure 112006023477687-PAT00021
여기서, Kr1, Kr2는 상기 G 픽셀에 인접한 R 픽셀에 인접한 4개의 G 픽셀들의 평균값을 산출한 후 상기 R 픽셀의 값을 감산하여 산출된 값임.Here, Kr1 and Kr2 are values calculated by subtracting the value of the R pixel after calculating an average value of four G pixels adjacent to the R pixel adjacent to the G pixel.
제 1항에 있어서,The method of claim 1, 상기 저노출 보간부 및 상기 고노출 보간부는 상기 G 픽셀의 B 성분을 하기 수학식을 이용하여 산출하는 것을 특징으로 하는 이미지 센서.And the low exposure interpolation unit and the high exposure interpolation unit calculate a B component of the G pixel by using the following equation.
Figure 112006023477687-PAT00022
Figure 112006023477687-PAT00022
여기서, Kr1, Kr2는 상기 G 픽셀에 인접한 B 픽셀에 인접한 4개의 G 픽셀들 의 평균값을 산출한 후 상기 B 픽셀의 값을 감산하여 산출된 값임.Here, Kr1 and Kr2 are values calculated by subtracting the value of the B pixel after calculating an average value of four G pixels adjacent to the B pixel adjacent to the G pixel.
제 1항에 있어서,The method of claim 1, 상기 저노출 보간부 및 상기 고노출 보간부는 상기 B 픽셀의 G 성분을 하기 수학식을 이용하여 산출하는 것을 특징으로 하는 이미지 센서.And the low exposure interpolation unit and the high exposure interpolation unit calculate a G component of the B pixel by using the following equation.
Figure 112006023477687-PAT00023
Figure 112006023477687-PAT00023
여기서, B2는 보간 대상 픽셀이며, B1, B3는 B2 픽셀에 가로축으로 인접한 픽셀이고, B1', B3'는 B2 픽셀에 세로축으로 인접한 픽셀이며, B2 픽셀에 인접한 G 픽셀임.Here, B2 is an interpolation target pixel, B1 and B3 are pixels horizontally adjacent to the B2 pixel, B1 'and B3' are pixels vertically adjacent to the B2 pixel and G pixels adjacent to the B2 pixel.
제 6항에 있어서,The method of claim 6, 상기 저노출 보간부 및 상기 고노출 보간부는 상기 B 픽셀의 상기 R 성분을 하기 수학식을 이용하여 산출하는 것을 특징으로 하는 이미지 센서.And the low exposure interpolation unit and the high exposure interpolation unit calculate the R component of the B pixel by using the following equation.
Figure 112006023477687-PAT00024
Figure 112006023477687-PAT00024
여기서, G는 상기 B 픽셀에 상응하여 산출된 G 성분이며, R1, R2, R3, R4는 상기 B 픽셀에 인접한 4개의 R 픽셀들이고, g1, g2, g3, g4는 상기 B픽셀에 인접한 4개의 R 픽셀에 인접한 4개의 G 픽셀들의 평균값임.Here, G is a G component calculated corresponding to the B pixel, R1, R2, R3, and R4 are four R pixels adjacent to the B pixel, and g1, g2, g3, and g4 are four adjacent to the B pixel. Average of four G pixels adjacent to an R pixel.
제 1항에 있어서,The method of claim 1, 이미지 합성부는 하기 수학식을 이용하여 보간 대상 픽셀을 합성하는 것을 특징으로 하는 이미지 센서.The image synthesizing unit synthesizes the interpolation target pixel by using the following equation.
Figure 112006023477687-PAT00025
Figure 112006023477687-PAT00025
여기서, M은 보간 대상 픽셀의 색상 성분 중 최소값이며, r, g, b는 고노출 보간부로부터 입력된 이미지 데이터의 픽셀의 색상 성분값이고,
Figure 112006023477687-PAT00026
,
Figure 112006023477687-PAT00027
,
Figure 112006023477687-PAT00028
는 칼라 게인 곡선에 의해 산출된 칼라 게인값이며, S는 '0' 초과 '1' 미만의 임의의 실수값임.
Here, M is the minimum value among the color components of the interpolation target pixel, r, g, b are the color component value of the pixel of the image data input from the high exposure interpolation unit,
Figure 112006023477687-PAT00026
,
Figure 112006023477687-PAT00027
,
Figure 112006023477687-PAT00028
Is the color gain value calculated by the color gain curve, and S is any real value greater than '0' and less than '1'.
KR1020060030388A 2006-04-04 2006-04-04 Image sensor for expanding wide dynamic range and output Bayer-pattern image KR100810155B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060030388A KR100810155B1 (en) 2006-04-04 2006-04-04 Image sensor for expanding wide dynamic range and output Bayer-pattern image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060030388A KR100810155B1 (en) 2006-04-04 2006-04-04 Image sensor for expanding wide dynamic range and output Bayer-pattern image

Publications (2)

Publication Number Publication Date
KR20070099238A true KR20070099238A (en) 2007-10-09
KR100810155B1 KR100810155B1 (en) 2008-03-06

Family

ID=38804722

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060030388A KR100810155B1 (en) 2006-04-04 2006-04-04 Image sensor for expanding wide dynamic range and output Bayer-pattern image

Country Status (1)

Country Link
KR (1) KR100810155B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8508619B2 (en) 2009-09-22 2013-08-13 Samsung Electronics Co., Ltd. High dynamic range image generating apparatus and method
KR101488074B1 (en) * 2013-02-04 2015-01-29 주식회사 동부하이텍 Image sensorand method for generating binning image using the same
US9160944B2 (en) 2013-09-13 2015-10-13 SK Hynix Inc. Signal processing apparatus and method for reducing noise
WO2023018262A1 (en) * 2021-08-12 2023-02-16 삼성전자 주식회사 Method for providing image, and electronic device supporting same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3458741B2 (en) * 1998-12-21 2003-10-20 ソニー株式会社 Imaging method and imaging apparatus, image processing method and image processing apparatus
JP4511066B2 (en) 2001-03-12 2010-07-28 オリンパス株式会社 Imaging device
JP4522207B2 (en) 2004-09-17 2010-08-11 キヤノン株式会社 Camera system, camera body and interchangeable lens

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8508619B2 (en) 2009-09-22 2013-08-13 Samsung Electronics Co., Ltd. High dynamic range image generating apparatus and method
KR101488074B1 (en) * 2013-02-04 2015-01-29 주식회사 동부하이텍 Image sensorand method for generating binning image using the same
US9137452B2 (en) 2013-02-04 2015-09-15 Dongbu Hitek Co., Ltd. Image sensor and method of generating binning image using the same
US9160944B2 (en) 2013-09-13 2015-10-13 SK Hynix Inc. Signal processing apparatus and method for reducing noise
WO2023018262A1 (en) * 2021-08-12 2023-02-16 삼성전자 주식회사 Method for providing image, and electronic device supporting same

Also Published As

Publication number Publication date
KR100810155B1 (en) 2008-03-06

Similar Documents

Publication Publication Date Title
US10021358B2 (en) Imaging apparatus, imaging system, and signal processing method
TWI644568B (en) Camera element, camera method and camera program
JP4351825B2 (en) How to collect color digital images
JP6584131B2 (en) Imaging apparatus, imaging system, and signal processing method
US8547472B2 (en) Image pickup device and camera module using the same
US7839437B2 (en) Image pickup apparatus, image processing method, and computer program capable of obtaining high-quality image data by controlling imbalance among sensitivities of light-receiving devices
US10015424B2 (en) Method and apparatus for eliminating crosstalk amount included in an output signal
KR101488074B1 (en) Image sensorand method for generating binning image using the same
JP3946492B2 (en) How to generate a low resolution image
US20080068477A1 (en) Solid-state imaging device
US20070159542A1 (en) Color filter array with neutral elements and color image formation
KR100468169B1 (en) Single-plated color camera in which a generation of pseudo color signal can be suppressed
JP5075795B2 (en) Solid-state imaging device
JP4985584B2 (en) Imaging apparatus and video signal processing method
US20030063185A1 (en) Three-dimensional imaging with complementary color filter arrays
JP6622481B2 (en) Imaging apparatus, imaging system, signal processing method for imaging apparatus, and signal processing method
KR20070090106A (en) Method of controlling camera system and camera system using the method
KR100810155B1 (en) Image sensor for expanding wide dynamic range and output Bayer-pattern image
US8077234B2 (en) Image pickup device and method for processing an interpolated color signal
KR100731812B1 (en) Color deviation compensating apparatus and method, image processor using it, recorded medium
JP4934991B2 (en) Imaging signal processing apparatus and method, and imaging apparatus
JP4158280B2 (en) Image processing apparatus and method
KR100763656B1 (en) Image sensor and image processing method
US20220150450A1 (en) Image capturing method, camera assembly, and mobile terminal
JP4962293B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]
FPAY Annual fee payment

Payment date: 20130214

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140214

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150227

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20160225

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20200220

Year of fee payment: 13