KR100835058B1 - Image processing method for extending depth of field - Google Patents

Image processing method for extending depth of field Download PDF

Info

Publication number
KR100835058B1
KR100835058B1 KR1020070025654A KR20070025654A KR100835058B1 KR 100835058 B1 KR100835058 B1 KR 100835058B1 KR 1020070025654 A KR1020070025654 A KR 1020070025654A KR 20070025654 A KR20070025654 A KR 20070025654A KR 100835058 B1 KR100835058 B1 KR 100835058B1
Authority
KR
South Korea
Prior art keywords
channel
red
green
blue
correction coefficient
Prior art date
Application number
KR1020070025654A
Other languages
Korean (ko)
Inventor
김현
정호섭
허훈
우연경
Original Assignee
삼성전기주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전기주식회사 filed Critical 삼성전기주식회사
Priority to KR1020070025654A priority Critical patent/KR100835058B1/en
Application granted granted Critical
Publication of KR100835058B1 publication Critical patent/KR100835058B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Processing (AREA)

Abstract

An image processing method is provided to extend depth of field for various camera modules without program amendment. An image processing method for extending depth of field includes the steps of: obtaining an edge profile curve for each of red, green, and blue channels included a Bayer format image(S31); calculating a blurring curve for each of the red, green, and blue channels by differentiating the edge profile curve(S32); deciding a blurring function for each of the red, green, and blue channels showing the blurring curve(S33); obtaining a correction coefficient for each of the red, green, and blue channels by using the blurring function(S341,S351,S361); and applying the correction coefficient to each of the red, green, and blue channels of the detected Bayer format image(S342,S352,S362).

Description

피사계 심도 확장을 위한 이미지 처리 방법{IMAGE PROCESSING METHOD FOR EXTENDING DEPTH OF FIELD}Image processing method for expanding depth of field {IMAGE PROCESSING METHOD FOR EXTENDING DEPTH OF FIELD}

도 1은 종래의 소형 카메라 모듈의 구성도이다.1 is a block diagram of a conventional compact camera module.

도 2는 종래의 소형 카메라 모듈로 측정된 베이어 포맷 이미지의 각 색상채널의 스폿 크기를 도시한 도면이다.2 is a diagram illustrating a spot size of each color channel of a Bayer format image measured by a conventional small camera module.

도 3은 본 발명의 피사계 심도 확장을 위한 이미지 처리 방법을 도시한 플로우 차트이다.3 is a flowchart illustrating an image processing method for expanding a depth of field of the present invention.

도 4는 본 발명의 블러링 곡선을 이용하여 블러링 함수를 구하는 과정을 도시한 블럭도이다.4 is a block diagram illustrating a process of obtaining a blurring function using the blurring curve of the present invention.

도 5는 이미지센서로부터 직접 취득된 베이어 포맷 이미지 및 베이어 포맷 이미지로부터 추출된 적색채널, 녹색채널 및 청색채널을 도시한 도면이다.5 is a diagram illustrating a Bayer format image obtained directly from an image sensor and a red channel, a green channel, and a blue channel extracted from a Bayer format image.

도 6은 블러링된 에지 프로파일 및 에지 프로파일을 미분하여 구한 블러링 곡선을 도시한 도면이다.6 is a diagram illustrating a blurring curve obtained by differentiating a blurred edge profile and an edge profile.

도 7은 보정된 각 색상채널의 스폿크기와 목표스폿 크기의 차이가 최소가 되도록 보정계수를 결정하는 방법을 도시한 플로우 차트이다.7 is a flowchart illustrating a method of determining a correction coefficient such that the difference between the spot size and the target spot size of each corrected color channel is minimized.

도 8은 본 발명에 따른 피사계 심도 확장을 위한 이미지 처리 방법이 적용된 베이어 포맷 이미지의 각 색상채널의 스폿 크기를 도시한 도면이다.FIG. 8 is a diagram illustrating a spot size of each color channel of a Bayer format image to which an image processing method for expanding depth of field according to the present invention is applied.

본 발명은 카메라 모듈의 피사계 심도를 확장하기 위한 이미지 처리 방법에 관한 것으로, 더욱 상세하게는 이미지 센서로부터 검출된 베이어 포멧 이미지에 포함된 각 색상 채널 사이의 스폿(spot) 크기 차이를 감소시키는 처리 기법을 통해 이미지의 선명도가 확보되는 거리를 확장시킴으로써 카메라 모듈의 피사계 심도를 확장할 수 있는 이미지 처리 방법에 관한 것이다.The present invention relates to an image processing method for expanding a depth of field of a camera module, and more particularly, to a processing technique for reducing spot size differences between respective color channels included in a Bayer format image detected from an image sensor. The present invention relates to an image processing method that can extend a depth of field of a camera module by extending a distance through which an image sharpness is secured.

최근, 휴대 전화기와 같은 이동식 단말기에 적용되고 있는 카메라 모듈은 화소수의 증가 및 부피의 소형화가 요구되고 있다. 이러한 화소수 증가의 요구를 충족시키기 위해 이미지 센서 픽셀의 크기를 감소시킴으로써 제한된 면적의 이미지 센서 내에서 고화소화를 구현하고 있다. 또한, 소형화 요구를 충족시키기 위해서, 카메라 모듈 광학계에 사용되는 렌즈의 수를 3 매 이하로 제한하고, 대량 생산의 용이성 및 원가 절감을 위해 렌즈의 재료로서 유리 대신 플라스틱을 채택하고 있다.Recently, a camera module applied to a mobile terminal such as a mobile phone is required to increase the number of pixels and to reduce the volume. In order to meet the demand for increasing the number of pixels, the pixel size of the image sensor is reduced, thereby realizing high pixel size in the image sensor having a limited area. In addition, in order to meet the demand for miniaturization, the number of lenses used in the camera module optical system is limited to three or less, and plastic is used instead of glass as the material of the lens for ease of mass production and cost reduction.

이러한 추세에 따라 센서의 픽셀 크기가 작아지면서 센서면에서 초점을 맺는 빔의 스폿(spot)이 차지하는 픽셀의 개수가 늘어나게 됨으로써 렌즈의 색수차량이 점점 증가하며 이미지의 해상도 저하를 유발시키며 이로 인해 카메라 모듈의 피사계 심도(depth of field)를 확장시키는데 제약이 따르고 있다.As the pixel size of the sensor decreases due to this trend, the number of pixels occupied by the spot of the beam focusing on the sensor surface increases, thereby increasing the chromatic aberration of the lens and causing a decrease in the resolution of the image. Constraints are inherent in expanding the depth of field.

도 1은 종래의 소형 카메라 모듈을 도시한 구성도이다. 도 1에 도시된 바와 같이, 종래의 소형 카메라 모듈은 3 매 이하의 렌즈로 이루어진 광학계(11)와, 광학계(11)를 통과한 빛에서 적외선(IR) 영역의 빛을 차단하고 가시 광선 영역의 빛을 투과시키는 적외선 차단 필터(12)와, 적외선 차단 필터(12)를 투과한 가시 광선 영역의 빛을 검출하여 베이어(Bayer) 포맷 이미지를 출력하는 이미지 센서(13)와, 상기 이미지 센서(13)에서 생성된 베이어 포맷 이미지를 처리하여 RGB 이미지로 출력하는 이미지 신호 처리부(Image Signal Process: ISP)(14)로 이루어진다. 상기 이미지 신호 처리부(14)는 이미지 센서(13)로부터 입력되는 베이어 이미지를 이용하여 각 화소의 컬러보간을 수행하여 각 화소의 RGB값을 결정하는 컬러보간부(141)와, 이미지 화질의 개선을 위해 이미지의 컬러를 수정하고, 감마(gamma)값을 수정하는 컬러 처리부(142)와, 이미지에 대한 콘트라스트 스트레칭(contrast stretching), 샤프닝(sharpening) 등을 수행하는 선명도 개선부(143)을 포함할 수 있다.1 is a block diagram showing a conventional small camera module. As shown in FIG. 1, the conventional miniature camera module blocks the light in the infrared (IR) region from the light passing through the optical system 11 and the light passing through the optical system 11. An infrared cut filter 12 that transmits light, an image sensor 13 that detects light in a visible light region passing through the infrared cut filter 12, and outputs a Bayer format image, and the image sensor 13 And an image signal processor (ISP) 14 for processing the Bayer format image generated by the < RTI ID = 0.0 > The image signal processor 14 performs color interpolation of each pixel using a Bayer image input from the image sensor 13 to determine the RGB value of each pixel, and to improve the image quality. A color processor 142 for correcting a color of the image, a gamma value, and a sharpness enhancer 143 for performing contrast stretching, sharpening, etc. on the image. Can be.

도 1에 도시된 바와 같이, 일반적인 소형 카메라 모듈에서 광학계를 통과한 각 적색, 녹색, 청색광의 파장을 갖는 빔은 파장에 따라 굴절률이 서로 상이 하므로 이미지 센서(13)에 형성하는 스폿의 크기, 즉 스폿이 차지하는 픽셀의 수가 모두 상이하다. 이러한 색상별 빔이 형성하는 스폿이 차지하는 픽셀의 수는 고화소의 이미지 센서일수록 그 차이가 증가한다. 도 2는 이러한 스폿 크기의 차이를 도시한 도면이다.As shown in FIG. 1, the beams having the wavelengths of the red, green, and blue light that have passed through the optical system in the general compact camera module have different refractive indices according to the wavelengths, that is, the size of the spots formed in the image sensor 13, namely, The number of pixels occupied by the spots are all different. The number of pixels occupied by the spot formed by the beam for each color increases as the image sensor of a high pixel increases. 2 is a diagram illustrating such a difference in spot size.

도 2는 APEL 플라스틱 재료를 3매 사용한 300만 화소급 카메라 모듈에 의해 측정된 스폿의 크기를 도시한다. 도 2에서 가로 축의 디포커스(defocus) 값은 이미지 면이 기준 이미지 면으로부터 벗어난 정도를 나타내며 세로 축은 각각의 경우에 적색, 녹색, 청색 채널의 스폿 크기를 나타낸다. 도 2에서 디포커스 값이 0인 위치가 기준 이미지 면을 나타내며, 이 기준 이미지 면은 1 m 떨어진 피사체가 초점을 가장 잘 맺는 면으로 정의된다. 디포커스 값이 음수라는 것은 이미지 면을 광학계에 가까워지는 방향으로 이동시킨 경우를, 양수라는 것은 이미지 면을 광학계로부터 멀어지는 방향으로 이동시킨 경우를 각각 나타낸다. 일반적으로 카메라 모듈에서 디포커스 값이 0인 기준 이미지 면에 센서를 위치시킨다.2 shows the size of the spot measured by a 3 million pixel camera module using three pieces of APEL plastic material. In FIG. 2, the defocus value of the horizontal axis represents the degree of deviation of the image plane from the reference image plane, and the vertical axis represents the spot size of the red, green, and blue channels in each case. In FIG. 2, a position having a defocus value of 0 represents a reference image plane, and the reference image plane is defined as a plane in which a subject 1 m away focuses best. A negative defocus value indicates a case where the image plane is moved in a direction closer to the optical system, and a positive value indicates a case where the image plane is moved in a direction away from the optical system. Typically, the sensor is positioned on the reference image plane with a defocus value of zero in the camera module.

도 2에 나타난 바와 같이 녹색 채널의 스폿 크기는 피사계 심도(50 cm ~ 무한대 거리) 내에서 크게 변하지 않는 반면 청색 채널의 스폿 크기는 근거리(30 cm 근처)에서 가장 작은 스폿 크기를 갖지만 원거리로 갈수록 스폿 크기가 커지며, 적색 채널의 스폿 크기는 이와 반대로 원거리에서 스폿 크기가 작지만 근거리로 갈수록 스폿 크기가 급격히 커지는 것을 볼 수 있다. 또한 Y 채널 이미지의 스폿 크기는 피사계 심도 내에서 4 픽셀 미만으로 유지되는 것을 볼 수 있다. 이러한 결과는, 원거리에서는 청색 채널의 스폿 크기의 증가가 선명성 저하를 일으키는 주 원인이 되며, 반대로 근거리에서는 적색 채널의 스폿 크기의 증가가 선명성을 급격히 저하시키는 주 원인이 됨을 나타낸다.As shown in FIG. 2, the spot size of the green channel does not vary significantly within the depth of field (50 cm to infinity distance), while the spot size of the blue channel has the smallest spot size at close range (near 30 cm), but the spot goes farther away. As the size increases, the spot size of the red channel, on the contrary, is smaller in the distance, but the spot size increases rapidly as the distance increases. It can also be seen that the spot size of the Y channel image remains less than 4 pixels within the depth of field. This result indicates that the increase in the spot size of the blue channel at a long distance is the main cause of the decrease in sharpness, whereas the increase in the spot size of the red channel at the short distance is the main cause of the sharp decrease in sharpness.

종래에 알려진 피사계 심도 확장 방법으로는, 초점 심도(depth of focus)가 확장된 전용 광학계를 설계하거나 특수한 광학 위상 마스크를 렌즈에 부착해 피사체의 거리에 상관없이 센서 면에서 얻어지는 카메라 모듈의 응답을 일정하게 유지시키는 방법이 소개된 바 있다. 이러한 종래의 피사계 심도 확장 방법은, 카메라 모듈을 가지고 촬상되어지는 이미지에 초점 심도가 확장된 전용 광학계 혹은 위상 마스크의 카메라 모듈 응답을 상쇄시키기 위한 별도의 이미지 처리 기술을 적용해 카메라 모듈의 피사계 심도를 확장하여야 한다. 그러나, 종래의 초점 심도 확장시키는 기법은 틸트(tilt) 또는 디센터(decenter)에 훨씬 민감하고 초점 심도의 확장으로 인해 카메라 모듈 조립시 광학계 설계상의 포커싱(focusing) 위치 - 광학계의 마지막 렌즈 면으로부터 센서 면이 놓이는 위치 - 를 찾는 것이 매우 어려운 단점이 있다. 또한, 종래의 위상 마스크를 사용하는 기법은 특수한 마스크를 별도로 제작해야 하는 번거로움과 함께 이러한 마스크가 원통 대칭성을 지니지 않는다는 특성에 의해 이미지 처리 기술을 적용하는데 문제점이 있다.Conventionally, the depth-of-field expansion method is known by designing a dedicated optical system with an extended depth of focus or by attaching a special optical phase mask to the lens so that the response of the camera module obtained from the sensor surface regardless of the distance of the subject is fixed. How to keep it The conventional depth-of-field expansion method applies a separate image processing technique for canceling the camera module response of a dedicated optical system or a phase mask with an extended depth of focus to an image captured with the camera module, thereby adjusting the depth of field of the camera module. Should be extended. However, conventional techniques for expanding depth of focus are much more sensitive to tilt or decenter and due to the expansion of the depth of focus, the focusing position in the optics design when assembling the camera module-the sensor from the last lens side of the optics. It is very difficult to find the position where the face is placed. In addition, the conventional technique using a phase mask has a problem in applying an image processing technique due to the inconvenience of having to manufacture a special mask separately and the characteristic that such a mask does not have cylindrical symmetry.

따라서, 당 기술분야에서는 종래의 소형 카메라 모듈에 별도의 물리적 구성요소를 추가하지 않고 이미지 처리 알고리즘을 통해 피사계 심도를 확장할 수 있는 기술이 요구되고 있다.Accordingly, there is a need in the art for a technology that can extend the depth of field through an image processing algorithm without adding a separate physical component to a conventional small camera module.

본 발명은 전술한 종래 기술의 문제점을 해결하기 위해 제안된 것으로, 그 목적은 별도의 추가적인 물리적 구성없이 베이어 포맷 이미지의 각 색상 채널에 대 한 이미지 처리를 통해 이미지의 선명도가 확보되는 피사체 거리의 범위, 즉 피사계 심도를 확장시킬 수 있는 이미지 처리 방법을 제공하는데 있다.The present invention has been proposed to solve the above-mentioned problems of the prior art, and an object thereof is a range of a subject distance for which image sharpness is secured through image processing for each color channel of a Bayer format image without a separate physical configuration. In other words, to provide an image processing method that can extend the depth of field.

상기 목적을 달성하기 위한 기술적 구성으로서 본 발명은,The present invention as a technical configuration for achieving the above object,

a) 피사계 심도를 확장시키고자 하는 목표 거리에 흑백 라인에지를 위치시키고, 이미지 센서를 이용하여 상기 흑백 라인에지를 촬상하여 베이어 포맷 이미지를 취득하는 단계;a) placing a black and white line edge at a target distance to extend the depth of field, and imaging the black and white line edge using an image sensor to obtain a Bayer format image;

b) 상기 베이어 포맷 이미지의 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선을 구하는 단계;b) obtaining edge profile curves of the red, green and blue channels of the Bayer format image;

c) 상기 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선을 미분하여 상기 적색채널, 녹색채널 및 청색채널의 블러링 곡선을 구하는 단계;c) differentiating edge profile curves of the red, green, and blue channels to obtain blurring curves of the red, green, and blue channels;

d) 상기 적색채널, 녹색채널 및 청색채널의 블러링 곡선을 표현하는 적색채널의 블러링 함수, 녹색채널의 블러링 함수 및 청색채널의 블러링 함수를 결정하는 단계- 상기 각 색상채널의 블러링 함수는 가우스 분포 함수임-;d) determining the blurring function of the red channel, the blurring function of the green channel, and the blurring function of the blue channel, representing the blurring curves of the red channel, the green channel, and the blue channel; Function is a Gaussian distribution function;

e) 상기 적색채널, 녹색채널 및 청색채널의 블러링 함수를 이용하여 상기 적색채널, 녹색채널 및 청색채널에 존재하는 블러링을 각각 보정하는 적색채널에 대한 보정계수, 녹색채널에 대한 보정계수 및 청색채널에 대한 보정계수를 구하는 단계; 및e) a correction coefficient for the red channel, a correction coefficient for the green channel, and a correction coefficient for the red channel for correcting the blurring present in the red channel, the green channel, and the blue channel, respectively, by using the blurring functions of the red, green, and blue channels; Obtaining a correction coefficient for the blue channel; And

f) 상기 이미지 센서에서 검출된 베이어 포맷 이미지의 적색채널, 녹색채널 및 청색채널에 상기 적색채널에 대한 보정계수, 녹색채널에 대한 보정계수 및 청색채널에 대한 보정계수를 각각 적용하는 단계f) applying a correction coefficient for the red channel, a correction coefficient for the green channel, and a correction coefficient for the blue channel to the red, green, and blue channels of the Bayer format image detected by the image sensor, respectively.

를 포함하는 피사계 심도 확장을 위한 이미지 처리 방법을 제공한다.It provides an image processing method for expanding the depth of field comprising a.

본 발명의 바람직한 실시형태에서, 상기 적색채널에 대한 보정계수, 상기 녹색채널에 대한 보정계수 및 상기 청색채널에 대한 보정계수는 각 색상채널에 대한 블러링 보정량을 조정하는 매개변수를 가질 수 있다.In a preferred embodiment of the present invention, the correction coefficient for the red channel, the correction coefficient for the green channel and the correction coefficient for the blue channel may have a parameter for adjusting the blurring correction amount for each color channel.

이 실시형태는, g) 상기 적색채널에 대한 보정계수, 상기 녹색채널에 대한 보정계수 및 상기 청색채널에 대한 보정계수를 각각 적용하여 보정된 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선을 구하고, 상기 보정된 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선으로부터 보정된 적색채널의 스폿 크기, 보정된 녹색채널의 스폿 크기 및 보정된 청색채널의 스폿 크기를 구하는 단계; h) 상기 보정된 적색채널의 스폿 크기, 상기 보정된 녹색채널의 스폿 크기 및 상기 보정된 청색채널의 스폿 크기와 기설정된 적색채널의 목표 스폿 크기, 기설정된 녹색채널의 목표 스폿 크기 및 기설정된 청색채널의 목표 스폿 크기를 각각 비교하는 단계; 및 i) 상기 보정된 적색채널의 스폿 크기와 상기 적색채널의 목표 스폿 크기가 실질적으로 동일해질 때까지 상기 적색채널에 대한 보정계수의 매개변수의 값을 조정하여 적색채널에 대한 수정된 보정계수를 산출하고, 상기 보정된 녹색채널의 스폿 크기와 상기 녹색채널의 목표 스폿 크기가 실질적으로 동일해질 때까지 상기 녹색채널에 대한 보정계수의 매개변수의 값을 조정하여 녹색채널에 대한 수정된 보정 계수를 산출하고, 상기 보정된 청색채널의 스폿 크기와 상기 청색채널의 목표 스폿 크기가 실질적으로 동일해질 때까지 상기 청색채널에 대한 보정계수의 매개변수의 값을 조정하여 청색채널에 대한 수정된 보정계수를 산출하는 단계를 더 포함할 수 있다.In this embodiment, g) the edge profile curves of the corrected red channel, green channel and blue channel are obtained by applying the correction coefficient for the red channel, the correction coefficient for the green channel and the correction coefficient for the blue channel, respectively. Obtaining spot sizes of the corrected red channel, spot sizes of the corrected green channel, and spot sizes of the corrected blue channel from the edge profile curves of the corrected red, green and blue channels; h) the spot size of the corrected red channel, the spot size of the corrected green channel, the spot size of the corrected blue channel and the target spot size of the preset red channel, the target spot size of the preset green channel, and the preset blue Comparing the target spot sizes of the channels, respectively; And i) adjusting the value of the parameter of the correction coefficient for the red channel until the spot size of the corrected red channel and the target spot size of the red channel are substantially equal to adjust the corrected correction coefficient for the red channel. Calculate the corrected correction coefficient for the green channel by adjusting a value of a parameter of the correction coefficient for the green channel until the spot size of the corrected green channel and the target spot size of the green channel are substantially the same. Calculate the adjusted correction coefficient for the blue channel by adjusting a value of a parameter of the correction coefficient for the blue channel until the spot size of the corrected blue channel and the target spot size of the blue channel are substantially the same. The method may further include calculating.

바람직하게, 상기 적색채널, 녹색채널 및 청색채널에 대한 블러링 곡선을 표현하는 각각의 블러링 함수는 하기 식 1에 의해 산출될 수 있다.Preferably, each of the blurring functions representing the blurring curves for the red channel, the green channel, and the blue channel may be calculated by Equation 1 below.

[식 1][Equation 1]

Figure 112007021056689-pat00001
Figure 112007021056689-pat00001

(mc-Nx≤m≤mc+Nx, nc-Ny≤n≤nc+Ny)(m c -N c ≤m≤m x + N x, n y c -N ≤n≤n c + N y)

상기 식 1에서, △x는 이미지 센서의 수평방향 화소 간격, △y는 이미지 센서의 수직방향 화소 간격, A는 블러링 함수의 높이(수평방향 블러링 함수의 높이와 수직방향 블러링 함수의 높이의 평균), mc는 블러링 함수의 수평방향 중심화소의 좌표, nc는 블러링 함수의 수직방향 중심화소의 좌표, σx는 수평방향 블러링 함수의 폭, σy는 수직방향 블러링 함수의 폭을 나타낸다.In Equation 1, Δx is the horizontal pixel spacing of the image sensor, Δy is the vertical pixel spacing of the image sensor, A is the height of the blurring function (the height of the horizontal blurring function and the height of the vertical blurring function M c is the coordinate of the horizontal center pixel of the blurring function, n c is the coordinate of the vertical center pixel of the blurring function, σ x is the width of the horizontal blurring function, and σ y is the vertical blurring. The width of the function.

또한, 상기 식 1과 같은 블러링 함수를 이용하여 상기 보정계수는 하기 식 2에 의해 산출될 수 있다.In addition, the correction coefficient may be calculated by Equation 2 using a blurring function as in Equation 1.

[식 2][Equation 2]

Figure 112007021056689-pat00002
Figure 112007021056689-pat00002

상기 식 2에서, D는 보정계수, B는 상기 식 1의 함수 b의 푸리에 변환을 나타내며, △u는 △x의 역수이고, △v는 △y의 역수이며, k는 매개변수를 나타낸다.In Equation 2, D denotes a correction coefficient, B denotes a Fourier transform of the function b of Equation 1, Δu is an inverse of Δx, Δv is an inverse of Δy, and k is a parameter.

본 발명의 일실시형태는, j) 상기 단계 f)에서 보정된 적색채널, 녹색채널 및 청색채널의 스폿크기와, 기설정된 적색채널의 목표 스폿크기, 기설정된 녹색채널의 목표 스폿크기 및 기설정된 청색채널의 목표 스폿크기를 각각 비교한 스코어를 산출 및 저장하는 단계; k) 상기 매개변수를 변경하여 상기 보정계수를 수정하고, 상기 수정된 보정계수를 적용하여 상기 이미지 센서에서 검출된 상기 베이어 포맷 이미지의 적색채널, 녹색채널 및 청색채널을 보정한 후, 보정된 적색채널, 녹색채널 및 청색채널의 스폿크기와, 상기 적색채널의 목표 스폿크기, 상기 녹색채널의 목표 스폿크기 및 상기 청색채널의 목표 스폿크기를 각각 비교한 스코어를 각각 산출 및 저장하는 단계- 이 단계는 상기 매개변수를 변경하여 반복적으로 수행됨-; 및 l) 상기 저장된 스코어 중 최소값을 갖는 스코어가 산출된 매개변수를 갖는 보정계수를 최종 보정계수로 결정하는 단계를 더 포함할 수 있다.According to an embodiment of the present invention, j) the spot size of the red channel, the green channel and the blue channel corrected in step f), the target spot size of the preset red channel, the target spot size of the preset green channel, and the preset Calculating and storing scores comparing the target spot sizes of the blue channels, respectively; k) modify the correction coefficient by changing the parameter, correct the red channel, green channel and blue channel of the Bayer format image detected by the image sensor by applying the corrected correction coefficient, and then correct the red Computing and storing scores comparing the spot sizes of the channels, the green channels and the blue channels, the target spot sizes of the red channels, the target spot sizes of the green channels, and the target spot sizes of the blue channels, respectively-this step Is performed repeatedly by changing the parameter; And l) determining a correction coefficient having a parameter for which a score having a minimum value among the stored scores is calculated as a final correction coefficient.

이 실시형태에서, 상기 단계 j) 및 단계 k)는, 상기 보정된 적색채널, 녹색채널 및 청색채널의 수평방향 스폿크기와 상기 적색채널의 목표 스폿크기, 녹색채널의 목표 스폿크기 및 청색 채널의 목표 스폿크기를 각각 비교한 적색채널의 수평 방향 스코어, 녹색채널의 수평방향 스코어 및 청색채널의 수평방향 스코어를 산출하는 단계; 상기 보정된 적색채널, 녹색채널 및 청색채널의 수직방향 스폿크기와 상기 적색채널의 목표 스폿크기, 녹색채널의 목표 스폿크기 및 청색 채널의 목표 스폿크기를 각각 비교한 적색채널의 수직방향 스코어, 녹색채널의 수직방향 스코어 및 청색채널의 수직방향 스코어를 산출하는 단계; 및 상기 적색채널, 녹색채널 및 청색채널의 수평방향 스코어와 상기 적색채널, 녹색채널 및 청색채널의 수직방향 스코어 각각의 합을 산출하여 적색채널, 녹색채널 및 청색채널 각각에 대한 전체 스코어로 저장하는 단계를 포함할 수 있다.In this embodiment, the steps j) and k) are the horizontal spot sizes of the corrected red channel, green channel and blue channel, the target spot size of the red channel, the target spot size of the green channel and the blue channel. Calculating a horizontal score of the red channel, a horizontal score of the green channel, and a horizontal score of the blue channel, each comparing the target spot sizes; The vertical score of the red channel is compared with the corrected vertical spot sizes of the red, green and blue channels, the target spot size of the red channel, the target spot size of the green channel, and the target spot size of the blue channel, and green. Calculating a vertical score of the channel and a vertical score of the blue channel; And calculating the sum of the horizontal scores of the red, green, and blue channels and the vertical scores of the red, green, and blue channels, respectively, and storing the sums of the red, green, and blue channels. It may include a step.

전술한 본 발명의 목적을 달성하기 위한 다른 기술적 구성으로서, 본 발명은,As another technical configuration for achieving the above object of the present invention, the present invention,

a) 피사계 심도를 확장시키고자 하는 목표 거리 및 상기 목표 거리와 피사계 심도 내 거리 사이의 적어도 하나의 임의 거리에 각각 흑백 라인에지를 위치시키고, 이미지 센서를 이용하여 상기 복수의 거리에서의 흑백 라인에지를 촬상하여 복수의 베이어 포맷 이미지를 취득하는 단계;a) positioning a black and white line edge at a target distance to extend the depth of field and at least one arbitrary distance between the target distance and the distance in the depth of field, and using an image sensor to place the black and white line edges at the plurality of distances; Photographing the image to obtain a plurality of Bayer format images;

b) 상기 복수의 베이어 포맷 이미지 각각의 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선을 구하는 단계;b) obtaining edge profile curves of a red channel, a green channel, and a blue channel of each of the plurality of Bayer format images;

c) 상기 복수의 베이어 포맷 이미지 각각의 적색채널, 녹색채널 및 청색채널 각각의 에지 프로파일 곡선을 미분하여 상기 적색채널에 대한 복수의 블러링 곡선, 녹색채널에 대한 복수의 블러링 곡선 및 청색채널에 대한 복수의 블러링 곡선을 구 하는 단계;c) differentiate the edge profile curves of each of the red, green, and blue channels of each of the plurality of Bayer format images to obtain a plurality of blurring curves for the red channel, a plurality of blurring curves for the green channel, and a blue channel. Obtaining a plurality of blurring curves for;

d) 상기 복수의 적색채널에 대한 블러링 곡선을 표현하는 복수의 적색채널에 대한 블러링 함수를 결정하고, 상기 복수의 녹색채널에 대한 블러링 곡선을 표현하는 복수의 녹색채널에 대한 블러링 함수를 결정하고, 상기 복수의 청색채널에 대한 블러링 곡선을 표현하는 복수의 청색채널에 대한 블러링 함수를 결정하는 단계- 상기 각 색상채널에 대한 복수의 블러링 함수는 가우스 분포 함수임-;d) determine a blurring function for a plurality of red channels representing the blurring curves for the plurality of red channels, and a blurring function for the plurality of green channels representing the blurring curves for the plurality of green channels Determining a blurring function for the plurality of blue channels representing the blurring curves for the plurality of blue channels, wherein the plurality of blurring functions for each color channel are Gaussian distribution functions;

e) 상기 복수의 적색채널에 대한 블러링 함수 각각에 가중치를 적용하고 모두 합산하여 적색채널에 대한 전체 블러링 함수를 구하며, 상기 복수의 녹색채널에 대한 블러링 함수 각각에 가중치를 적용하고 모두 합산하여 녹색채널에 대한 전체 블러링 함수를 구하며, 상기 복수의 청색채널에 대한 블러링 함수 각각에 가중치를 적용하고 모두 합산하여 청색채널에 대한 전체 블러링 함수를 구하는 단계;e) apply a weight to each of the blurring functions for the plurality of red channels and add them all to obtain a total blurring function for the red channel, and apply a weight to each of the blurring functions for the plurality of green channels and add them all together Obtaining a total blurring function for the green channel, applying a weight to each of the blurring functions for the plurality of blue channels, and summing all of them to obtain a total blurring function for the blue channel;

f) 상기 적색채널, 녹색채널 및 청색채널에 대한 전체 블러링 함수를 각각 이용하여 상기 적색채널, 녹색채널 및 청색채널에 존재하는 블러링을 각각 보정하는 적색채널에 대한 보정계수, 녹색채널에 대한 보정계수 및 청색채널에 대한 보정계수를 구하는 단계; 및f) a correction coefficient for the red channel, for the green channel, respectively for correcting the blurring present in the red channel, the green channel, and the blue channel by using the total blurring functions for the red channel, the green channel, and the blue channel, respectively; Obtaining a correction coefficient for the correction coefficient and the blue channel; And

g) 상기 이미지 센서에서 검출된 베이어 포맷 이미지의 적색채널, 녹색채널 및 청색채널에 상기 적색채널에 대한 보정계수, 녹색채널에 대한 보정계수 및 청색채널에 대한 보정계수를 각각 적용하는 단계g) applying a correction coefficient for the red channel, a correction coefficient for the green channel, and a correction coefficient for the blue channel to the red, green, and blue channels of the Bayer format image detected by the image sensor, respectively.

를 포함하는 피사계 심도 확장을 위한 이미지 처리 방법을 제공한다.It provides an image processing method for expanding the depth of field comprising a.

바람직하게, 상기 복수의 적색채널, 녹색채널 및 청색채널에 대한 블러링 곡선을 표현하는 각각의 블러링 함수는 하기 식 3과 같이 결정될 수 있으며, 상기 적색채널, 녹색채널 및 청색채널에 대한 전체 블러링 곡선은 하기 식 4와 같이 결정될 수 있다.Preferably, each of the blurring functions representing the blurring curves for the plurality of red, green, and blue channels may be determined as in Equation 3 below, and the total blur of the red, green, and blue channels may be determined. The ring curve may be determined as in Equation 4 below.

[식 3][Equation 3]

Figure 112007021056689-pat00003
Figure 112007021056689-pat00003

(mc-Nx≤m≤mc+Nx, nc-Ny≤n≤nc+Ny)(m c -N c ≤m≤m x + N x, n y c -N ≤n≤n c + N y)

[식 4][Equation 4]

Figure 112007021056689-pat00004
Figure 112007021056689-pat00004

상기 식 3에서, bp는 거리 p에서 블러링 함수, △x는 이미지 센서의 수평방향 화소 간격, △y는 이미지 센서의 수직방향 화소 간격, Ap는 거리 p에서 블러링 함수의 높이(수평방향 블러링 함수의 높이와 수직방향 블러링 함수의 높이의 평균), mc는 거리 p에서 블러링 함수의 수평방향 중심화소의 좌표, nc는 거리 p에서 블러링 함수의 수직방향 중심화소의 좌표 , σxp는 거리 p에서 수평방향 블러링 함수의 폭, σyp는 거리 p에서 수직방향 블러링 함수의 폭을 나타낸다. 각 거리 p에서 흑백라인 에지를 촬상시 에지의 위치를 동일하게 촬상하게 되므로 각 거리 p에서 블러링 함수의 수평방향, 수직방향 중심좌표는 모두 동일하다.In Equation 3, b p is a blurring function at the distance p, Δx is the horizontal pixel spacing of the image sensor, Δy is the vertical pixel spacing of the image sensor, A p is the height of the blurring function at the distance p (horizontal The average of the height of the directional blurring function and the height of the vertical blurring function), m c is the coordinate of the horizontal center pixel of the blurring function at distance p, and n c is the The coordinate, σ xp, is the width of the horizontal blurring function at distance p, and σ yp is the width of the vertical blurring function at distance p. When the black and white line edges are photographed at each distance p, the positions of the edges are the same. Therefore, the horizontal and vertical center coordinates of the blurring function are the same at each distance p.

또한, 상기 식 4에서, b는 전체 블러링 함수를 나타내며, wp는 가중치를 나타낸다.In addition, in Equation 4, b represents an overall blurring function, and w p represents a weight.

이하, 첨부된 도면을 참조하여 본 발명의 실시형태를 보다 상세하게 설명한다. 그러나, 본 발명의 실시형태는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명되는 실시형태로 한정되는 것은 아니다. 본 발명의 실시형태는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 또한, 본 발명을 설명함에 있어서, 정의되는 용어들은 본 발명에서의 기능을 고려하여 정의 내려진 것으로, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 등에 따라 달라질 수 있으므로, 본 발명의 기술적 구성요소를 한정하는 의미로 이해되어서는 아니 될 것이다.Hereinafter, with reference to the accompanying drawings will be described in detail an embodiment of the present invention. However, embodiments of the present invention may be modified in various other forms, and the scope of the present invention is not limited to the embodiments described below. Embodiment of this invention is provided in order to demonstrate this invention more completely to the person skilled in the art to which this invention belongs. In addition, in the description of the present invention, terms defined are defined in consideration of functions in the present invention, which may vary according to the intention or convention of those skilled in the art, and thus limit the technical components of the present invention. It should not be understood as meaning.

도 3은 본 발명의 피사계 심도 확장을 위한 이미지 처리 방법을 도시한 플로우 차트이다.3 is a flowchart illustrating an image processing method for expanding a depth of field of the present invention.

도 3을 참조하면 본 발명에 따른 피사계 심도 확장을 위한 이미지 처리 방법은, 이미지 센서에서 흑백 라인 에지를 촬상하여 출력하는 베이어 포맷 이미지에 포함된 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선을 구하는 단계(S31)와, 상기 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선을 미분하여 상기 적색채널, 녹색채널 및 청색채널의 블러링 곡선을 구하는 단계(S32)와, 상기 적색 채널, 녹색채널 및 청색채널의 블러링 곡선을 표현하는 적색채널의 블러링 함수, 녹색채널의 블러링 함수 및 청색채널의 블러링 함수를 결정하는 단계(S33)와, 상기 적색채널, 녹색채널 및 청색채널의 블러링 함수를 이용하여 상기 적색채널, 녹색채널 및 청색채널에 존재하는 블러링을 각각 보정하는 적색채널에 대한 보정계수, 녹색채널에 대한 보정계수 및 청색채널에 대한 보정계수를 구하는 단계(S341, S351, S361) 및 상기 이미지 센서에서 검출된 베이어 포맷 이미지의 적색채널, 녹색채널 및 청색채널에 상기 적색채널에 대한 보정계수, 녹색채널에 대한 보정계수 및 청색채널에 대한 보정계수를 각각 적용하는 단계(S342, S352, S362)를 포함하여 구성될 수 있다.Referring to FIG. 3, the image processing method for expanding the depth of field according to the present invention includes obtaining edge profile curves of red, green, and blue channels included in a Bayer format image outputting a black and white line edge by an image sensor. Obtaining a blurring curve of the red channel, the green channel, and the blue channel by differentiating the edge profile curves of the red channel, the green channel, and the blue channel (S32); Determining a blurring function of the red channel, the blurring function of the green channel, and the blurring function of the blue channel, which represent the blurring curve of the blue channel (S33), and the blurring of the red channel, the green channel, and the blue channel Correction coefficient for the red channel, correction channel for the green channel, respectively, for correcting blurring present in the red, green, and blue channels by using a function And obtaining correction coefficients for the blue channel (S341, S351, S361) and correction coefficients for the red channel, and correction for the green channel in the red, green, and blue channels of the Bayer format image detected by the image sensor. And applying the coefficient and the correction coefficient for the blue channel (S342, S352, S362), respectively.

또한, 본 발명은 전술한 구성에 더하여, 상기 적색채널에 대한 보정계수, 상기 녹색채널에 대한 보정계수 및 상기 청색채널에 대한 보정계수를 각각 적용하여 보정된 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선을 구하고, 상기 보정된 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선으로부터 보정된 적색채널의 스폿 크기, 보정된 녹색채널의 스폿 크기 및 보정된 청색채널의 스폿 크기를 구하는 단계(S342, S352, S362)와, 상기 보정된 적색채널의 스폿 크기, 상기 보정된 녹색채널의 스폿 크기 및 상기 보정된 청색채널의 스폿 크기와 기설정된 적색채널의 목표 스폿 크기, 기설정된 녹색채널의 목표 스폿 크기 및 기설정된 청색채널의 목표 스폿 크기를 각각 비교하는 단계(S343, S353, S363) 및 상기 보정된 적색채널의 스폿 크기와 상기 적색채널의 목표 스폿 크기가 실질적으로 동일해질 때까지 상기 적색채널에 대한 보정계수의 매개변수의 값을 조정하여(S344) 적색채널 에 대한 수정된 보정계수를 산출하고(S345), 상기 보정된 녹색채널의 스폿 크기와 상기 녹색채널의 목표 스폿 크기가 실질적으로 동일해질 때까지 상기 녹색채널에 대한 보정계수의 매개변수의 값을 조정하여(S354) 녹색채널에 대한 수정된 보정계수를 산출하고(S355), 상기 보정된 청색채널의 스폿 크기와 상기 청색채널의 목표 스폿 크기가 실질적으로 동일해질 때까지 상기 청색채널에 대한 보정계수의 매개변수의 값을 조정하여(S364) 청색채널에 대한 수정된 보정계수를 산출하는 단계(S365)를 더 포함할 수 있다.In addition, the present invention, in addition to the above-described configuration, the edge of the red channel, green channel and blue channel corrected by applying the correction coefficient for the red channel, the correction coefficient for the green channel and the correction coefficient for the blue channel, respectively Obtaining a profile curve and obtaining a spot size of the corrected red channel, a spot size of the corrected green channel, and a spot size of the corrected blue channel from the edge profile curves of the corrected red, green, and blue channels (S342, S352 and S362), the spot size of the corrected red channel, the spot size of the corrected green channel, the spot size of the corrected blue channel and the target spot size of the preset red channel, and the target spot size of the preset green channel And comparing target spot sizes of preset blue channels (S343, S353, and S363), and spot sizes of the corrected red channel and the red color. Adjust the value of the parameter of the correction coefficient for the red channel until the target spot size of the null is substantially the same (S344) to calculate the corrected correction coefficient for the red channel (S345), and the corrected green channel The modified correction coefficient for the green channel is calculated by adjusting the value of the parameter of the correction coefficient for the green channel until the spot size of and the target spot size of the green channel are substantially the same (S354). The adjusted correction coefficient for the blue channel is adjusted by adjusting a value of a parameter of the correction coefficient for the blue channel until the spot size of the corrected blue channel and the target spot size of the blue channel are substantially the same (S364). It may further include the step (S365).

먼저, 본 발명의 일실시형태에서, 상기 이미지 센서에서 흑백 라인 에지를 촬상하여 출력하는 베이어 포맷 이미지에 포함된 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선을 구하는 단계(S31)는, 피사계 심도를 확장시키고자 하는 하나의 목표 거리에 흑백 라인에지를 위치시키고, 이미지 센서를 이용하여 상기 흑백 라인에지를 촬상하여 하나의 베이어 포맷 이미지를 취득한 후, 취득한 베이어 포맷 이미지에 포함된 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선을 구하는 단계일 수 있다. 이 실시형태는, 피사계 심도를 확장시키고자 하는 목표 거리에서 취득된 이미지에서 적색채널, 녹색채널 및 청색채널의 스폿크기를 기설정된 상기 목표 거리에서의 목표 스폿크기 만큼 보정함으로써 피사계 심도를 확장할 수 있다.First, in one embodiment of the present invention, the step (S31) of obtaining the edge profile curves of the red channel, the green channel, and the blue channel included in the Bayer format image which captures and outputs the black and white line edges in the image sensor, the depth of field Place a black and white line edge at a target distance to extend, capture an image of the black and white line edge using an image sensor, acquire one Bayer format image, and then red and green channels included in the obtained Bayer format image. And calculating an edge profile curve of the blue channel. This embodiment can extend the depth of field by correcting the spot sizes of the red channel, the green channel, and the blue channel in the image acquired at the target distance to extend the depth of field by the target spot size at the predetermined target distance. have.

다른 실시형태에서, 상기 이미지 센서에서 흑백 라인 에지를 촬상하여 출력하는 베이어 포맷 이미지에 포함된 적색채널, 녹색채널 및 청색채널의 에지 프로파 일 곡선을 구하는 단계(S31)는, 피사계 심도를 확장시키고자 하는 목표 거리 및 상기 목표 거리와 피사계 심도 내 거리 사이의 적어도 하나의 임의 거리에 각각 흑백 라인에지를 위치시키고, 이미지 센서를 이용하여 상기 복수의 거리에서의 흑백 라인에지를 촬상하여 복수의 베이어 포맷 이미지를 취득한 후, 복수의 베이어 포맷 이미지 각각에 대한 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선을 구하는 단계일 수 있다. 이 실시형태는, 피사계 심도를 확장하고자 하는 목표 거리 및 상기 목표 거리 이외의 거리에서 복수의 베이어 포맷 이미지를 취득한 후, 각각의 베이어 포맷 이미지에 대한 각 색상채널의 에지 프로파일 곡선을 구한다. 이렇게 각 색상채널별로 구한 복수의 에지 프로파일 곡선 각각에 대해 후속 공정에서 블러링 곡선 및 블러링 함수를 구하고, 각 색상채널별로 구한 복수의 블러링 함수에 가중치를 적용하여 합산함으로써 전체 블러링 함수를 결정하게 된다. 이 실시형태는, 복수의 거리에서 블러링 함수를 구하고 이를 가중치 적용 합산함으로써, 각 색상별로 보정이 필요한 거리가 다른 경우 거리에 따른 가중치를 두어 더욱 효율적인 보정이 이루어질 수 있게 할 수 있다. 또한 가중치를 적용한 합산법을 통해 실제 모듈에서 발생하는 제작공차를 감안하여 보정을 수행할 수 있다.In another embodiment, the step (S31) of calculating the edge profile curves of the red, green, and blue channels included in the Bayer format image that captures and outputs the black and white line edges in the image sensor may extend the depth of field. Place a black and white line edge at a desired target distance and at least one arbitrary distance between the target distance and a distance in the depth of field, and image the black and white line edges at the plurality of distances using an image sensor to form a plurality of Bayer formats. After acquiring the image, the method may include calculating edge profile curves of the red channel, the green channel, and the blue channel for each of the plurality of Bayer format images. This embodiment obtains a plurality of Bayer format images at a target distance to which the depth of field is to be extended and at a distance other than the target distance, and then obtains an edge profile curve of each color channel for each Bayer format image. The blurring curve and the blurring function are obtained in a subsequent process for each of the edge profile curves obtained for each color channel, and the total blurring function is determined by summing and applying the weighting to the blurring functions obtained for each color channel. Done. In this embodiment, by calculating a blurring function at a plurality of distances and summing and applying the weights, a more efficient correction may be made by weighting the distances when the distances requiring correction for each color are different. In addition, the weighted summation method can be used to compensate for manufacturing tolerances occurring in the actual module.

다음으로, 상기 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선을 미분하여 상기 적색채널, 녹색채널 및 청색채널의 블러링 곡선을 구하는 단계(S32) 및 상기 적색채널, 녹색채널 및 청색채널의 블러링 곡선을 표현하는 적색채널의 블러링 함수, 녹색채널의 블러링 함수 및 청색채널의 블러링 함수를 결정하는 단 계(S33)에 대해 설명한다. Next, differentiating edge profile curves of the red, green and blue channels to obtain blurring curves of the red, green and blue channels (S32) and blur of the red, green and blue channels A step S33 for determining the blurring function of the red channel, the blurring function of the green channel, and the blurring function of the blue channel representing the ring curve will be described.

도 4는 블러링 곡선을 구한 후 블러링 곡선을 이용하여 블러링 함수를 구하는 과정을 도시한 블럭도이다. 본 발명은 블러링 함수를 구하기 위해 먼저 이미지 센서에서 출력되는 베이어 포맷 이미지를 직접 취득하여야 한다(S41). 이를 위해 이미지 센서 후단에 위치한 ISP(도 1의 14)의 전원을 차단하여 그 기능을 중지시키고 별도의 인터페이스 보드 및 캡쳐 프로그램을 이용하여 이미지 센서로부터 출력되는 베이어 포맷 이미지를 직접 취득할 수 있다. 특히, 블러링 함수를 검출하기 위해서는 흑백 라인에지를 이미지 센서로 촬상한 후 이미지 센서로부터 출력되는 베이어 포맷 이미지를 직접 취득한다.4 is a block diagram illustrating a process of obtaining a blurring function using a blurring curve after obtaining a blurring curve. In the present invention, in order to obtain a blurring function, first, a Bayer format image output from an image sensor must be directly acquired (S41). To this end, the ISP (14 of FIG. 1) located at the rear of the image sensor may be cut off to stop the function, and a Bayer format image output from the image sensor may be directly acquired by using a separate interface board and a capture program. In particular, in order to detect a blurring function, a black and white line edge is picked up by an image sensor and a Bayer format image output from the image sensor is directly acquired.

이어, 이미지센서로부터 출력된 베이어 포맷 이미지로부터 적색화소로 이루어진 적색채널, 녹색화소로 이루어진 녹색채널 및 청색화소로 이루어진 청색채널을 분리한다(42). 이러한 각 색상채널을 분리하는 과정은 당업계에 잘 알려진 다양한 상용 컴퓨터 툴을 이용하여 이루어질 수 있다. 이미지 센서로부터 출력된 베이어 포맷 이미지는 도 5에 도시된 바와 같이, 적색화소, 녹색화소 및 청색화소로 이루어진 이미지이다. 이러한 베이어 포맷 이미지에서 도 5에 도시된 것과 같이, 녹색 화소로 이루어진 녹색채널, 적색화소로 이루어진 적색채널 및 청색화소로 이루어진 청색채널을 분리한다. 도 5에 도시된 바와 같이, 녹색채널은 수평방향으로 적색화소와 인접한 녹색화소로 이루어진 제1 녹색채널과, 도시하지는 않았지만 수평방향으로 청색화소와 인접한 녹색화소로 이루어진 제2 녹색채널으로 이루어질 수 있다.Subsequently, a red channel composed of red pixels, a green channel composed of green pixels, and a blue channel composed of blue pixels are separated from the Bayer format image output from the image sensor (42). The process of separating each of these color channels can be accomplished using a variety of commercial computer tools well known in the art. The Bayer format image output from the image sensor is an image composed of red pixels, green pixels, and blue pixels, as shown in FIG. 5. In the Bayer format image, as shown in FIG. 5, a green channel made of green pixels, a red channel made of red pixels, and a blue channel made of blue pixels are separated. As shown in FIG. 5, the green channel may include a first green channel including a green pixel adjacent to a red pixel in a horizontal direction, and a second green channel including a green pixel adjacent to a blue pixel in a horizontal direction although not shown. .

도 5에 도시된 각 색상채널에서 점선의 원으로 표시된 부분은 목표 거리에서 의 스폿크기를 도시한 것이다. 이 스폿크기는 특정 색상채널에 대한 스폿크기를 도시하고자 하는 것이 아니라 이미지 센서로부터 출력되는 베이어 포맷 이미지에서 스폿 내에 포함되는 화소수와 추출된 각 색상채널에서 스폿 내에 포함되는 화소수를 비교하기 위한 것이다. 즉, 도 5에 도시된 것과 같이, 하나의 베이어 포맷 이미지에 포함된 적색채널, 녹색채널 및 청색채널에 형성된 스폿의 크기는 모두 상이하며 이로 인해 선명도가 저하되는 문제가 발생한다. 이러한 스폿크기의 차이를 감소시키면 목표 거리에서 해당 이미지의 선명도가 향상되며 이로 인해 선명도가 확보되는 피사계 심도가 확장된다. 이미지센서로부터 출력되는 베이어 포맷 이미지의 각 화소간의 수평방향 간격을 △x라 하고 수직방향 간격을 △y라 할 때, 각 색상채널의 화소 간의 간격은 2△x, 2△y이다. 즉, 분리된 각 색상채널은, 이미지센서로부터 출력되는 베이어 포맷 이미지의 화소간 간격의 2배 크기를 갖는 간격마다 화소값이 재추출되는 것으로 이해될 수 있다.In each of the color channels shown in FIG. 5, the portion indicated by the dotted circle shows the spot size at the target distance. This spot size is not intended to show the spot size for a particular color channel, but to compare the number of pixels included in the spot in the Bayer format image output from the image sensor with the number of pixels included in the spot in each extracted color channel. . That is, as illustrated in FIG. 5, the sizes of the spots formed in the red channel, the green channel, and the blue channel included in one Bayer format image are all different, which causes a problem of deterioration of sharpness. Reducing this difference in spot size improves the sharpness of the image at the target distance, thereby extending the depth of field to ensure sharpness. When the horizontal spacing between each pixel of the Bayer format image output from the image sensor is Δx and the vertical spacing is Δy, the spacing between the pixels of each color channel is 2Δx, 2Δy. That is, each separated color channel may be understood to re-extract pixel values at intervals having a size twice the interval between pixels of the Bayer format image output from the image sensor.

이어, 추출된 적색채널, 녹색채널 및 청색채널에 대한 에지 프로파일 곡선을 구한다(43). 에지 프로파일 곡선을 구하기 위해 에지를 포함하는 임의의 화소들로 이루어진 측정영역을 선택하고, 이 측정 영역에서 에지 프로파일 곡선을 구한다. 이상적인 흑백 라인에지를 촬상한 이미지 센서 출력 이미지에 대한 에지 프로파일 곡선은 흑색 영역과 백색 영역의 에지부분에서 수직으로 형성될 수 있다. 그러나, 실제 흑백 라인에지의 이미지 센서 출력 영상는 에지부분에서 블러링이 발생하게 되고, 이 블러링으로 인해 도 6의 (a)에 도시된 것과 같이 에지 프로파일 곡선은 에지부분의 주위에서 경사를 갖는 형태로 형성된다. 이 때, 에지 프로파일 곡선의 최대값의 10%에서 90%까지 상승하는데 소요되는 화소수를 통상 스폿 크기로 정의할 수 있다. 블러링 양이 클수록 에지 프로파일 곡선의 경사는 완만하게 형성될 수 있으며 스폿 크기가 커지게 된다. 이 스폿크기는 각 색상채널마다 차이가 있으며 이러한 차이로 인해 전술한 것과 같은 이미지 선명도 저하가 발생하고 피사계 심도가 협소해지게 되는 것이다.Subsequently, the edge profile curves of the extracted red, green, and blue channels are obtained (43). To obtain an edge profile curve, a measurement area composed of arbitrary pixels including an edge is selected, and the edge profile curve is obtained in this measurement area. The edge profile curve for the image sensor output image that captures the ideal black and white line edge can be formed vertically at the edges of the black region and the white region. However, in the image sensor output image of the actual black and white line edges, blurring occurs at the edge portion, and the blurring profile causes the edge profile curve to be inclined around the edge portion as shown in FIG. Is formed. At this time, the number of pixels required to rise from 10% to 90% of the maximum value of the edge profile curve can be defined as a normal spot size. The greater the amount of blurring, the smoother the slope of the edge profile curve can be formed and the larger the spot size. This spot size is different for each color channel, and this difference causes a reduction in image sharpness as described above and a narrow depth of field.

본 발명에서, 흑백 라인에지에 대한 베이어 포맷 이미지로부터 각 색상채널의 에지 프로파일 곡선을 구하는 과정은 수평방향 흑백 라인에지 및 수직방향 흑백 라인에지에 대해 모두 수행되는 것이 바람직하며, 수평방향 흑백 라인에지를 통해 수평방향의 블러링을 나타내는 에지 프로파일 곡선을 구할 수 있고, 수직방향 흑백 라인에지를 통해 수직방향의 블러링을 나타내는 에지 프로파일 곡선을 구할 수 있다.In the present invention, the process of obtaining the edge profile curve of each color channel from the Bayer format image for the black and white line edges is preferably performed for both the horizontal black and white line edges and the vertical black and white line edges. The edge profile curve representing the blurring in the horizontal direction can be obtained, and the edge profile curve representing the blurring in the vertical direction can be obtained through the vertical black and white line edge.

이어, 상기 적색채널, 녹색채널 및 청색채널에 대한 에지 프로파일 곡선을 미분하여 상기 적색채널, 녹색채널 및 청색채널의 블러링 곡선을 구한다(44). 상기 에지 프로파일 곡선은 그 기울기가 점차 증가하다가 에지의 중심부에서부터 다시 기울기가 감소하는 곡선의 형태를 가지므로, 이 에지 프로파일 곡선을 미분하게 되면, 도 6의 (b)에 도시된 것과 같이 가우스 분포 곡선을 형성하게 된다. 이 가우스 분포 곡선을 블러링 곡선이라 정의한다.Subsequently, the edge profile curves of the red, green, and blue channels are differentiated to obtain blurring curves of the red, green, and blue channels (44). Since the edge profile curve has a form in which the slope gradually increases and then the slope decreases again from the center of the edge, when the edge profile curve is differentiated, a Gaussian distribution curve as shown in FIG. Will form. This Gaussian distribution curve is defined as a blurring curve.

본 발명은, 수직방향 흑백 라인 에지에 대한 영상을 이용하여 수평방향 블러링 곡선을 구하고, 수평방향 흑백 라인 에지에 대한 영상을 이용하여 수직방향 블러링 곡선을 구할 수 있다.According to the present invention, a horizontal blurring curve may be obtained using an image of a vertical black and white line edge, and a vertical blurring curve may be obtained using an image of a horizontal black and white line edge.

전술한 에지 프로파일 곡선을 구하는 과정 및 에지 프로파일 곡선을 미분하여 블러링 곡선을 구하는 과정은 당업계에 잘 알려진 다양한 상용 컴퓨터 툴을 이용하여 이루어질 수 있다.The process of obtaining the above-described edge profile curve and the process of differentiating the edge profile curve to obtain the blurring curve may be performed using various commercial computer tools well known in the art.

이어, 상기 적색채널, 녹색채널 및 청색채널에 대한 블러링 곡선을 표현하는 각각의 1차원 블러링 함수를 결정한다(45). 이 블러링 함수 결정 과정은 도 6의 (b)에 도시된 것과 같은 가우스 분포 곡선이 나타내는 수학적인 식을 구하는 과정으로, 일반적으로 통용되는 함수 피팅(fitting) 과정을 통해 얻을 수 있다. 또한, 이 블러링 함수 결정 과정에서는, 수평방향 블러링 곡선으로부터 수평방향의 블러링 함수를 결정하는 과정 및 수직방향의 블러링 곡선으로부터 수직방향 블러링 함수를 결정하는 과정이 각각 수행될 수 있다. 즉, 이 블러링 함수 결정과정은 수평방향 및 수직방향의 블러링 함수를 각각 결정하는 1차원 블러링 함수 결정 과정으로 이해될 수 있다.Next, each one-dimensional blurring function representing the blurring curves for the red channel, the green channel, and the blue channel is determined (45). This blurring function determination process is a process of obtaining a mathematical expression represented by a Gaussian distribution curve as shown in (b) of FIG. 6 and can be obtained through a function fitting process that is commonly used. In this blurring function determination process, the horizontal blurring function may be determined from the horizontal blurring curve and the vertical blurring function may be determined from the vertical blurring curve. That is, this blurring function determination process can be understood as a 1-dimensional blurring function determination process for determining the blurring function in the horizontal direction and the vertical direction, respectively.

예를 들어, 수평방향 블러링 함수는 하기 식 5와 같이 결정될 수 있다.For example, the horizontal blurring function may be determined as in Equation 5 below.

[식 5][Equation 5]

Figure 112007021056689-pat00005
Figure 112007021056689-pat00005

(mc-Nx≤m≤mc+Nx)(m c -N x ≤m≤m c + N x )

상기 식 5에서, △x는 이미지 센서의 수평방향 화소 간격, Ax는 블러링 함수의 수평방향 높이, mc는 블러링 함수의 수평방향 중심 좌표, σx는 수평방향 블러링 함수의 폭을 나타낸다. 상기 식 5에서 블러링 함수의 높이(Ax)와 수평방향 블러링 함수의 폭(σx), 블러링 함수의 수평방향 중심 좌표(mc)는 블러링 곡선인 가우스 분포 곡선의 피팅(fitting)을 수행함으로써 간단히 구할 수 있다. 상기 식 5에서 Nx는 상기 블러링 함수를 구하기 위한 영역을 나타내는 것으로, 상기 에지 프로파일 곡선에서 최대값의 10%을 나타내는 지점 및 90%를 나타내는 지점으로부터 상기 수평방향 블러링 곡선의 중심화소까지의 거리가 될 수 있다. 상기 식 5에서 σx는 블러링 곡선의 폭에 관련된 파라미터로써 이 값을 블러링 양으로 정의할 수도 있다. 또한, 상기 식 5에서 블러링 곡선의 높이(Ax)는 최대값이 1이 되도록 정규화하여 사용할 수 있는 것으로 블러링 양을 구하기 위한 본 발명에서는 큰 의미를 갖지 않는다.In Equation 5, Δx is the horizontal pixel spacing of the image sensor, A x is the horizontal height of the blurring function, m c is the horizontal center coordinate of the blurring function, and σ x is the width of the horizontal blurring function. Indicates. In Equation 5, the height (A x ) of the blurring function, the width (σ x ) of the horizontal blurring function, and the horizontal center coordinate (m c ) of the blurring function are fitting of the Gaussian distribution curve, which is a blurring curve. Can be obtained simply by In Equation 5, N x represents an area for obtaining the blurring function, from the point representing 10% of the maximum value and the point representing 90% to the center pixel of the horizontal blurring curve in the edge profile curve. It can be a distance. In Equation 5, sigma x may be defined as a blurring amount as a parameter related to the width of the blurring curve. In addition, the height A x of the blurring curve in Equation 5 can be normalized so that the maximum value is 1 and does not have a significant meaning in the present invention for obtaining the blurring amount.

상기 식 5를 통해 수평방향으로 2Nx+1 화소 범위에서 블러링 함수가 결정되며, 이미지센서로부터 출력되는 베이어 포맷 영상이 갖는 화소 간격의 2배 마다 데이터가 샘플링됨을 알 수 있다. It can be seen from Equation 5 that the blurring function is determined in the 2N x +1 pixel range in the horizontal direction, and data is sampled every two times the pixel interval of the Bayer format image output from the image sensor.

또한, 상기 식 5와 유사하게 수직방향의 블러링 함수도 결정될 수 있다.In addition, similar to the above equation 5, the vertical blurring function can also be determined.

이어, 상기 1차원 블러링 함수, 즉 수평방향 블러링 함수와 수직방향 블러링 함수를 이용하여 수평,수직 방향의 블러링 양을 함께 나타낼 수 있는 2차원 블러링 함수를 구한다(46). 실제 카메라 모듈에서 검출된 영상에 선명도 보정을 수행하기 위해서는 1차원 블러링 함수 하나만 적용되는 것은 의미가 없으며, 이 1차원 블러 링 함수를 2차원 블러링 함수로 확장하여야 한다. 수평방향 및 수직방향의 블러링 양을 동시에 나타내는 2차원 블러링 함수는 상기 1차원 블러링 함수인 수평방향 블러링 함수와 수직방향 블러링 함수의 곱으로 구할 수 있다. 이 2차원 블러링 함수는, 하기 식 1과 같이 나타난다.Subsequently, a two-dimensional blurring function capable of representing both horizontal and vertical blurring amounts is obtained using the one-dimensional blurring function, that is, the horizontal and vertical blurring functions (46). In order to perform sharpness correction on an image detected by an actual camera module, it is not meaningful to apply only one 1D blurring function, and the 1D blurring function should be extended to a 2D blurring function. The two-dimensional blurring function that simultaneously represents the amount of horizontal and vertical blurring may be obtained by multiplying the horizontal blurring function and the vertical blurring function, which are the one-dimensional blurring function. This two-dimensional blurring function is represented by following formula (1).

[식 1][Equation 1]

Figure 112007021056689-pat00006
Figure 112007021056689-pat00006

(mc-Nx≤m≤mc+Nx, nc-Ny≤n≤nc+Ny)(m c -N c ≤m≤m x + N x, n y c -N ≤n≤n c + N y)

상기 식 1에서, △x는 이미지 센서의 수평방향 화소 간격, △y는 이미지 센서의 수직방향 화소 간격, A는 블러링 함수의 높이(수평방향 블러링 함수의 높이와 수직방향 블러링 함수의 높이의 평균), mc는 블러링 함수의 수평방향 중심화소의 좌표, nc는 블러링 함수의 수직방향 중심화소의 좌표, σx는 수평방향 블러링 함수의 폭, σy는 수직방향 블러링 함수의 폭을 나타낸다.In Equation 1, Δx is the horizontal pixel spacing of the image sensor, Δy is the vertical pixel spacing of the image sensor, A is the height of the blurring function (the height of the horizontal blurring function and the height of the vertical blurring function M c is the coordinate of the horizontal center pixel of the blurring function, n c is the coordinate of the vertical center pixel of the blurring function, σ x is the width of the horizontal blurring function, and σ y is the vertical blurring. The width of the function.

상기 식 1과 같은 블러링 함수가 적색채널, 녹색채널 및 청색채널에 대해 각각 산출된다.A blurring function such as Equation 1 is calculated for the red channel, the green channel, and the blue channel, respectively.

이상에서 설명한, 블러링 함수를 구하는 과정은 하나의 목표 거리에서 흑백라인 에지를 촬상한 베이어 포맷 이미지를 이용한 실시형태에 해당한다. 복수의 거리에서 각각 라인 에지를 촬상하여 복수의 베이어 포맷 이미지를 이용하는 실시형 태에서, 에지 프로파일 곡선을 구하고, 이로부터 블러링 곡선 및 블러링 함수를 구하는 기본적인 원리는 전술한 설명과 동일하나, 복수의 베이어 포맷 이미지에 대해 각각 적색채널, 녹색채널 및 청색채널의 프로파일 곡선을 구하기 때문에 각 색상채널에 대해 복수의 에지 프로파일 곡선, 블러링 곡선 및 블러링 함수를 각각 구하여야 한다는 점과, 각 색상채널에 대한 복수의 블러링 함수를 가중치 합산하여 전체 블러링 함수를 구한다는 점에서 차이가 있다.The process of obtaining the blurring function described above corresponds to an embodiment using a Bayer format image obtained by capturing a black and white line edge at one target distance. In embodiments in which a plurality of Bayer format images are used by imaging line edges at a plurality of distances, the basic principle of obtaining an edge profile curve from which a blurring curve and a blurring function are obtained is the same as described above, Since the profile curves of the red, green, and blue channels are obtained for Bayer format images, the multiple edge profile curves, blurring curves, and blurring functions must be obtained for each color channel. The difference is that a total blurring function is obtained by weighting a plurality of blurring functions for.

복수의 베이어 포맷 이미지를 이용하는 실시형태에서, 복수의 베이어 포맷 이미지 각각에 대해 구한 복수의 적색채널, 녹색채널 및 청색채널에 대한 블러링 곡선을 표현하는 각각의 블러링 함수는 하기 식 3과 같이 결정될 수 있다.In an embodiment using a plurality of Bayer format images, each blurring function representing the blurring curves for the plurality of red, green, and blue channels obtained for each of the plurality of Bayer format images is determined as in Equation 3 below. Can be.

[식 3][Equation 3]

Figure 112007021056689-pat00007
Figure 112007021056689-pat00007

(mc-Nx≤m≤mc+Nx, nc-Ny≤n≤nc+Ny)(m c -N c ≤m≤m x + N x, n y c -N ≤n≤n c + N y)

상기 식 3에서, bp는 거리 p에서 블러링 함수, △x는 이미지 센서의 수평방향 화소 간격, △y는 이미지 센서의 수직방향 화소 간격, Ap는 거리 p에서 블러링 함수의 높이(수평방향 블러링 함수의 높이와 수직방향 블러링 함수의 높이의 평균), mcp는 거리 p에서 블러링 함수의 수평방향 중심화소의 좌표, ncp는 거리 p에서 블러링 함수의 수직방향 중심화소의 좌표 , σxp는 거리 p에서 수평방향 블러링 함수의 폭, σyp는 거리 p에서 수직방향 블러링 함수의 폭을 나타낸다. 각 거리 p에서 흑백라인 에지를 촬상시 에지의 위치를 동일하게 촬상하게 되므로 각 거리 p에서 블러링 함수의 수평방향, 수직방향 중심좌표는 모두 동일하다.In Equation 3, b p is a blurring function at the distance p, Δx is the horizontal pixel spacing of the image sensor, Δy is the vertical pixel spacing of the image sensor, A p is the height of the blurring function at the distance p (horizontal Average of the height of the vertical blurring function and the height of the vertical blurring function), m cp is the coordinate of the horizontal center pixel of the blurring function at distance p, and n cp is the vertical center pixel of the blurring function at distance p. The coordinate, σ xp, is the width of the horizontal blurring function at distance p, and σ yp is the width of the vertical blurring function at distance p. When the black and white line edges are captured at each distance p, the positions of the edges are the same. Therefore, the horizontal and vertical center coordinates of the blurring function are the same at each distance p.

상기 식 3은 복수의 베이어 포맷 이미지 중 하나의 베이어 포맷 이미지에서 각 색상별로 연산된 블러링 함수(2차원)이다. 이 블러링 함수를 얻기 위한 과정은 상술한 식 1을 얻기위해 수행되는 일련의 프로세스와 동일하다.Equation 3 is a blurring function (two-dimensional) calculated for each color in one Bayer format image of the plurality of Bayer format images. The procedure for obtaining this blurring function is the same as the series of processes performed to obtain Equation 1 above.

각 색상채널에 대해 상기 식 3과 같이 구한 복수의 블러링 함수를 이용하여 하기 식 4와 같이 전체 블러링 함수가 산출된다.The entire blurring function is calculated as shown in Equation 4 by using a plurality of blurring functions obtained as shown in Equation 3 for each color channel.

[식 4][Equation 4]

Figure 112007021056689-pat00008
Figure 112007021056689-pat00008

상기 식 4에서, b는 전체 블러링 함수를 나타내며, wp는 가중치를 나타내며 각 복수의 개별 블러링 함수에 곱한 가중치 전체의 합은 1이 된다.In Equation 4, b denotes the total blurring function, w p denotes the weight, and the sum of the total weights multiplied by each of the plurality of individual blurring functions is 1.

예를 들어, w1이 근거리에서의 가중치를 나타내고, wN이 원거리에서 가중치를 각각 나타낸다고 하면, 도 2에 도시된 것과 같이 적색채널 및 녹색채널의 경우 근거리 가중치 w1이 가장 큰 값을 갖고, 청색채널의 경우 원거리 가중치 wN이 가장 큰 값을 갖도록 가중치를 할당할 수 있다. 이는 적색채널 및 녹색채널의 경우 피사계 심도 안쪽의 근거리에서 선명도를 향상시켜야 하는 반면에 청색채널의 경우 원거리에서 선명도를 향상시켜야 하기 때문이다. For example, if w 1 represents a weight at a short distance and w N represents a weight at a distance, respectively, the short-range weight w 1 has the largest value in the red channel and the green channel, as shown in FIG. In the case of the blue channel, the weight may be allocated such that the far weight w n has the largest value. This is because the red channel and the green channel should improve the sharpness at a short distance inside the depth of field, while the blue channel should improve the sharpness at a long distance.

상술한 바와 같이, 적색채널, 녹색채널 및 청색채널에 대한 블러링 함수(식 1, 식 4)를 결정한 후, 본 발명은 도 3에 도시한 바와 같이 블러링 함수를 이용하여 적색채널, 녹색채널 및 청색채널에 대한 보정계수를 계산한다(S341, S351, S361).As described above, after determining the blurring functions (Equations 1 and 4) for the red channel, the green channel, and the blue channel, the present invention uses the blurring function as shown in FIG. And a correction coefficient for the blue channel (S341, S351, S361).

이 보정계수는 하기 식 2와 같은 당업계에 잘 알려진 주파수 영역의 인버스(inverse) 필터 형태로 정의될 수 있다.This correction coefficient may be defined in the form of an inverse filter in the frequency domain well known in the art as shown in Equation 2 below.

[식 2][Equation 2]

Figure 112007021056689-pat00009
Figure 112007021056689-pat00009

상기 식 2에서 D는 보정계수, B는 상기 식 1 또는 식 4의 함수 b의 푸리에 변환을 나타내며, △u는 △x의 역수, △v는 △y의 역수를 나타내며, k는 매개변수를 나타낸다.In Equation 2, D denotes a correction coefficient, B denotes a Fourier transform of the function b of Equation 1 or 4, Δu denotes the inverse of Δx, Δv denotes the inverse of Δy, and k denotes a parameter. .

상기 식 2에 표현된 'D'라는 함수는 보정계수를 주파수 영역에서 표현한 것이며, 'B'는 블러링 함수, 즉 상기 식 1 또는 식 4를 주파수 영역으로 변환하기 위해 푸리에(Fourier) 변환한 것이며, 이러한 주파수 영역으로의 변환에 의해 △u와 △v는 주파수 영역에서 샘플링 간격, 즉 화소 사이의 간격을 주파수 영역에서 표현한 것이 된다. 구체적으로 상기 △u는 1/△x과 같으며, 상기 △v는 1/△y와 같다. 또한, 상기 식 2에서 매개변수(k)는 상기 보정계수를 수정하기 위한 것으로 최적의 보정계수를 구하기 위해 그 값을 적절하게 결정할 수 있다. 상기 매개변수(k)의 값 을 결정하는 구체적인 방법은 하기에 별도로 설명하기로 한다.The function 'D' expressed in Equation 2 represents a correction coefficient in the frequency domain, and 'B' is a Fourier transform in order to convert the blurring function, that is, Equation 1 or Equation 4 into the frequency domain. By the conversion to the frequency domain,? U and? V represent sampling intervals in the frequency domain, that is, intervals between pixels in the frequency domain. Specifically, Δu is equal to 1 / Δx, and Δv is equal to 1 / Δy. In addition, the parameter k in Equation 2 is for modifying the correction coefficient, so that its value can be appropriately determined to obtain an optimal correction coefficient. Specific methods for determining the value of the parameter k will be described separately below.

다음으로, 상기 식 2에 의해 결정된 보정계수를, 이미지 센서로부터 검출된 베이어 포맷 이미지의 적색채널, 녹색채널 및 청색채널에 적용하여 보정된 적색채널, 녹색채널 및 청색채널을 생성한다(S342, S352, S362). 상기 식 2에 표현된 'D'라는 함수는 보정계수를 주파수 영역에서 표현한 것으로, 각 화소에 보정계수를 적용하기 위해서는 함수 'D'를 결정한 후 이를 다시 역 푸리에 변환을 통해 공간 영역의 함수로 변환한다. 이렇게 공간 영역으로 변환된 보정계수는 매트릭스 형태의 필터의 형태를 가지며, 이 공간 영역의 보정계수를 이미지센서로부터 출력된 베이어 포맷 영상의 각 화소마다 콘볼루션(convolution) 연산하여 각 화소에 대한 선명도 보정을 수행하게 된다.Next, the corrected red channel, green channel, and blue channel are generated by applying the correction coefficient determined by Equation 2 to the red, green, and blue channels of the Bayer format image detected from the image sensor (S342, S352). , S362). The function 'D' expressed in Equation 2 expresses a correction coefficient in the frequency domain, and in order to apply the correction coefficient to each pixel, the function 'D' is determined and then converted into a function of the spatial domain through an inverse Fourier transform. do. The correction coefficient transformed into the spatial domain has a form of a matrix filter, and the correction coefficient of the spatial domain is convolutionally calculated for each pixel of the Bayer format image output from the image sensor to correct the sharpness of each pixel. Will be performed.

한편, 선명도 보정의 효과를 더욱 향상시키기 위해, 상기 보정계수(k)의 값을 적절하게 결정할 필요가 있으며, 이를 위해 단계(S342, S352, S362)는 보정된 적색채널, 녹색채널 및 청색채널에 대한 에지 프로파일을 구하고 각 에지 프로파일을 이용하여 보정된 적색채널, 녹색채널 및 청색채널의 스폿크기를 구하는 과정을 더 포함할 수 있다.On the other hand, in order to further improve the effect of the sharpness correction, it is necessary to determine the value of the correction coefficient (k) appropriately, for this purpose steps (S342, S352, S362) to the corrected red channel, green channel and blue channel The method may further include obtaining an edge profile for the edge profile and obtaining spot sizes of the red channel, the green channel, and the blue channel corrected using each edge profile.

이어, 상기 보정된 적색채널, 녹색채널 및 청색채널의 스폿크기는 사전 결정된 목표 스폿크기와 각각 비교된다.(S343, S353, S363). 본 발명은 피사계 심도의 확장을 원하는 목표 거리에서 각 색상채널의 스폿크기를 원하는 수준으로 감소시킴 으로써 상기 목표 거리에서의 선명도를 향상시킨다. 따라서, 보정된 적색채널, 녹색채널 및 청색채널의 스폿크기가 상기 목표 스폿크기와 실질적으로 동일하지 않은 경우 상기 식 2에 표현된 보정계수의 매개변수(k)의 값을 조정하고(S344, S354, S364), 이 매개변수(k)값이 조정된 보정계수를 산출하여 다시 베이어 포맷 이미지의 적색채널, 녹색채널 및 청색채널에 적용한다. 이러한 반복과정은 바람직하게 보정된 적색채널, 녹색채널 및 청색 채널 영상의 스폿크기와 각 색상채널에 대한 목표 스폿크기가 실질적으로 동일하게 될 때까지 수행될 수 있다. Subsequently, the corrected spot sizes of the red, green, and blue channels are compared with predetermined target spot sizes, respectively (S343, S353, S363). The present invention improves the sharpness at the target distance by reducing the spot size of each color channel to the desired level to extend the depth of field to the desired level. Therefore, when the spot sizes of the corrected red, green and blue channels are not substantially the same as the target spot size, the value of the parameter k of the correction coefficient represented by Equation 2 is adjusted (S344, S354). , S364), this parameter (k) value is calculated and applied again to the red, green and blue channels of the Bayer format image. This iterative process may be performed until the spot size of the corrected red channel, green channel and blue channel image and the target spot size for each color channel are substantially the same.

한편, 이상적으로는 보정계수에 의해 보정된 적색채널, 녹색채널 및 청색채널의 스폿크기와 각 색상채널에 대한 목표 스폿크기가 정확하게 일치하도록 보정계수의 매개변수(k)의 값이 결정되는 것이 바람직하지만, 실제 적용환경에서는 두 값이 정확하게 일치하는 것이 거의 불가능하므로, 상기 보정된 적색채널, 녹색채널 및 청색채널의 스폿크기와 각 색상채널의 목표 스폿크기의 차이가 최소가 되는 매개변수(k)의 값을 최종 보정계수의 매개변수로 결정하는 것이 더욱 바람직하다.On the other hand, ideally, the value of the parameter k of the correction coefficient is preferably determined so that the spot size of the red, green, and blue channels corrected by the correction coefficient and the target spot size for each color channel exactly match. However, since it is almost impossible to exactly match the two values in a practical application environment, the parameter (k) that minimizes the difference between the spot sizes of the corrected red, green and blue channels and the target spot size of each color channel. It is more preferable to determine the value of as a parameter of the final correction factor.

이하에서는, 보정된 적색채널, 녹색채널 및 청색채널의 스폿크기와 각 색상채널의 목표 스폿크기의 차이가 최소가 되도록 보정계수, 즉 매개변수(k)를 결정하는 방법에 대해 상세하게 설명하기로 한다.Hereinafter, a method of determining a correction coefficient, that is, a parameter k, to minimize the difference between the spot sizes of the corrected red, green and blue channels and the target spot size of each color channel will be described in detail. do.

도 7은 보정된 각 색상채널의 스폿크기와 목표스폿 크기의 차이가 최소가 되도록 보정계수를 결정하는 방법을 도시한 플로우 차트이다. 7 is a flowchart illustrating a method of determining a correction coefficient such that the difference between the spot size and the target spot size of each corrected color channel is minimized.

도 7을 참조하면, 먼저 상술한 식 2와 같이 각 색상채널에 대한 보정계수를 결정한다(S71). 이 때, 매개변수(k)의 초기값은 실험적인 경험에 의해 적절하게 결정될 수 있다. 또한, 이후 매개변수를 변경하여 적절한 보정계수를 결정하는 과정에서 상기 매개변수(k)를 수정하기 위한 수정값 및 그 수정범위도 실험적인 경험을 바탕으로 미리 설정될 수 있다.Referring to FIG. 7, first, a correction coefficient for each color channel is determined as in Equation 2 (S71). At this time, the initial value of the parameter k can be appropriately determined by experimental experience. In addition, in the process of determining the appropriate correction coefficient by changing the parameter afterwards, the correction value for modifying the parameter (k) and its modification range may also be preset based on experimental experience.

이어, 보정계수를 적용하여 각 색상채널을 보정한다(S72). 보정계수를 계산하는 단계에서(S61) 보정계수의 매개변수(식 2의 'k')의 초기값은 실험적으로 적절하게 결정될 수 있다. 상기 보정계수를 적용하여 각 색상채널을 보정하는 단계(S62)는 이미 상술하였으므로 상세한 설명은 생략한다.Subsequently, each color channel is corrected by applying a correction factor (S72). In the step of calculating the correction coefficient (S61), the initial value of the parameter of the correction coefficient ('k' in Equation 2) may be appropriately determined experimentally. Correcting each color channel by applying the correction coefficient (S62) has already been described above, so a detailed description thereof will be omitted.

이어, 보정된 각 색상채널에서 수평방향 에지 프로파일 곡선을 구하고 이 수평방향 에지 프로파일 곡선으로부터 보정된 색상채널의 수평방향 스폿크기를 구한다(S731). 이와 마찬가지로, 보정된 각 색상채널에서 수직방향 에지 프로파일 곡선을 구하고 이 수직방향 에지 프로파일 곡선으로부터 보정된 색상채널의 수직방향 스폿크기를 구한다(S741). 상기 스폿 크기를 구하는 기술 또한 상술한 바와 같다.Subsequently, a horizontal edge profile curve is obtained from each of the corrected color channels, and a horizontal spot size of the corrected color channel is obtained from the horizontal edge profile curve (S731). Similarly, a vertical edge profile curve is obtained from each of the corrected color channels, and a vertical spot size of the corrected color channel is obtained from the vertical edge profile curve (S741). The technique for obtaining the spot size is also as described above.

이어, 해당 색상채널의 목표 스폿크기와 보정된 색상채널의 수평방향 스폿크기를 이용하여 보정된 색상채널에 대한 수평방향 스코어를 계산하고(S732), 해당 색상채널의 목표 스폿크기와 보정된 색상채널의 수직방향 스폿크기를 이용하여 보정된 색상채널에 대한 수직방향 스코어를 계산한다(S742). 상기 수평방향 스코어는 비교의 대상이되는 색상채널의 목표 스폿크기와 보정된 색상채널의 수평방향 스폿크기의 차이로 정의될 수 있으며, 마찬가지로 상기 수직방향 스코어는 비교의 대상 이되는 색상채널의 목표 스폿크기와 보정된 색상채널의 수직방향 스폿크기의 차이로 정의될 수 있다.Subsequently, the horizontal score of the corrected color channel is calculated using the target spot size of the corresponding color channel and the horizontal spot size of the corrected color channel (S732), and the target spot size and the corrected color channel of the corresponding color channel are calculated. A vertical score for the corrected color channel is calculated by using the vertical spot size of (S742). The horizontal score may be defined as a difference between the target spot size of the color channel to be compared with the horizontal spot size of the corrected color channel. Similarly, the vertical score is the target spot of the color channel to be compared. It can be defined as the difference between the size and the vertical spot size of the corrected color channel.

이어, 상기 보정된 색상채널에 대한 수평방향 스코어와 수직방향 스코어를 합산하여 보정된 색상채널에 대한 전체 스코어를 계산한 후 이 값을 저장한다(S75). Subsequently, the total score for the corrected color channel is calculated by summing the horizontal score and the vertical score for the corrected color channel and storing the value (S75).

이어, 상기 매개변수(k)의 값을 최초 설정된 상기 수정값만큼 조정하고(S76), 이 조정된 매개변수(k)의 값이 최초에 설정된 수정범위 이내인지 판단(S77)하여, 수정범위 이내이면 전술한 스코어 계산 및 저장 과정들을 반복하고, 수정범위를 벗어나면 상기 스코어 계산 과정을 종료한 후, 수정범위 내에서 매개변수(k)의 값을 수정하면서 계산 및 저장된 전체 스코어 중, 상기 전체 스코어가 최소가 될 때의 매개변수(k)의 값을 보정계수의 매개변수로 최종 결정한다(S78). 이로써 수평방향 및 수직방향으로 보정된 색상채널의 스폿크기와 목표 스폿크기의 차이가 가장 작은 보정계수를 결정할 수 있게 된다.Subsequently, the value of the parameter k is adjusted by the initially set correction value (S76), and it is determined whether the value of the adjusted parameter k is within the initially set correction range (S77), and within the correction range. If the above is repeated for the above-described score calculation and storage process, if it is out of the correction range, the process of ending the score calculation process, after modifying the value of the parameter (k) within the correction range, the total score of the total scores calculated and stored Is finally determined as a parameter of the correction coefficient (S78). This makes it possible to determine the correction coefficient having the smallest difference between the spot size and the target spot size of the color channel corrected in the horizontal and vertical directions.

도 8은 본 발명에 따른 피사계 심도 확장을 위한 이미지 처리 방법이 적용된 베이어 포맷 이미지의 각 색상채널의 스폿 크기를 도시한 도면이다.FIG. 8 is a diagram illustrating a spot size of each color channel of a Bayer format image to which an image processing method for expanding depth of field according to the present invention is applied.

도 8에 도시된 것처럼 타겟 스폿 크기는 피사계 심도를 확장하려는 범위(목표 거리)에서 스폿 크기로 정한다. 도 8에 나타나듯이 본 발명에서 타겟 스폿 크기는 적색 채널(Rc) 및 녹색 채널(Gc)의 경우 타겟 거리에서 각각 8픽셀 미만과 4 픽셀 미만으로, 청색 채널(Bc)의 경우 원거리에서 4 픽셀 미만으로 설정하여 보정이 이루어 졌다. 본 발명에서 적색채널 및 녹색 채널 영상의 목표 거리에서 타겟 스폿 크기는 피사계 심도의 근거리 경계선인 50 cm에서 적색채널 및 녹색채널 영상의 스폿크기와 동일하도록 설정하였다. 종래 카메라 모듈에서 청색채널의 경우 피사계 심도를 확장하려는 범위에서 해상력이 큰 문제점이 없는 반면 원거리에서 문제가 발생하는 것이 일반적이다. 전술한 방법에 의해 산출된 보정계수가 목표 거리에서 목표 스폿크기를 만족하도록 산출되면 카메라 모듈의 피사계 심도는 50 cm에서 목표 거리까지로 확장될 수 있다는 것을 도 8을 통해 확인할 수 있다. As shown in Fig. 8, the target spot size is determined as the spot size in a range (target distance) to extend the depth of field. As shown in FIG. 8, in the present invention, the target spot size is less than 8 pixels and less than 4 pixels in the target distance for the red channel Rc and the green channel Gc, respectively, and less than 4 pixels in the distance in the blue channel Bc. Calibration was done by setting In the present invention, the target spot size at the target distance of the red and green channel images is set to be the same as the spot size of the red and green channel images at 50 cm, which is a near boundary of the depth of field. In the conventional camera module, in the blue channel, resolution does not have a big problem in a range to extend the depth of field, but a problem occurs at a long distance. When the correction coefficient calculated by the above method is calculated to satisfy the target spot size at the target distance, it can be confirmed through FIG. 8 that the depth of field of the camera module can be extended from 50 cm to the target distance.

한편, 보정계수를 이용해 보정할 수 있는 영상의 블러링 량에 제한이 있으므로 이미지 처리 기법의 선명도 보정 능력과 광학계의 근거리에서 영상 블러링 량에 따라 피사계 심도의 확장 타겟 거리를 결정하는 것이 보다 바람직하다.On the other hand, since there is a limit to the amount of blurring of an image that can be corrected using a correction factor, it is more preferable to determine the extended target distance of the depth of field according to the sharpness correction capability of the image processing technique and the amount of image blurring at a short distance of the optical system. .

이상에서 설명한 바와 같이, 본 발명에 따르면 기존 카메라 모듈에 별도의 물리적 구성의 추가없이 피사계 심도를 확장할 수 있는 효과가 있다. 즉, 본 발명은 특수한 전용 광학계를 설계함으로써 발생할 수 있는 렌즈 제작상의 문제점 및 렌즈 조립시 발생하는 민감도 문제, 카메라 모듈의 조립시 발생하는 포커싱 위치 탐색의 불편을 해소할 수 있는 장점이 있다.As described above, according to the present invention, the depth of field can be extended without adding a separate physical configuration to the existing camera module. That is, the present invention has the advantage of eliminating the inconvenience of lens manufacturing problems that may occur by designing a special dedicated optical system, the sensitivity problems occurring when assembling the lens, the inconvenience of searching for a focusing position generated when assembling the camera module.

또한, 본 발명에 따르면, 광학계의 점확산 함수에 의한 베이어 영상의 해상력 저하를 고려해 사전에 미리 선명성 보정 필터 계수를 산출한 후 이를 이용해 베이어 영상의 선명성을 보정하므로 광학계 구성이 달라지더라도 이러한 카메라 모듈 에 적합한 보정계수만을 다시 산출한 후 피사계 심도 확장에 적용할 수 있는 장점이 있다. 따라서, 서로 다른 카메라 모듈에 대해서도 별도의 프로그램 수정 없이 동일한 이미지 처리 방법을 적용해 카메라 모듈의 피사계 심도를 확장할 수 있는 효과가 있다.In addition, according to the present invention, the sharpness correction filter coefficients are calculated in advance in consideration of the degradation of the resolution of the Bayer image by the point diffusion function of the optical system, and then the sharpness of the Bayer image is corrected using the camera module, even if the optical system configuration is changed. After recalculating only the correction factor suitable for, it can be applied to depth of field. Therefore, the camera can extend the depth of field of the camera module by applying the same image processing method to the different camera modules without additional program modification.

Claims (14)

a) 피사계 심도를 확장시키고자 하는 목표 거리에 흑백 라인에지를 위치시키고, 이미지 센서를 이용하여 상기 흑백 라인에지를 촬상하여 베이어 포맷 이미지를 취득하는 단계;a) placing a black and white line edge at a target distance to extend the depth of field, and imaging the black and white line edge using an image sensor to obtain a Bayer format image; b) 상기 베이어 포맷 이미지의 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선을 구하는 단계;b) obtaining edge profile curves of the red, green and blue channels of the Bayer format image; c) 상기 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선을 미분하여 상기 적색채널, 녹색채널 및 청색채널의 블러링 곡선을 구하는 단계;c) differentiating edge profile curves of the red, green, and blue channels to obtain blurring curves of the red, green, and blue channels; d) 상기 적색채널, 녹색채널 및 청색채널의 블러링 곡선을 표현하는 적색채널의 블러링 함수, 녹색채널의 블러링 함수 및 청색채널의 블러링 함수를 결정하는 단계- 상기 각 색상채널의 블러링 함수는 가우스 분포 함수임-;d) determining the blurring function of the red channel, the blurring function of the green channel, and the blurring function of the blue channel, representing the blurring curves of the red channel, the green channel, and the blue channel; Function is a Gaussian distribution function; e) 상기 적색채널, 녹색채널 및 청색채널의 블러링 함수를 이용하여 상기 적색채널, 녹색채널 및 청색채널에 존재하는 블러링을 각각 보정하는 적색채널에 대한 보정계수, 녹색채널에 대한 보정계수 및 청색채널에 대한 보정계수를 구하는 단계; 및e) a correction coefficient for the red channel, a correction coefficient for the green channel, and a correction coefficient for the red channel for correcting the blurring present in the red channel, the green channel, and the blue channel, respectively, by using the blurring functions of the red, green, and blue channels; Obtaining a correction coefficient for the blue channel; And f) 상기 이미지 센서에서 검출된 베이어 포맷 이미지의 적색채널, 녹색채널 및 청색채널에 상기 적색채널에 대한 보정계수, 녹색채널에 대한 보정계수 및 청색채널에 대한 보정계수를 각각 적용하는 단계f) applying a correction coefficient for the red channel, a correction coefficient for the green channel, and a correction coefficient for the blue channel to the red, green, and blue channels of the Bayer format image detected by the image sensor, respectively. 를 포함하는 피사계 심도 확장을 위한 이미지 처리 방법.Image processing method for depth of field comprising a. 제1항에 있어서,The method of claim 1, 상기 적색채널에 대한 보정계수, 상기 녹색채널에 대한 보정계수 및 상기 청색채널에 대한 보정계수는 각 색상채널에 대한 블러링 보정량을 조정하는 매개변수를 갖는 것을 특징으로 하는 피사계 심도 확장을 위한 이미지 처리 방법.The correction coefficient for the red channel, the correction coefficient for the green channel, and the correction coefficient for the blue channel have parameters for adjusting the blur correction amount for each color channel. Way. 제2항에 있어서,The method of claim 2, g) 상기 적색채널에 대한 보정계수, 상기 녹색채널에 대한 보정계수 및 상기 청색채널에 대한 보정계수를 각각 적용하여 보정된 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선을 구하고, 상기 보정된 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선으로부터 보정된 적색채널의 스폿 크기, 보정된 녹색채널의 스폿 크기 및 보정된 청색채널의 스폿 크기를 구하는 단계;g) an edge profile curve of the red channel, the green channel, and the blue channel is obtained by applying a correction coefficient for the red channel, a correction coefficient for the green channel, and a correction coefficient for the blue channel, respectively, and the corrected red color. Obtaining a spot size of the corrected red channel, a spot size of the corrected green channel, and a spot size of the corrected blue channel from the edge profile curves of the channel, the green channel, and the blue channel; h) 상기 보정된 적색채널의 스폿 크기, 상기 보정된 녹색채널의 스폿 크기 및 상기 보정된 청색채널의 스폿 크기와 기설정된 적색채널의 목표 스폿 크기, 기설정된 녹색채널의 목표 스폿 크기 및 기설정된 청색채널의 목표 스폿 크기를 각각 비교하는 단계; 및h) the spot size of the corrected red channel, the spot size of the corrected green channel, the spot size of the corrected blue channel and the target spot size of the preset red channel, the target spot size of the preset green channel, and the preset blue Comparing the target spot sizes of the channels, respectively; And i) 상기 보정된 적색채널의 스폿 크기와 상기 적색채널의 목표 스폿 크기가 실질적으로 동일해질 때까지 상기 적색채널에 대한 보정계수의 매개변수의 값을 조정하여 적색채널에 대한 수정된 보정계수를 산출하고, 상기 보정된 녹색채널의 스폿 크기와 상기 녹색채널의 목표 스폿 크기가 실질적으로 동일해질 때까지 상기 녹 색채널에 대한 보정계수의 매개변수의 값을 조정하여 녹색채널에 대한 수정된 보정계수를 산출하고, 상기 보정된 청색채널의 스폿 크기와 상기 청색채널의 목표 스폿 크기가 실질적으로 동일해질 때까지 상기 청색채널에 대한 보정계수의 매개변수의 값을 조정하여 청색채널에 대한 수정된 보정계수를 산출하는 단계를 더 포함하는 것을 특징으로 하는 피사계 심도 확장을 위한 이미지 처리 방법.i) calculating the corrected correction coefficient for the red channel by adjusting the value of the parameter of the correction coefficient for the red channel until the spot size of the corrected red channel and the target spot size of the red channel are substantially equal. And adjust the value of the parameter of the correction coefficient for the green channel until the spot size of the corrected green channel and the target spot size of the green channel are substantially the same. Calculate the adjusted correction coefficient for the blue channel by adjusting a value of a parameter of the correction coefficient for the blue channel until the spot size of the corrected blue channel and the target spot size of the blue channel are substantially the same. And calculating the depth of field. 제1항 내지 제3항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 3, 상기 적색채널, 녹색채널 및 청색채널에 대한 블러링 곡선을 표현하는 각각의 블러링 함수는 하기 식 1과 같은 것을 특징으로 하는 피사계 심도 확장을 위한 이미지 처리 방법.Each blurring function representing the blurring curves for the red channel, the green channel, and the blue channel is as in Equation 1 below. [식 1][Equation 1]
Figure 112007021056689-pat00010
Figure 112007021056689-pat00010
(mc-Nx≤m≤mc+Nx, nc-Ny≤n≤nc+Ny)(m c -N c ≤m≤m x + N x, n y c -N ≤n≤n c + N y) (△x: 이미지 센서의 수평방향 화소 간격, △y: 이미지 센서의 수직방향 화소 간격, A: 블러링 함수의 높이(수평방향 블러링 함수의 높이와 수직방향 블러링 함수의 높이의 평균), mc: 블러링 함수의 수평방향 중심화소의 좌표, nc: 블러링 함수의 수직방향 중심화소의 좌표 , σx: 수평방향 블러링 함수의 폭, σy: 수직방향 블러링 함수의 폭)(Δx: horizontal pixel spacing of the image sensor, Δy: vertical pixel spacing of the image sensor, A: height of the blurring function (average of the height of the horizontal blurring function and the height of the vertical blurring function), m c : Coordinate of the horizontal center pixel of the blurring function, n c : Coordinate of the vertical center pixel of the blurring function, σ x : Width of the horizontal blurring function, σ y : Width of the vertical blurring function)
제4항에 있어서,The method of claim 4, wherein 상기 보정계수는 하기 식 2와 같은 것을 특징으로 하는 피사계 심도 확장을 위한 이미지 처리 방법.The correction coefficient is an image processing method for expanding the depth of field, characterized in that as shown in Equation 2. [식 2][Equation 2]
Figure 112007021056689-pat00011
Figure 112007021056689-pat00011
(D: 보정계수, B: 상기 식 1의 함수 b의 푸리에 변환, △u=1/△x, △v=1/△y, k: 매개변수)(D: correction coefficient, B: Fourier transform of function b of Equation 1, Δu = 1 / Δx, Δv = 1 / Δy, k: parameters)
제2항에 있어서,The method of claim 2, j) 상기 단계 f)에서 보정된 적색채널, 녹색채널 및 청색채널의 스폿크기와, 기설정된 적색채널의 목표 스폿크기, 기설정된 녹색채널의 목표 스폿크기 및 기설정된 청색채널의 목표 스폿크기를 각각 비교한 스코어를 산출 및 저장하는 단계;j) the spot sizes of the red, green, and blue channels corrected in step f), the target spot size of the preset red channel, the target spot size of the preset green channel, and the target spot size of the preset blue channel, respectively. Calculating and storing the compared scores; k) 상기 매개변수를 변경하여 상기 보정계수를 수정하고, 상기 수정된 보정계수를 적용하여 상기 이미지 센서에서 검출된 상기 베이어 포맷 이미지의 적색채널, 녹색채널 및 청색채널을 보정한 후, 보정된 적색채널, 녹색채널 및 청색채널의 스폿크기와, 상기 적색채널의 목표 스폿크기, 상기 녹색채널의 목표 스폿크기 및 상기 청색채널의 목표 스폿크기를 각각 비교한 스코어를 각각 산출 및 저장하는 단계- 이 단계는 상기 매개변수를 변경하여 반복적으로 수행됨-; 및k) modify the correction coefficient by changing the parameter, correct the red channel, green channel and blue channel of the Bayer format image detected by the image sensor by applying the corrected correction coefficient, and then correct the red Computing and storing scores comparing the spot sizes of the channels, the green channels and the blue channels, the target spot sizes of the red channels, the target spot sizes of the green channels, and the target spot sizes of the blue channels, respectively-this step Is performed repeatedly by changing the parameter; And l) 상기 저장된 스코어 중 최소값을 갖는 스코어가 산출된 매개변수를 갖는 보정계수를 최종 보정계수로 결정하는 단계를 더 포함하는 것을 특징으로 하는 피사계 심도 확장을 위한 이미지 처리 방법.l) determining a correction coefficient having a parameter for which a score having a minimum value among the stored scores is calculated as a final correction coefficient. 제6항에 있어서,The method of claim 6, 상기 단계 j) 및 단계 k)는,Step j) and k), 상기 보정된 적색채널, 녹색채널 및 청색채널의 수평방향 스폿크기와 상기 적색채널의 목표 스폿크기, 녹색채널의 목표 스폿크기 및 청색 채널의 목표 스폿크기를 각각 비교한 적색채널의 수평방향 스코어, 녹색채널의 수평방향 스코어 및 청색채널의 수평방향 스코어를 산출하는 단계;The horizontal score of the red channel is compared with the corrected horizontal spot sizes of the red, green and blue channels, the target spot size of the red channel, the target spot size of the green channel, and the target spot size of the blue channel, respectively. Calculating a horizontal score of the channel and a horizontal score of the blue channel; 상기 보정된 적색채널, 녹색채널 및 청색채널의 수직방향 스폿크기와 상기 적색채널의 목표 스폿크기, 녹색채널의 목표 스폿크기 및 청색 채널의 목표 스폿크기를 각각 비교한 적색채널의 수직방향 스코어, 녹색채널의 수직방향 스코어 및 청색채널의 수직방향 스코어를 산출하는 단계; 및The vertical score of the red channel is compared with the corrected vertical spot sizes of the red, green and blue channels, the target spot size of the red channel, the target spot size of the green channel, and the target spot size of the blue channel, and green. Calculating a vertical score of the channel and a vertical score of the blue channel; And 상기 적색채널, 녹색채널 및 청색채널의 수평방향 스코어와 상기 적색채널, 녹색채널 및 청색채널의 수직방향 스코어 각각의 합을 산출하여 적색채널, 녹색채널 및 청색채널 각각에 대한 전체 스코어로 저장하는 단계를 포함하는 것을 특징으로 하는 피사계 심도 확장을 위한 이미지 처리 방법.Calculating a sum of the horizontal scores of the red, green, and blue channels and the vertical scores of the red, green, and blue channels, and storing the sums of the red, green, and blue channels as total scores for the red, green, and blue channels, respectively. Image processing method for extending the depth of field comprising a. a) 피사계 심도를 확장시키고자 하는 목표 거리 및 상기 목표 거리와 피사계 심도 내 거리 사이의 적어도 하나의 임의 거리에 각각 흑백 라인에지를 위치시키고, 이미지 센서를 이용하여 상기 복수의 거리에서의 흑백 라인에지를 촬상하여 복수의 베이어 포맷 이미지를 취득하는 단계;a) positioning a black and white line edge at a target distance to extend the depth of field and at least one arbitrary distance between the target distance and the distance in the depth of field, and using an image sensor to place the black and white line edges at the plurality of distances; Photographing the image to obtain a plurality of Bayer format images; b) 상기 복수의 베이어 포맷 이미지 각각의 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선을 구하는 단계;b) obtaining edge profile curves of a red channel, a green channel, and a blue channel of each of the plurality of Bayer format images; c) 상기 복수의 베이어 포맷 이미지 각각의 적색채널, 녹색채널 및 청색채널 각각의 에지 프로파일 곡선을 미분하여 상기 적색채널에 대한 복수의 블러링 곡선, 녹색채널에 대한 복수의 블러링 곡선 및 청색채널에 대한 복수의 블러링 곡선을 구하는 단계;c) differentiate the edge profile curves of each of the red, green, and blue channels of each of the plurality of Bayer format images to obtain a plurality of blurring curves for the red channel, a plurality of blurring curves for the green channel, and a blue channel. Obtaining a plurality of blurring curves for; d) 상기 복수의 적색채널에 대한 블러링 곡선을 표현하는 복수의 적색채널에 대한 블러링 함수를 결정하고, 상기 복수의 녹색채널에 대한 블러링 곡선을 표현하는 복수의 녹색채널에 대한 블러링 함수를 결정하고, 상기 복수의 청색채널에 대한 블러링 곡선을 표현하는 복수의 청색채널에 대한 블러링 함수를 결정하는 단계- 상기 각 색상채널에 대한 복수의 블러링 함수는 가우스 분포 함수임-;d) determine a blurring function for a plurality of red channels representing the blurring curves for the plurality of red channels, and a blurring function for the plurality of green channels representing the blurring curves for the plurality of green channels Determining a blurring function for the plurality of blue channels representing the blurring curves for the plurality of blue channels, wherein the plurality of blurring functions for each color channel are Gaussian distribution functions; e) 상기 복수의 적색채널에 대한 블러링 함수 각각에 가중치를 적용하고 모두 합산하여 적색채널에 대한 전체 블러링 함수를 구하며, 상기 복수의 녹색채널에 대한 블러링 함수 각각에 가중치를 적용하고 모두 합산하여 녹색채널에 대한 전체 블러링 함수를 구하며, 상기 복수의 청색채널에 대한 블러링 함수 각각에 가중치를 적용하고 모두 합산하여 청색채널에 대한 전체 블러링 함수를 구하는 단계;e) apply a weight to each of the blurring functions for the plurality of red channels and add them all to obtain a total blurring function for the red channel, and apply a weight to each of the blurring functions for the plurality of green channels and add them all together Obtaining a total blurring function for the green channel, applying a weight to each of the blurring functions for the plurality of blue channels, and summing all of them to obtain a total blurring function for the blue channel; f) 상기 적색채널, 녹색채널 및 청색채널에 대한 전체 블러링 함수를 각각 이용하여 상기 적색채널, 녹색채널 및 청색채널에 존재하는 블러링을 각각 보정하는 적색채널에 대한 보정계수, 녹색채널에 대한 보정계수 및 청색채널에 대한 보정계수를 구하는 단계; 및f) a correction coefficient for the red channel, for the green channel, respectively for correcting the blurring present in the red channel, the green channel, and the blue channel by using the total blurring functions for the red channel, the green channel, and the blue channel, respectively; Obtaining a correction coefficient for the correction coefficient and the blue channel; And g) 상기 이미지 센서에서 검출된 베이어 포맷 이미지의 적색채널, 녹색채널 및 청색채널에 상기 적색채널에 대한 보정계수, 녹색채널에 대한 보정계수 및 청색채널에 대한 보정계수를 각각 적용하는 단계g) applying a correction coefficient for the red channel, a correction coefficient for the green channel, and a correction coefficient for the blue channel to the red, green, and blue channels of the Bayer format image detected by the image sensor, respectively. 를 포함하는 피사계 심도 확장을 위한 이미지 처리 방법.Image processing method for depth of field comprising a. 제8항에 있어서,The method of claim 8, 상기 적색채널에 대한 보정계수, 상기 녹색채널에 대한 보정계수 및 상기 청색채널에 대한 보정계수는 각 색상채널에 대한 블러링 보정량을 조정하는 매개변수를 갖는 것을 특징으로 하는 피사계 심도 확장을 위한 이미지 처리 방법.The correction coefficient for the red channel, the correction coefficient for the green channel, and the correction coefficient for the blue channel have parameters for adjusting the blur correction amount for each color channel. Way. 제9항에 있어서,The method of claim 9, h) 상기 적색채널에 대한 보정계수, 상기 녹색채널에 대한 보정계수 및 상기 청색채널에 대한 보정계수를 각각 적용하여 보정된 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선을 구하고, 상기 보정된 적색채널, 녹색채널 및 청색채널의 에지 프로파일 곡선으로부터 보정된 적색채널의 스폿 크기, 보정된 녹색채널의 스폿 크기 및 보정된 청색채널의 스폿 크기를 구하는 단계;h) an edge profile curve of the red channel, the green channel, and the blue channel is obtained by applying a correction coefficient for the red channel, a correction coefficient for the green channel, and a correction coefficient for the blue channel, respectively, and the corrected red color. Obtaining a spot size of the corrected red channel, a spot size of the corrected green channel, and a spot size of the corrected blue channel from the edge profile curves of the channel, the green channel, and the blue channel; i) 상기 보정된 적색채널의 스폿 크기, 상기 보정된 녹색채널의 스폿 크기 및 상기 보정된 청색채널의 스폿 크기와 기설정된 적색채널의 목표 스폿 크기, 기설정된 녹색채널의 목표 스폿 크기 및 기설정된 청색채널의 목표 스폿 크기를 각각 비교하는 단계; 및i) the spot size of the corrected red channel, the spot size of the corrected green channel, the spot size of the corrected blue channel and the target spot size of the preset red channel, the target spot size of the preset green channel, and the preset blue Comparing the target spot sizes of the channels, respectively; And j) 상기 보정된 적색채널의 스폿 크기와 상기 적색채널의 목표 스폿 크기가 실질적으로 동일해질 때까지 상기 적색채널에 대한 보정계수의 매개변수의 값을 조정하여 적색채널에 대한 수정된 보정계수를 산출하고, 상기 보정된 녹색채널의 스폿 크기와 상기 녹색채널의 목표 스폿 크기가 실질적으로 동일해질 때까지 상기 녹색채널에 대한 보정계수의 매개변수의 값을 조정하여 녹색채널에 대한 수정된 보정계수를 산출하고, 상기 보정된 청색채널의 스폿 크기와 상기 청색채널의 목표 스폿 크기가 실질적으로 동일해질 때까지 상기 청색채널에 대한 보정계수의 매개변수의 값을 조정하여 청색채널에 대한 수정된 보정계수를 산출하는 단계를 더 포함하는 것을 특징으로 하는 피사계 심도 확장을 위한 이미지 처리 방법.j) calculating a corrected correction coefficient for the red channel by adjusting a value of a parameter of the correction coefficient for the red channel until the spot size of the corrected red channel and the target spot size of the red channel are substantially equal. Calculating a corrected correction coefficient for the green channel by adjusting a value of a parameter of the correction coefficient for the green channel until the spot size of the corrected green channel and the target spot size of the green channel are substantially the same. Calculating a corrected correction coefficient for the blue channel by adjusting a value of a parameter of the correction coefficient for the blue channel until the spot size of the corrected blue channel and the target spot size of the blue channel are substantially the same. The image processing method for the depth of field further comprising the step of. 제8항 내지 제10항 중 어느 한 항에 있어서,The method according to any one of claims 8 to 10, 상기 복수의 적색채널, 녹색채널 및 청색채널에 대한 블러링 곡선을 표현하는 각각의 블러링 함수는 하기 식 3과 같으며,Each of the blurring functions representing the blurring curves for the plurality of red, green, and blue channels is represented by Equation 3 below. 상기 적색채널, 녹색채널 및 청색채널에 대한 전체 블러링 곡선은 하기 식 4와 같은 것을 특징으로 하는 피사계 심도 확장을 위한 이미지 처리 방법.The total blurring curves for the red channel, the green channel, and the blue channel are as shown in Equation 4 below. [식 3][Equation 3]
Figure 112007021056689-pat00012
Figure 112007021056689-pat00012
(mc-Nx≤m≤mc+Nx, nc-Ny≤n≤nc+Ny)(m c -N c ≤m≤m x + N x, n y c -N ≤n≤n c + N y) (bp: 거리 p에서 블러링 함수, △x: 이미지 센서의 수평방향 화소 간격, △y: 이미지 센서의 수직방향 화소 간격, Ap: 거리 p에서 블러링 함수의 높이(수평방향 블러링 함수의 높이와 수직방향 블러링 함수의 높이의 평균), mc: 거리 p에서 블러링 함수의 수평방향 중심화소의 좌표(모든 거리에서 동일함), nc: 거리 p에서 블러링 함수의 수직방향 중심화소의 좌표(모든 거리에서 동일함), σxp: 거리 p에서 수평방향 블러링 함수의 폭, σyp: 거리 p에서 수직방향 블러링 함수의 폭)(b p : blurring function at distance p, Δx: horizontal pixel spacing of image sensor, Δy: vertical pixel spacing of image sensor, A p : height of blurring function at distance p (horizontal blurring function) Is the mean of the height of the vertical blurring function, and m c is the coordinate of the horizontal center pixel of the blurring function at distance p (same for all distances), n c is the vertical direction of the blurring function at distance p Coordinates of the center pixel (same at all distances), σ xp : width of horizontal blurring function at distance p, σ yp : width of vertical blurring function at distance p) [식 4][Equation 4]
Figure 112007021056689-pat00013
Figure 112007021056689-pat00013
(b: 전체 블러링 함수, wp: 가중치)(b: full blurring function, w p : weight)
제11항에 있어서,The method of claim 11, 상기 보정계수는 하기 식 2와 같은 것을 특징으로 하는 피사계 심도 확장을 위한 이미지 처리 방법.The correction coefficient is an image processing method for expanding the depth of field, characterized in that as shown in Equation 2. [식 2][Equation 2]
Figure 112007021056689-pat00014
Figure 112007021056689-pat00014
(D: 보정계수, B: 상기 식 4의 함수 b의 푸리에 변환, △u=1/△x, △v=1/△y, k: 매개변수)(D: correction coefficient, B: Fourier transform of function b of Equation 4, Δu = 1 / Δx, Δv = 1 / Δy, k: parameter)
제9항에 있어서,The method of claim 9, k) 상기 단계 g)에서 보정된 적색채널, 녹색채널 및 청색채널의 스폿크기와, 기설정된 적색채널의 목표 스폿크기, 기설정된 녹색채널의 목표 스폿크기 및 기설정된 청색채널의 목표 스폿크기를 각각 비교한 스코어를 산출 및 저장하는 단계;k) the spot sizes of the red, green and blue channels corrected in step g), the target spot size of the preset red channel, the target spot size of the preset green channel, and the target spot size of the preset blue channel, respectively. Calculating and storing the compared scores; l) 상기 매개변수를 변경하여 상기 보정계수를 수정하고, 상기 수정된 보정계수를 적용하여 상기 이미지 센서에서 검출된 상기 베이어 포맷 이미지의 적색채널, 녹색채널 및 청색채널을 보정한 후, 보정된 적색채널, 녹색채널 및 청색채널의 스폿크기와, 상기 적색채널의 목표 스폿크기, 상기 녹색채널의 목표 스폿크기 및 상기 청색채널의 목표 스폿크기를 각각 비교한 스코어를 각각 산출 및 저장하는 단계- 이 단계는 상기 매개변수를 변경하여 반복적으로 수행됨-; 및l) modifying the correction coefficient by changing the parameter, correcting the red channel, green channel and blue channel of the Bayer format image detected by the image sensor by applying the corrected correction coefficient, and then correcting red Computing and storing scores comparing the spot sizes of the channels, the green channels and the blue channels, the target spot sizes of the red channels, the target spot sizes of the green channels, and the target spot sizes of the blue channels, respectively-this step Is performed repeatedly by changing the parameter; And m) 상기 저장된 스코어 중 최소값을 갖는 스코어가 산출된 매개변수를 갖는 보정계수를 최종 보정계수로 결정하는 단계를 더 포함하는 것을 특징으로 하는 피사계 심도 확장을 위한 이미지 처리 방법.m) determining a correction coefficient having a parameter for which a score having a minimum value among the stored scores is calculated as a final correction coefficient. 제13항에 있어서,The method of claim 13, 상기 단계 k) 및 단계 l)는,Step k) and step l), 상기 보정된 적색채널, 녹색채널 및 청색채널의 수평방향 스폿크기와 상기 적색채널의 목표 스폿크기, 녹색채널의 목표 스폿크기 및 청색 채널의 목표 스폿크기를 각각 비교한 적색채널의 수평방향 스코어, 녹색채널의 수평방향 스코어 및 청색채널의 수평방향 스코어를 산출하는 단계;The horizontal score of the red channel is compared with the corrected horizontal spot sizes of the red, green and blue channels, the target spot size of the red channel, the target spot size of the green channel, and the target spot size of the blue channel, respectively. Calculating a horizontal score of the channel and a horizontal score of the blue channel; 상기 보정된 적색채널, 녹색채널 및 청색채널의 수직방향 스폿크기와 상기 적색채널의 목표 스폿크기, 녹색채널의 목표 스폿크기 및 청색 채널의 목표 스폿크기를 각각 비교한 적색채널의 수직방향 스코어, 녹색채널의 수직방향 스코어 및 청색채널의 수직방향 스코어를 산출하는 단계; 및The vertical score of the red channel is compared with the corrected vertical spot sizes of the red, green and blue channels, the target spot size of the red channel, the target spot size of the green channel, and the target spot size of the blue channel, and green. Calculating a vertical score of the channel and a vertical score of the blue channel; And 상기 적색채널, 녹색채널 및 청색채널의 수평방향 스코어와 상기 적색채널, 녹색채널 및 청색채널의 수직방향 스코어 각각의 합을 산출하여 적색채널, 녹색채널 및 청색채널 각각에 대한 전체 스코어로 저장하는 단계를 포함하는 것을 특징으로 하는 피사계 심도 확장을 위한 이미지 처리 방법.Calculating a sum of the horizontal scores of the red, green, and blue channels and the vertical scores of the red, green, and blue channels, and storing the sums of the red, green, and blue channels as total scores for the red, green, and blue channels, respectively. Image processing method for extending the depth of field comprising a.
KR1020070025654A 2007-03-15 2007-03-15 Image processing method for extending depth of field KR100835058B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070025654A KR100835058B1 (en) 2007-03-15 2007-03-15 Image processing method for extending depth of field

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070025654A KR100835058B1 (en) 2007-03-15 2007-03-15 Image processing method for extending depth of field

Publications (1)

Publication Number Publication Date
KR100835058B1 true KR100835058B1 (en) 2008-06-04

Family

ID=39769988

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070025654A KR100835058B1 (en) 2007-03-15 2007-03-15 Image processing method for extending depth of field

Country Status (1)

Country Link
KR (1) KR100835058B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101206895B1 (en) * 2008-12-22 2012-11-30 한국전자통신연구원 Rendering system and data processing method using of rendering system
KR101226716B1 (en) 2012-10-08 2013-01-25 주식회사 고영테크놀러지 Method for compensating chromatic aberration, and method and apparatus for measuring three dimensional shape by using the same
CN115359105A (en) * 2022-08-01 2022-11-18 荣耀终端有限公司 Depth-of-field extended image generation method, depth-of-field extended image generation device, and storage medium
CN117808712A (en) * 2024-02-28 2024-04-02 山东科技大学 Image correction method based on underwater camera

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101206895B1 (en) * 2008-12-22 2012-11-30 한국전자통신연구원 Rendering system and data processing method using of rendering system
KR101226716B1 (en) 2012-10-08 2013-01-25 주식회사 고영테크놀러지 Method for compensating chromatic aberration, and method and apparatus for measuring three dimensional shape by using the same
CN115359105A (en) * 2022-08-01 2022-11-18 荣耀终端有限公司 Depth-of-field extended image generation method, depth-of-field extended image generation device, and storage medium
CN115359105B (en) * 2022-08-01 2023-08-11 荣耀终端有限公司 Depth-of-field extended image generation method, device and storage medium
CN117808712A (en) * 2024-02-28 2024-04-02 山东科技大学 Image correction method based on underwater camera
CN117808712B (en) * 2024-02-28 2024-05-07 山东科技大学 Image correction method based on underwater camera

Similar Documents

Publication Publication Date Title
JP5075757B2 (en) Image processing apparatus, image processing program, image processing method, and electronic apparatus
US8730357B2 (en) Image processing device, image processing method, and program
US9041833B2 (en) Image processing method, image processing apparatus, and image pickup apparatus
US9992478B2 (en) Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images
US9635243B2 (en) Ranging apparatus, imaging apparatus, and ranging method
KR100818479B1 (en) Image processing method for improving sharpness
KR20190089922A (en) Digital calibration of optical system aberrations
US20090324135A1 (en) Image processing apparatus, image processing method, program and recording medium
WO2013080551A1 (en) Imaging device
JP7378219B2 (en) Imaging device, image processing device, control method, and program
US8433187B2 (en) Distance estimation systems and method based on a two-state auto-focus lens
US9118878B2 (en) Image processing apparatus that corrects for chromatic aberration for taken image, image pickup apparatus, method of correcting for chromatic aberration of magnification therefor, and storage medium
KR100835058B1 (en) Image processing method for extending depth of field
JP6976754B2 (en) Image processing equipment and image processing methods, imaging equipment, programs
CN117097872A (en) Automatic trapezoid correction system and method for projection equipment
JP2016134661A (en) Image processing method, image processor, imaging device, program, and storage medium
CN109672810B (en) Image processing apparatus, image processing method, and storage medium
US9661302B2 (en) Depth information acquisition apparatus, imaging apparatus, depth information acquisition method and program
KR100843433B1 (en) Method for measuring amount of blurring of micro camera module
WO2019116517A1 (en) Image processing device and image processing method
CN112866547A (en) Focusing method and device, electronic equipment and computer readable storage medium
van Zwanenberg et al. Camera system performance derived from natural scenes
KR100843432B1 (en) Method for calculating chromatic aberration correction coefficient of micro camera module
KR100896572B1 (en) Image processing method for extending depth of field
JP2005216191A (en) Stereo image processing apparatus and method

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130403

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20140325

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20170102

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20180403

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20190401

Year of fee payment: 12