KR101211102B1 - Image processing device and method for processing image data of the same - Google Patents

Image processing device and method for processing image data of the same Download PDF

Info

Publication number
KR101211102B1
KR101211102B1 KR1020100078370A KR20100078370A KR101211102B1 KR 101211102 B1 KR101211102 B1 KR 101211102B1 KR 1020100078370 A KR1020100078370 A KR 1020100078370A KR 20100078370 A KR20100078370 A KR 20100078370A KR 101211102 B1 KR101211102 B1 KR 101211102B1
Authority
KR
South Korea
Prior art keywords
data
edge
pixel
center pixel
window
Prior art date
Application number
KR1020100078370A
Other languages
Korean (ko)
Other versions
KR20120015870A (en
Inventor
김종박
Original Assignee
에스케이하이닉스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이하이닉스 주식회사 filed Critical 에스케이하이닉스 주식회사
Priority to KR1020100078370A priority Critical patent/KR101211102B1/en
Publication of KR20120015870A publication Critical patent/KR20120015870A/en
Application granted granted Critical
Publication of KR101211102B1 publication Critical patent/KR101211102B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Abstract

본 발명은 입력된 베이어 데이터로 제1 윈도우 데이터 구성하는 단계; 상기 제1 원도우 데이터에서의 중심픽셀의 에지방향을 검출하여 에지 데이터 생성하는 단계; 중심픽셀의 이미지 데이터와 에지 데이터를 결합하여 베이어 데이터 재생성하는 단계; 상기 재생성된 베이어 데이터를 이용하여 제2 윈도우 데이터를 구성하는 단계; 상기 제2 윈도우 데이터에서의 중심픽셀의 에지 데이터와, 상기 중심픽셀의 주변에 놓인 주변픽셀의 에지 데이터를 비교하여, 상기 제2 윈도우 데이터에서의 중심픽셀의 에지 데이터를 유지 또는 변경하는 단계; 및 상기 제2 윈도우 데이터를 이용하여 인터폴레이션 수행하는 단계를 포함하는 이미지 처리장치의 데이터 처리방법을 제공한다.The present invention comprises the steps of constructing first window data from input Bayer data; Generating edge data by detecting an edge direction of a center pixel in the first window data; Combining Bayer data with image data and edge data of the center pixel; Constructing second window data using the regenerated Bayer data; Maintaining or changing edge data of the center pixel in the second window data by comparing edge data of the center pixel in the second window data with edge data of a peripheral pixel placed around the center pixel; And interpolating the second window data using the second window data.

Description

이미지 처리장치 및 그를 이용한 데이터 처리 방법{IMAGE PROCESSING DEVICE AND METHOD FOR PROCESSING IMAGE DATA OF THE SAME}Image processing apparatus and data processing method using the same {IMAGE PROCESSING DEVICE AND METHOD FOR PROCESSING IMAGE DATA OF THE SAME}

본 발명은 주변 픽셀의 에지 방향을 고려하여 중심픽셀의 에지 방향을 재결정하는 영상의 에지 방향 처리 방법에 관한 것이다.
The present invention relates to an edge direction processing method of an image for re-determining an edge direction of a center pixel in consideration of an edge direction of a peripheral pixel.

이미지 처리장치는 빛의 신호를 전기적 신호로 변환하여 디스플레이 장치에 표시하거나 저장 장치에 저장할 수 있도록 하는 장치이다. 이미지 처리장치의 적용 부문은 디지털 카메라, 휴대폰 카메라, 캠코더, 보안기기, 의료기기 등 굉장히 광범위하며 또한 지속적으로 확대되고 있다. 이미지 처리장치는 신호를 읽어내는 방식에 따라 크게 고체 촬상소자(charge coupled device, 이하 "CCD"라고 함)와 시모스 반도체 이미지 처리장치(CMOS image sensor, 이하 "CIS"라고 함)의 두가지로 나누어진다. The image processing apparatus is a device that converts a signal of light into an electrical signal so that it can be displayed on a display device or stored in a storage device. The application of image processing devices is very wide and continues to expand, including digital cameras, mobile phone cameras, camcorders, security devices, and medical devices. The image processing apparatus is divided into two types according to a method of reading a signal, a solid state image pickup device (CCD) and a CMOS image sensor (CMOS image sensor). .

CCD는 포토다이오드에서 발생한 전하를 수직, 수평 CCD 단위소자를 이용하여 어레이 밖으로 전달하고 하나의 증폭기를 이용하여 전압으로 바꾸어 직렬로 외부로 신호를 읽어낸다. 반면에 CIS는 픽셀마다 추가되어 있는 리드아웃(readout) 회로를 통하여 외부로 읽어낸다. CCD와 CIS의 차이는 이와같은 리드아웃 방식의 차이로부터 유래된다. The CCD transfers the charge generated in the photodiode out of the array by using vertical and horizontal CCD unit elements and converts it into a voltage using a single amplifier to read the signal out in series. CIS, on the other hand, reads out through a readout circuit that is added pixel by pixel. The difference between the CCD and the CIS stems from this difference in readout.

CCD는 화소의 오버헤드(overhead)가 낮아 화소를 아주 작은 크기로 만들 수 있으며 높은 필 팩터(fill factor)를 가질 수 있는 장점이 있다. 또한 신호를 읽어내는 과정에서 능동회로가 없으므로 열잡음이나 화소 내부의 회로간의 편차가 없어 고정패턴잡음(Fixed Pattern Noise, FPN)이 나타나지 않는다. 또한 CCD는 특수한 공정을 이용하므로 이미지의 품질과 전하 전달을 위하여 공정을 최적화하여 높은 화질의 이미지를 제공할 수 있으며 큰 성능 저하 없이 화소의 크기를 줄일 수 있다. 하지만 CCD는 특수한 공정을 이용하여 가격이 높고 다른 카메라 블록들과 집적하기 어려워 전체 카메라 시스템의 크기가 커지는 단점이 있다. 또한 CCD는 직렬 리드아웃 방식이므로 리드아웃 속도가 제한되는 단점이 있으며 빠르고 완전한 전하 전달을 위하여 빠른 속도, 높은 전압을 가지는 클록이 필요하므로 전력소모가 높은 단점이 있어 모바일 응용에 적합하지 않다. CCD has the advantage of low pixel overhead, which makes the pixel very small and has a high fill factor. In addition, since there is no active circuit in the process of reading out the signal, there is no thermal noise or a deviation between circuits in the pixel, so that fixed pattern noise (FPN) does not appear. In addition, because CCD uses a special process, the process can be optimized for image quality and charge transfer to provide a high quality image, and the pixel size can be reduced without significant performance degradation. However, CCD has a disadvantage of increasing the size of the entire camera system due to its high price and difficulty of integrating with other camera blocks using a special process. In addition, the CCD has a disadvantage in that the readout speed is limited because of the series readout method, and a high power and high voltage clock is required for fast and complete charge transfer, which is not suitable for mobile applications due to high power consumption.

반면에 CIS는 병렬 리드아웃이 가능하므로 높은 프레임 비율을 얻을 수 있으며 일반화되어 있는 CMOS 공정을 이용하므로 낮은 가격으로 제작할 수 있고 CMOS 회로를 이용하여 리드아웃을 하므로 전력소모가 낮은 장점이 있다. 또한 아날로그블록과 디지털 블록들이 직접 이웃하므로 카메라 온 칩(camera-on-a-chip)을 실현할 수 있으며 초점면 아날로그 이미지 처리가 가능하므로 광역보정, 에지 검출, 동작 검출, 실시간 사물 추적 등의 기능을 하드웨어적으로 구현할 수 있다. 최근에는 화질 측면에서도 CCD에 뒤지지 않는 CIS 제품들이 출시되고 있어, 이미지 처리장치 시장에서 CIS는 CCD를 급속히 대체해 가고 있다.
On the other hand, CIS can achieve high frame rate because of parallel readout, and it can be manufactured at low price because it uses general CMOS process and has low power consumption because it readout using CMOS circuit. In addition, analog blocks and digital blocks are directly adjacent to each other to realize camera-on-a-chip, and focal plane analog image processing enables wide area correction, edge detection, motion detection, and real-time object tracking. It can be implemented in hardware. In recent years, CIS products that are comparable to CCDs in terms of image quality have been released, and CIS is rapidly replacing CCDs in the image processing device market.

본 발명은 효율적인 데이터 처리를 수행할 수 있는 이미지 처리장치 및 그를 이용한 데이터 처리방법을 제공한다.
The present invention provides an image processing apparatus capable of performing efficient data processing and a data processing method using the same.

본 발명은 입력된 베이어 데이터로 제1 윈도우 데이터 구성하는 단계; 상기 제1 원도우 데이터에서의 중심픽셀의 에지방향을 검출하여 에지 데이터 생성하는 단계; 중심픽셀의 이미지 데이터와 에지 데이터를 결합하여 베이어 데이터 재생성하는 단계; 상기 재생성된 베이어 데이터를 이용하여 제2 윈도우 데이터를 구성하는 단계; 상기 제2 윈도우 데이터에서의 중심픽셀의 에지 데이터와, 상기 중심픽셀의 주변에 놓인 주변픽셀의 에지 데이터를 비교하여, 상기 제2 윈도우 데이터에서의 중심픽셀의 에지 데이터를 유지 또는 변경하는 단계; 및 상기 제2 윈도우 데이터를 이용하여 인터폴레이션 수행하는 단계를 포함하는 이미지 처리장치의 데이터 처리방법을 제공한다.The present invention comprises the steps of constructing first window data from input Bayer data; Generating edge data by detecting an edge direction of a center pixel in the first window data; Combining Bayer data with image data and edge data of the center pixel; Constructing second window data using the regenerated Bayer data; Maintaining or changing edge data of the center pixel in the second window data by comparing edge data of the center pixel in the second window data with edge data of a peripheral pixel placed around the center pixel; And interpolating the second window data using the second window data.

또한, 본 발명은 픽셀 어레이; 상기 픽셀 어레이에서 제공 되는 정보를 제1 윈도우 데이터로 저장하기 위한 메모리; 상기 메모리에 저장된 제1 원도우 데이터중 중심픽셀의 데이터에 대한 에지 방향을 추출하여 상기 이미지 데이터와 상기 에지 데이터를 포함하는 데이터를 재생성하기 위한 데이터 포맷 생성부; 상기 데이터 포멧 생성부에서 제공된 재생성된 데이터로 구현된 제2 원도우 데이터로 구성하고, 상기 제2 윈도우 데이터의 중심픽셀의 에지 데이터와, 상기 중심픽셀의 주변에 배치된 주변픽셀의 에지 데이터를 비교하여, 상기 제2 윈도우 데이터에서의 중심픽셀의 에지 데이터를 유지 또는 변경하기 위한 에지 데이터 검증부; 및 상기 에지 데이터 검증부에 의해 유지 또는 변경된 중식픽셀의 데이터를 인터폴레이션 하기 위한 인터폴레이션부를 구비하는 이미지 처리장치를 제공한다.
In addition, the present invention provides a pixel array; A memory for storing information provided from the pixel array as first window data; A data format generator for extracting an edge direction of data of a center pixel among the first window data stored in the memory and regenerating data including the image data and the edge data; Comprising the second window data implemented by the regenerated data provided by the data format generation unit, by comparing the edge data of the center pixel of the second window data and the edge data of the peripheral pixel disposed around the center pixel An edge data verification unit for maintaining or changing edge data of the center pixel in the second window data; And an interpolation unit for interpolating data of the Chinese pixel held or changed by the edge data verification unit.

본 발명의 이미지 처리장치는 에지 정보를 여러번 추출할 필요가 없기 때문에, 메모리 사용을 크게 줄일 수 있으며, 불필요한 검출 회로를 구비할 필요도 없다.
Since the image processing apparatus of the present invention does not need to extract the edge information many times, it is possible to greatly reduce the memory usage, and it is not necessary to include unnecessary detection circuits.

도1은 본 발명의 실시예에 따른 이미지 처리장치의 블록도.
도2는 도1의 베이어 데이터 처리부를 나타내는 블럭도.
도3는 도2의 YcbCr 데이터 처리부를 보다 자세히 나타낸 도면.
도4는 도3의 메모리 장치에 저장된 윈도우 패턴을 나타내는 도면.
도5는 도4에 도시된 윈도우 패턴을 픽셀의 특성에 따라 표시한 것을 나타내는 도면.
도6은 도4에 도시된 윈도우 패턴을 픽셀의 위치에 따라 표시한 것을 나타내는 도면.
도7은 도1에 도시된 에지 데이터 생성부를 나타내는 블럭도.
도8에는 5 * 5 윈도우 데이터에서 중심픽셀의 에지 방향을 나타내는 도면.
도9는 본 발명의 실시예에 따른 이미지 처리장치의 데이터 처리방법을 나타내는 플로차트.
도10과 도11은 도9에 도시된 방법을 적용하기 위한 원도우 데이터의 일실시예를 나타내는 도면.
도12는 도9에 도시된 이미지 처리장치의 데이터 처리방법을 구현하기 위한 블럭도.
1 is a block diagram of an image processing apparatus according to an embodiment of the present invention;
FIG. 2 is a block diagram showing a Bayer data processor of FIG. 1; FIG.
FIG. 3 is a more detailed view of the YcbCr data processor of FIG. 2; FIG.
4 is a view showing a window pattern stored in the memory device of FIG.
FIG. 5 is a diagram showing that the window pattern shown in FIG. 4 is displayed according to the characteristics of pixels. FIG.
FIG. 6 is a view showing display of the window pattern shown in FIG. 4 according to the position of a pixel; FIG.
FIG. 7 is a block diagram showing an edge data generator shown in FIG. 1; FIG.
Fig. 8 shows the edge direction of the center pixel in 5 * 5 window data.
9 is a flowchart showing a data processing method of the image processing apparatus according to the embodiment of the present invention.
10 and 11 illustrate an embodiment of window data for applying the method shown in FIG.
12 is a block diagram for implementing a data processing method of the image processing apparatus shown in FIG.

이하, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 정도로 상세히 설명하기 위하여, 본 발명의 가장 바람직한 실시예를 첨부된 도면을 참조하여 설명하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, in order to facilitate a person skilled in the art to easily carry out the technical idea of the present invention. do.

도1은 본 발명의 실시예에 따른 이미지 처리장치의 블록도이다.1 is a block diagram of an image processing apparatus according to an embodiment of the present invention.

도1을 참조하여 살펴보면, 본 실시예에 따른 이미지 처리장치는 픽셀어레이(110), A/D 변환부(120), 베이어 데이터 처리부(130), YCbCr 데이터 처리부(140), 에지 데이터 생성부(200)를 포함한다.Referring to FIG. 1, the image processing apparatus according to the present embodiment includes a pixel array 110, an A / D converter 120, a Bayer data processor 130, a YCbCr data processor 140, and an edge data generator ( 200).

픽셀 어레이(110)는 다수의 픽셀이 베이어 패턴으로 배열되어 있으며, 그린픽셀, 레드픽셀, 블루픽셀이 각각 50%, 25%, 25% 씩 배치되어 있다. 베이어 패턴(Bayer Pattern)은 인간의 시각 시스템이 휘도(luminance) 성분, 즉, 녹색(Green)에 가장 민감하다는 특성을 고려하여 녹색 성분에 대한 컬러 필터를 전체 포토셀의 50%가 되도록 배치하고 나머지 적색과 청색 컬러 필터를 교차 반복하여 배치한 가장 일반적으로 많이 사용되는 컬러 필터 어레이(CFA)이다. 따라서 이러한 베이어 패턴을 가지는 데이터를 처리하기 위해서는 컬러 성분을 보간하여 한 화소에 대하여 완전한 적색, 녹색, 청색 성분을 가지도록 하는 것이 요구된다.In the pixel array 110, a plurality of pixels are arranged in a Bayer pattern, and green pixels, red pixels, and blue pixels are disposed at 50%, 25%, and 25%, respectively. Bayer Pattern considers that the human visual system is most sensitive to luminance components, ie, green, so that color filters for green components are placed to 50% of the total photocells and the rest The most commonly used color filter array (CFA) with alternating red and blue color filters. Therefore, in order to process data having such a Bayer pattern, it is required to have a complete red, green, and blue component for one pixel by interpolating a color component.

A/D 변환부(120)는 픽셀 어레이에서 제공되는 아날로그 형태로 되어 있는 이미지 데이터 값을 디지털 형태로 변환하여 출력한다. 픽셀 어레이(110)에서 제공되는 값이 베이어 패턴으로 되어 있기 때문에, A/D 변환부(120)에 변환되는 데이터도 베이어 패턴으로 되어 있다. 즉, 한 픽셀값에 그린 정보, 레드 정보 또는 블루 정보만 있는 것이다. 또한, 도시하지는 않았지만, 일반적으로 픽셀어레이(110)와, A/D 변환부(120)사이에 픽셀 리드 아웃 회로부(pixel read-out circuit)가 구비된다. The A / D converter 120 converts an image data value in an analog form provided from a pixel array into a digital form and outputs the digital data. Since the value provided by the pixel array 110 is a Bayer pattern, the data converted to the A / D converter 120 is also a Bayer pattern. That is, there is only green information, red information, or blue information in one pixel value. In addition, although not shown, a pixel read-out circuit is provided between the pixel array 110 and the A / D converter 120.

베이어 데이터 처리부(130)는 이미지 데이터를 처리하는데 있어서, 베이터 패턴의 형태가 유지되는 구간을 표현한 것이다. YCbCr 데이터 처리부(140)는 베이어 데이터 처리부(130)에서 제공되는 RGB 데이터를 YCbCr 데이터로 변환하여 처리한다. YCbCr은 영상 시스템에서 사용되는 포멧의 일종이다. Y 는 휘도 성분이며 Cb 와 Cr은 색차 성분이다.The Bayer data processor 130 represents a section in which the shape of the bait pattern is maintained in processing the image data. The YCbCr data processor 140 converts RGB data provided from the Bayer data processor 130 into YCbCr data and processes the same. YCbCr is a format used in imaging systems. Y is the luminance component and Cb and Cr are the chrominance components.

도1에 도시된 블럭도는 이미시 센서의 기능별로 표시된 것으로 경우에 따라 달라질 수 있으며, 도시되지 않은 블럭이 더 포함될 수 있다. 예를 들어, 에지 정보를 참조하여 물체의 윤곽이나 경계선 등의 에지에서 원래의 컬러와는 다른 색으로 보간되어 일부 픽셀들이 주위와 어울리지 않게 튀어 보이는 현상인 색상 오류(false color), 경계에서 선명도가 떨어지는 영상 블러(blur), 영상 에지 부근에서 미세한 스프라이프(stripe) 패턴이 촘촘히 반복적으로 교차하여 발생하는 지퍼 열화(zipper artifact), 고주파 성분이 저주파 성분과 혼동되는 엘리어싱 효과(aliasing effect) 등의 결함을 처리하기 위한 결함 처리부와 같은 블럭을 구비할 수 있다.
The block diagram shown in FIG. 1 is displayed for each function of the emissive sensor and may vary depending on the case, and a block not shown may be further included. For example, the color error (false color), which is the phenomenon that some pixels bounce out of harmony with the surrounding color by interpolating with the color different from the original color at the edge such as the outline or boundary of the object with reference to the edge information. Falling image blur, zipper artifacts caused by a fine and repeated cross-stripe pattern in the vicinity of the image edge, and an aliasing effect in which high-frequency components are confused with low-frequency components. A block such as a defect processing unit for processing a defect can be provided.

도2는 도1의 베이어 데이터 처리부를 나타내는 블럭도이다. FIG. 2 is a block diagram illustrating a Bayer data processor of FIG. 1.

도2를 참조하여 살펴보면, 베이어 데이터 처리부(130)는 DPC부(131), GbGr 옵셋 조정부(132), NR부(133) 및 인터폴레이션부(134)를 포함한다. 또한, 베이어 데이터 처리부(120)는 DPC부(131), GbGr 옵셋 조정부(132) 및 NR부(133)에서 데이터를 처리할 때 사용되는 메모리(135)와, 인터폴레이션부(134)에서 데이터를 처리할 때 사용되는 메모리(136)를 포함한다.Referring to FIG. 2, the Bayer data processor 130 includes a DPC unit 131, a GbGr offset adjuster 132, an NR unit 133, and an interpolation unit 134. In addition, the Bayer data processing unit 120 processes the data in the memory 135 and the interpolation unit 134 used when processing data in the DPC unit 131, the GbGr offset adjustment unit 132, and the NR unit 133. Memory 136, which is used when doing so.

DPC(Dead Pixel Concealment)부(131)는 데드 픽셀을 발견하고, 발견된 데드 픽셀을 주변의 정상 픽셀 데이터로 치환하는 블럭이다. GbGr 옵셋 조정부(132)는 베이어 패턴에서 이웃한 픽셀이 블루인 그린 픽셀(Gb)와, 이웃한 픽셀이 레드인 그린 픽셀(Gr)이 같은 양의 빛을 받더라도 다른 값을 출력하게 됨으로 생기는 옵셋을 조정하기 위한 블럭이다. 베이어 패턴으로 된 픽셀 어레이를 통해 이미지 정보를 생성하는 과정에서는 필연적으로 Gr 픽셀과 Gb 픽셀의 이미지 데이터 값 생성에 대한 차이, 즉 옵셋이 발생한다. GbGr 옵셋 조정부(132)에서 보다 효과적으로 Gr-Gb옵셋을 없애는 블럭이다. The dead pixel concealment (DPC) unit 131 detects a dead pixel and replaces the found dead pixel with surrounding normal pixel data. In the Bayer pattern, the GbGr offset adjustment unit 132 outputs a different value even though the green pixel Gb of which the neighboring pixel is blue and the green pixel Gr of which the neighboring pixel is red receive the same amount of light. Block to adjust In the process of generating the image information through the pixel array of the Bayer pattern, a difference, that is, an offset, occurs in generating image data values of Gr and Gb pixels. In the GbGr offset adjustment unit 132, the block effectively eliminates the Gr-Gb offset.

NR(noise reduction)부(133)는 노이즈를 줄이기 위한 픽셀 데이터의 처리를 수행하는 블럭이다. 이미지 처리장치가 촬영한 픽셀 데이터 값에는 이미지 처리장치의 내부적인 요인 또는 외부적인 요인으로 인해 노이즈(Noise)가 포함되어 있고, 이 노이즈를 포함한 픽셀 값을 이용하여 영상으로 재현할 경우 실제 촬영한 영상과는 차이가 생길 수 있다. 또한, NR부(133)는 픽셀 데이터가 에지 영역에 속하는 가를 판단하고, 이를 이용하여 노이즈가 포함된 픽셀 값을 보정하여 노이즈를 제거한다.The noise reduction unit 133 is a block for processing pixel data to reduce noise. Pixel data values captured by the image processing device contain noise due to internal or external factors of the image processing device, and the actual captured image is reproduced when the image is reproduced using the pixel value including this noise. Can be different. In addition, the NR unit 133 determines whether the pixel data belongs to the edge region, and corrects the pixel value including the noise to remove the noise.

인터폴레이션부(134)는 각 픽셀당 레드, 그린, 블루중 하나의 정보만 있는 베이터 데이터에서 각각의 픽셀에 대응하여 레드, 그린, 블루 데이터 값을 생성한 RGB 데이터를 만드는 블럭이다. 이러한 컬러 인터폴레이션 동작을 위하여는 일정 픽셀 영역에서 수평, 수직 및 대각 등의 에지(Edge)의 방향성을 고려하는 것이 필요하다.
The interpolation unit 134 is a block for generating RGB data that generates red, green, and blue data values corresponding to each pixel from data of only one of red, green, and blue information for each pixel. For this color interpolation operation, it is necessary to consider the orientation of edges such as horizontal, vertical, and diagonal in a predetermined pixel area.

도3는 도1의 YcbCr 데이터 처리부를 보다 자세히 나타낸 것이다. 3 illustrates the YcbCr data processor of FIG. 1 in more detail.

도3은 YcbCr 데이터 처리부는 NR(141)부와, 데이터 경계면 조정부(142), 메모리(143)를 포함한다. NR(141)부는 YcbCr 데이터 도메인에서 노이즈를 줄이기 위한 블럭이고, 데이터 경계면 조정부(142)는 이미지의 경계면에서 양측의 데이터 값을 조정하여 보다 선명하게 이미지를 구현하도록 하는 블럭이다. 예를 들어, 어두운 곳은 더 어둡게하고, 밝은 곳은 더 밝게 데이터를 변환하는 것이다. NR(141)부와, 데이터 경계면 조정부(142)도 메모리 용량을 줄이기 위해 하나의 메모리(143)를 이용하여 데이터를 구현한다. 3, the YcbCr data processing section includes an NR 141 section, a data interface adjusting section 142, and a memory 143. FIG. The NR 141 is a block for reducing noise in the YcbCr data domain, and the data boundary adjusting unit 142 is a block for realizing an image more sharply by adjusting data values of both sides at the boundary of the image. For example, darker areas are darker and brighter areas are converted to lighter data. The NR 141 and the data interface adjusting unit 142 also implement data using one memory 143 to reduce memory capacity.

도4는 도3의 메모리 장치에 의해 생성된 윈도우 패턴을 나타내는 도면이다. 도5는 도4에 도시된 윈도우 패턴을 픽셀의 특성에 따라 표시한 것을 나타내는 도면이다. 계속해서 도4와 도5를 통해 윈도우를 구성하는 과정을 살펴본다. FIG. 4 is a diagram illustrating a window pattern generated by the memory device of FIG. 3. FIG. 5 is a diagram showing that the window pattern shown in FIG. 4 is displayed according to the characteristics of pixels. Next, the process of configuring the window will be described with reference to FIGS. 4 and 5.

이미지 처리장치는 픽셀 어레이에서 제공되는 모든 정보를 한번에 처리하지 않고, 각 블럭이 일정한 영역의 데이터만을 수신받아 처리하고 다음단으로 전달하도록 구성되어 있다. 이는 구비되는 메모리의 용량을 최대한 줄이기 위해서이다.The image processing apparatus is configured not to process all the information provided in the pixel array at once, but each block receives and processes only a certain area of data and transfers it to the next stage. This is to minimize the capacity of the memory provided.

도4에 도시된 바와 같이, 메모리(135)에서 픽셀 어레이중에서 5개 라인(L1 ~ L5)의 데이터를 저장할 수 있다고 가정하면, 첫 5 * 5 개의 데이터는 윈도우 A에 의해 도5(a)와 같이 정렬된다. 이때 가장 중심에 있는 픽셀을 중심픽셀(X)이라고 하고, 이미지 처리장치의 각 블럭에서는 중심픽셀(X)에 대해서 필요한 데이터 처리를 수행한다. 여기서 데이터 처리는 인터폴레이션이나, 중심픽셀 데이터에 대한 에지방향을 검출하는 등의 작업을 말한다. 중심픽셀(X)에 대하여 데이터 처리가 수행되면, 다음으로 윈도우가 B로 이동되어 도5(b)와 같이 정렬된다. 이때는 'Y' 위치의 픽셀이 중심픽셀이 된다. 이렇게 데이터 윈도우가 순차적으로 변경됨으로서 픽셀 어레이에 있는 모든 데이터에 대해 순차적으로 처리가 되는 것이다. 따라서 픽셀 어레이의 최외각에 있는 2라인은 보조 데이터로 활용된다.As shown in Fig. 4, assuming that the memory 135 can store five lines (L1 to L5) of data in the pixel array, the first 5 * 5 data are stored by window A as shown in Fig. 5 (a). Sorted together. In this case, the pixel at the center is referred to as the center pixel X, and each block of the image processing apparatus performs necessary data processing on the center pixel X. Here, data processing refers to operations such as interpolation or detecting an edge direction with respect to the center pixel data. When data processing is performed on the center pixel X, the window is next moved to B and aligned as shown in FIG. 5 (b). In this case, the pixel at the 'Y' position becomes the center pixel. As the data window is changed sequentially, all data in the pixel array is processed sequentially. Therefore, the two outermost lines of the pixel array are used as auxiliary data.

또한, 여기서는 이미지 처리장치가 처리하는 데이터 윈도우가 5 * 5인 경우를 설명하였지만, 경우에 따라서는 이미지 처리장치가 처리하는 데이터 윈도우가 3 * 3 또는 7 * 7인 경우도 있다. 이 경우에는 메모리(135)에서 3개의 라인 또는 7개 라인의 픽셀 데이터를 저장하게 된다. 또한, 도5에서 그린픽셀을 Gr 인것은 이웃한 두 픽셀이 레드픽셀인 것이고, Gb인 것은 이웃한 두 픽셀이 블루픽셀을 나타낸 것이다.
In addition, although the case where the data window processed by the image processing apparatus is 5 * 5 was demonstrated here, in some cases, the data window processed by the image processing apparatus may be 3 * 3 or 7 * 7. In this case, the memory 135 stores pixel data of three lines or seven lines. In addition, in FIG. 5, the green pixel is Gr, the two neighboring pixels are red pixels, and the Gb is the neighboring two pixels, is blue pixels.

도6은 도4에 도시된 윈도우 패턴을 픽셀의 위치에 따라 표시한 것을 나타내는 도면이다. 또한, 데이터 윈도우가 3 * 3, 5 * 5 또는 7 * 7인 경우를 각각 나타낸 것이다. 각각 레드, 블루, 그린픽셀을 나타내는 R, B, G의 측면에 있는 숫자는 픽셀 위치를 나타내는 것이다.FIG. 6 is a diagram illustrating display of the window pattern illustrated in FIG. 4 according to the position of a pixel. In addition, the case where the data window is 3 * 3, 5 * 5, or 7 * 7 is shown, respectively. The numbers on the sides of R, B, and G, which represent red, blue, and green pixels, respectively, indicate pixel positions.

도7은 도1에 도시된 에지 데이터 생성부를 나타내는 블럭도이다.FIG. 7 is a block diagram illustrating an edge data generator shown in FIG. 1.

도7을 참조하여 살펴보면, 에지 데이터 생성부(200)는 이미지 데이터를 입력받는 데이터 입력 제어부(210), N * N 윈도우 전달부(220), 에지 데이터 감지부(230), 데이터 포맷 생성부(240), 메모리 장치(250)를 포함한다. 여기서 메모리 장치(250)는 도2에 도시된 메모리 장치를 이용할 수도 있으며, 별도의 메모리 장치를 에지 데이터 생성부(200)에 별도로 구비시킬 수도 있다.Referring to FIG. 7, the edge data generator 200 may include a data input controller 210 for receiving image data, an N * N window transfer unit 220, an edge data detector 230, and a data format generator ( 240, a memory device 250. In this case, the memory device 250 may use the memory device shown in FIG. 2, or a separate memory device may be separately provided in the edge data generator 200.

데이터 입력 제어부(210)는 픽셀 데이터를 A/D 변환부(120)로부터 입력받아 메모리 장치(250)로 전달한다. N * N 윈도우 데이터 전달부(220)는 메모리 장치(250)에 저장된 윈도우 데이터를 에지 데이터 감지부(230)로 제공한다. 에지 데이터 감지부(230)는 N * N 윈도우 데이터 전달부(220)에 의해 전달된 윈도우 데이터에서 중심픽셀의 에지 방향을 감지한다. 에지 방향을 감지하는 방법은 수없이 많이 있으며, 여기서는 다양한 에지 감지 방법을 모두 사용할 수 있다. 예를 들어, 주변 픽셀 값들의 차이값을 구하고, 그 차이값을 비교하여 중심픽셀의 에지 방향을 구할 수 있다. 에지 방향이라는 것은 중심픽셀 값이 포함된 영역의 이미지 경계면이 어떤 방향인지를 나타내는 것이다. The data input controller 210 receives pixel data from the A / D converter 120 and transfers the pixel data to the memory device 250. The N * N window data transfer unit 220 provides the window data stored in the memory device 250 to the edge data detector 230. The edge data detector 230 detects the edge direction of the center pixel in the window data transferred by the N * N window data transfer unit 220. There are numerous ways to detect the edge direction, and all the various edge detection methods can be used here. For example, an edge value of the center pixel may be obtained by obtaining a difference value between neighboring pixel values and comparing the difference value. The edge direction refers to which direction the image boundary of the area containing the center pixel value is.

에지 방향을 검출하는 방법은 그래디언트(gradient) 및 라플라시안(Laplacian) 기법을 이용하여 픽셀 주변의 컬러정보들을 분석하여 수직 방향 및 수평 방향, 대각 방향의 경사도 또는 픽셀값 변화량을 연산하고, 연산된 경사도 또는 픽셀값 변화량 등을 참조하여 에지가 형성되어 있는 에지 방향을 결정한다. 이때, 기울기 또는 픽셀값 변화량들이 모두 임계값보다 작을 경우 픽셀군에 에지 성분이 존재하지 않는 플랫영역으로 판단하며, 경사도 또는 픽셀값 변화량이 동일하여 두 개이상의 에지 방향이 존재하는 경우 복잡한 영역으로 판단한다. 이상과 같이 영상의 에지 방향 정보는 수직방향의 에지, 수평방향의 에지, 대각선 방향의 에지, 플랫 영역, 복잡한 영역 등으로 판단할 수 있다. 또한, 에지 방향 정보와 동일하게, 상기 에지 정보에는 에지 연산에 사용되는 에지 코어링(coring), 에지 이득(gain) 및 에지 한계(limit)를 포함할 수 있다.The edge detection method uses gradient and Laplacian techniques to calculate color information around pixels by calculating gradients or pixel value variations in the vertical and horizontal directions, diagonal directions, and calculated calculated gradients or The direction in which the edge is formed is determined by referring to the pixel value change amount and the like. At this time, when the gradient or pixel value variation is less than the threshold value, it is determined as a flat region where no edge component exists in the pixel group. If the gradient or pixel value variation is the same, when two or more edge directions exist, it is determined as a complicated region. do. As described above, the edge direction information of the image may be determined as an edge in a vertical direction, an edge in a horizontal direction, an edge in a diagonal direction, a flat area, a complicated area, or the like. In addition, as in the edge direction information, the edge information may include edge coring, edge gain, and edge limit used for edge calculation.

계속해서 살펴보면, 데이터 포맷 생성부(240)는 에지 데이터를 2비트 또는 3비트로 저장하여 중심픽셀의 데이터와 결합시킨 후 출력한다. 이때 결합된 에지 데이터는 이미지 처리장치의 다음 단계에서 데이터의 에지 정보가 필요할 때에 이용된다. 즉, 에지 데이터 생성부(200)는 메모리를 이용하여 3×3 또는 5×5, 7×7 등의 윈도우 데이터에서 중심픽셀의 데이터가 가지는 에지 방향을 검출, 판단하고, 이를 이용 중심픽셀의 데이터와 결합하여 출력하는 것이다.
Continuing with reference, the data format generator 240 stores edge data in 2 bits or 3 bits, combines the data with the center pixel data, and outputs the combined data. The combined edge data is then used when edge information of the data is needed in the next step of the image processing apparatus. That is, the edge data generator 200 detects and determines the edge direction of the center pixel data in the window data such as 3 × 3, 5 × 5, 7 × 7, etc. using the memory, and uses the data of the center pixel using the memory. In combination with

도8에는 도8은 중심픽셀의 에지 방향을 나타내는 원도우 데이터이다. 도8에는 중심픽셀(B23)이 각각 ①은 수직방향의 에지, ②와 ④는 대각방향의 에지, ③은 수평방향의 에지가 있을 경우를 화살표로 표기되어 있다.8 is window data showing the edge direction of the center pixel. In Fig. 8, the center pixel B23 is denoted by an arrow when (1) has vertical edges, (2) and (4) diagonal edges, and (3) horizontal edges.

도9는 본 발명의 실시예에 따른 이미지 처리장치의 데이터 처리방법을 나타내는 플로차트이다.9 is a flowchart showing a data processing method of the image processing apparatus according to the embodiment of the present invention.

도9를 참조하여 살펴보면, 본 실시예에 따른 이미지 처리장치의 데이터 처리방법은 베이어 데이터를 입력받는다(S310). 이어서 제1 원도우 데이터를 구성한다(S320). 이때 3×3, 5×5 또는 7×7 로 할 수 있다. Referring to FIG. 9, the data processing method of the image processing apparatus according to the present embodiment receives Bayer data (S310). Subsequently, first window data is configured (S320). At this time, it can be set to 3x3, 5x5 or 7x7.

이어서 제1 원도우 데이터에서 중심픽셀의 에지방향을 검출하여 에지 데이터를 생성한다(S330). 이어서, 중심픽셀의 이미지 데이터와 에지 데이터를 결합하여 베이어 데이터를 재생성한다(S340). 이어서, 제2 원도우 데이터를 구성한다(S350). 이때 제2 원도우 데이터는 제1 원도우 데이터로 구성하여도 되고, 다르게 구성하여도 된다. 예를 들어 제1 원도우 데이터를 5 * 5로하고, 제2 원도우 데이터를 3 * 3으로 하면되는 것이다. 이어서, 제2 원도우 데이터에서 주변픽셀의 에지방향과, 중심픽셀의 에지방향 비교, 판단하여 중심픽셀의 에지방향 유지 또는 변경한다(S360) 이어서, 유지 또는 변경된 중심픽셀의 데이터를 이용하여 인터폴레이션 과정을 수행한다(S370)Subsequently, edge data of the center pixel is detected from the first window data to generate edge data (S330). Next, Bayer data is regenerated by combining image data and edge data of the center pixel (S340). Subsequently, second window data is configured (S350). In this case, the second window data may be configured as the first window data or may be configured differently. For example, the first window data is set to 5 * 5 and the second window data is set to 3 * 3. Next, in the second window data, the edge direction of the peripheral pixel and the edge direction of the center pixel are compared and determined to determine or maintain the edge direction of the center pixel (S360). Then, the interpolation process is performed using the data of the center pixel. Perform (S370)

이를 보다 자세히 살펴보면, 다음과 같다. 먼저, 픽셀 어레이로부터 획득한 광학 신호는 A/D 변환부(120)에 의해 디지털 데이터로 변경되어 출력된다.Looking in more detail, as follows. First, the optical signal obtained from the pixel array is converted into digital data by the A / D converter 120 and output.

에지 데이터는 전술한 바와 같이, 중심픽셀의 에지방향을 수직방향, 수평방향, 45도 대각선 방향, 135도 대각선 방향, 플랫방향, 또는 복잡한 방향 중 하나로 2비트나 또는 3비트의 디지털 값으로 저장된다. 플랫방향은 특별한 방향이 없는 경우이고, 복잡한 영역은 두 개 이상의 에지 방향이 존재하는 경우이다. 에지 데이터 생성부는 중심픽셀들의 에지 방향을 검출한다. As described above, the edge data is stored as a 2-bit or 3-bit digital value in one of the vertical direction, the horizontal direction, the 45 degree diagonal direction, the 135 degree diagonal direction, the flat direction, or the complex direction. The flat direction is when there is no special direction, and the complicated area is when two or more edge directions exist. The edge data generator detects the edge direction of the center pixels.

윈도우를 순차적으로 변경해 가면서 모든 중심픽셀들의 값에 대한 에지 데이터가 검출하고, 각각의 중심픽셀의 이미지데이터에 결합하여 데이터를 재생성한다.As the window is sequentially changed, edge data for the values of all the center pixels are detected and combined with the image data of each center pixel to reproduce the data.

이어서 재생성된 데이터를 이용하여 제2 원도우를 구성하고, 구성된 제2 원도우의 중심픽셀의 정확한 에지 방향을 다시 판정한다. 이 경우에는 주변 픽셀들의 에지 방향을 고려하여 중심픽셀의 에지 방향을 유지할 것이지 변경할 것인지 판단하는 것이다.The regenerated data is then used to construct a second window and again to determine the correct edge direction of the center pixel of the constructed second window. In this case, it is determined whether to maintain or change the edge direction of the center pixel in consideration of the edge direction of the surrounding pixels.

제2 원도우 데이터가 3 * 3 인경우에 먼저, 중심픽셀과 인접해 있는 8개의 주변픽셀을 에지 방향을 분석한다. 8개의 주변 픽셀의 에지방향이 중심픽셀과 동일한 경우에는 중심픽셀의 에지방향이 정확한 것으로 판단한다.In the case where the second window data is 3 * 3, the edge direction is first analyzed for eight peripheral pixels adjacent to the center pixel. If the edge direction of eight peripheral pixels is the same as the center pixel, it is determined that the edge direction of the center pixel is correct.

만약, 주변 픽셀의 에지 방향이 중심픽셀의 에지 방향과 다르다면, 주변픽셀 8개중 몇개나 중심픽셀이 에지방향과 같은지 판단한다. 예를 들어, 중심픽셀이 수직에지를 가지는 경우, 주변 8개의 주변픽셀의 에지방향중 수직 에지방향을 가지는 픽셀이 5개, 수평 에지 방향을 가지는 픽셀이 2개, 대각 에지 방향을 가지는 픽셀이 1개인 경우에는 중심픽셀의 에지 방향은 그대로 유지된다. If the edge direction of the peripheral pixel is different from the edge direction of the center pixel, it is determined how many of the eight peripheral pixels are the same as the edge direction. For example, when the center pixel has a vertical edge, five pixels having a vertical edge direction, two pixels having a horizontal edge direction, and one pixel having a diagonal edge direction among the edge directions of eight peripheral pixels In the individual case, the edge direction of the center pixel is maintained.

만약에 8개의 인접 픽셀들의 에지 방향이 수직 에지방향을 가지는 픽셀이 4개, 수평 에지 방향을 가지는 픽셀이 4개인 경우에는 2개의 주변 픽셀들의 주 에지 방향중 임의로 선택한다. 또한, 중심픽셀의 에지 방향이 8개의 주변 픽셀들중 다수개의 에지 방향과 일치하지 않으면 중심픽셀의 에지 방향을 인접 픽셀들의 에지 방향으로 변경한다. 이렇게 변경된 중심픽셀의 값을 이용하여 인터폴레이션 과정을 수행한다.
If the edge direction of eight adjacent pixels is four pixels having a vertical edge direction and four pixels having a horizontal edge direction, one of the main edge directions of two peripheral pixels is arbitrarily selected. In addition, when the edge direction of the center pixel does not coincide with the edge direction of the plurality of eight peripheral pixels, the edge direction of the center pixel is changed to the edge direction of adjacent pixels. The interpolation process is performed using the changed center pixel value.

도10과 도11은 도9에 도시된 방법을 적용하기 위한 원도우 데이터의 일실시예를 나타내는 도면이다. 도10은 이미지 데이터만 있는 경우를 표시하는 것이고, 도11은 제1 원도우 데이터를 이용하여 중심픽셀의 에지방향을 모두 구하고 난 뒤에, 정렬된 상태를 나타내는 것이다. 10 and 11 illustrate an embodiment of window data for applying the method shown in FIG. FIG. 10 shows a case where there is only image data, and FIG. 11 shows an aligned state after all edge directions of the center pixel are obtained using the first window data.

도11은 도10의 디지털 데이터를 중심픽셀 및 주변 픽셀의 에지 방향 정보를 검출하여 RGB 데이터에 포함되도록 도시한 도면이다. 이때, Rv, Gv, Bv 등은 수직방향의 에지를 가지는 픽셀이며, Rh, Gh, Bh 등은 수평방향의 에지를 가지는 픽셀이며, Rd, Gd, Bd는 대각선 방향의 에지를 가지는 픽셀이며, Rc, Gc, Bc는 두개 이상의 에지 방향이 검출된 복잡한 영역으로 표시되는 픽셀이며, Rf, Gf, Bf는 에지 검출이 안된 평탄 영역으로 표시되는 픽셀이다.FIG. 11 is a diagram illustrating digital data of FIG. 10 to be included in RGB data by detecting edge direction information of a center pixel and surrounding pixels. At this time, Rv, Gv, Bv, etc. are pixels having vertical edges, Rh, Gh, Bh, etc. are pixels having horizontal edges, and Rd, Gd, Bd are pixels having diagonal edges, Rc , Gc and Bc are pixels represented by a complex region in which two or more edge directions are detected, and Rf, Gf and Bf are pixels represented by a flat region where edge detection is not performed.

도11에서 각 타입(type)은 중심픽셀이 어떤 픽셀인지를 말하는 것이다. 도11의 Rtype 윈도우 데이터에서 주변픽셀의 대다수는 에지 방향이 수직 방향이고, 그 다음은 평탄영역이다.중심픽셀의 에지 방향과 주변픽셀의 에지 방향이 수직방향으로 일치하므로, 중심픽셀의 에지 방향은 변경없이 수직방향이라고 판단할 수 있다. 도12의 Btype 윈도우 데이터에서 주변픽셀의 대다수는 에지 방향은 수직 방향이고, 그 다음은 복잡한 영역이다. 중심픽셀의 에지 방향과 인접 픽셀의 에지 방향이 서로 일치하지 않으므로, 중심픽셀의 값은 복잡한 영역에서 수직방향으로 에지 방향이 변경된다. In FIG. 11, each type indicates what pixel the center pixel is. In the Rtype window data of Fig. 11, the majority of the peripheral pixels are in the vertical direction, and then the flat region. The edge direction of the center pixel and the peripheral direction of the peripheral pixel coincide in the vertical direction. It can be determined that the vertical direction without change. In the Btype window data of Fig. 12, the majority of the peripheral pixels are in the vertical direction, and then in the complex area. Since the edge direction of the center pixel and the edge direction of the adjacent pixel do not coincide with each other, the value of the center pixel is changed in the vertical direction in the vertical direction in the complicated region.

도12의 Grtype 윈도우 데이터에서 주변픽셀의 대다수 에지 방향은 평탄 영역이고, 그 다음은 부 에지 방향은 복잡한 영역이다. 중심픽셀의 에지 방향과 인접 픽셀의 주 에지 방향이 서로 일치하지 않으므로, 중심픽셀의 값은 수직 방향에서 평탄 영역으로 에지 방향이 변경된다. 도12의 Gbtype 윈도우 데이터에서 인접 픽셀의 대다수 에지 방향은 평탄 영역이고 그 다음은 수직 방향이며, 중심픽셀의 에지 방향과 인접 픽셀의 에지 방향이 서로 일치하지 않으므로, 중심픽셀은 수직 방향에서 평탄 영역으로 에지 방향이 변경된다. 이와 같이 중심픽셀의 에지 방향을 복잡한 영역이 아닌 수직 방향으로 수정하여 보간을 실시하는 것이 컬러 노이즈를 줄이고 선명도를 향상 시킬 수 있다.
In the Grtype window data of Fig. 12, the majority edge direction of the peripheral pixel is a flat area, followed by the minor edge direction is a complicated area. Since the edge direction of the center pixel and the main edge direction of the adjacent pixel do not coincide with each other, the value of the center pixel changes the edge direction from the vertical direction to the flat area. In the Gbtype window data of Fig. 12, the edge direction of most of the adjacent pixels is a flat area followed by the vertical direction, and since the edge direction of the center pixel and the edge direction of the adjacent pixel do not coincide with each other, the center pixel is moved from the vertical direction to the flat area. The edge direction is changed. In this way, interpolation by correcting the edge direction of the center pixel in the vertical direction instead of the complicated area can reduce color noise and improve sharpness.

도12은 도9에 도시된 본 실시예에 따른 이미지 처리장치의 데이터 처리방법에 따라 필요한 각 블럭을 기능적으로 표시한 것이다.FIG. 12 functionally displays each block required in accordance with the data processing method of the image processing apparatus according to the present embodiment shown in FIG.

본 실시예에 따른 이미지 처리장치는 픽셀 어레이(410), 메모리 장치(420), 데이터 포맷 생성부(430), 데이터 검증부(440), 및 인터폴레이션부(450)를 포함한다.The image processing apparatus according to the present exemplary embodiment includes a pixel array 410, a memory device 420, a data format generation unit 430, a data verification unit 440, and an interpolation unit 450.

메모리 장치(420)는 픽셀 어레이에서 제공되는 정보를 제1 윈도우 데이터 저장하기 위한 것이다. 데이터 포맷 생성부(430)는 메모리 장치(420)에 저장된 제1 원도우 데이터중 중심픽셀의 데이터에 대한 에지 방향을 추출하여 상기 이미지 데이터와 상기 에지 데이터를 포함하는 데이터를 재생성하기 위한 것이다. The memory device 420 is for storing first window data provided by the pixel array. The data format generator 430 extracts an edge direction of data of a center pixel among the first window data stored in the memory device 420 to regenerate data including the image data and the edge data.

에지 데이터 검증부(440)는 상기 데이터 포멧 생성부에서 제공된 재생성된 데이터로 구현된 제2 원도우 데이터로 구성하고, 상기 제2 윈도우 데이터의 중심픽셀의 에지 데이터와, 상기 중심픽셀의 주변에 배치된 주변픽셀의 에지 데이터를 비교하여, 상기 제2 윈도우 데이터에서의 중심픽셀의 에지 데이터를 유지 또는 변경하기 위한 것이다. 인터폴레이션부(450)는 상기 에지 데이터 검증부에 의해 유지 또는 변경된 중식픽셀의 데이터를 인터폴레이션 하기 위한 것이다. 여기서 메모리 장치를 제1 원도우 데이터 뿐만 아니라 제2 원도우 데이터를 저장하는데도 이용할 수 있다.
The edge data verification unit 440 is composed of second window data implemented by regenerated data provided by the data format generation unit. The edge data verification unit 440 is arranged around edge data of the center pixel of the second window data and the center pixel. Comparing the edge data of the peripheral pixels, to maintain or change the edge data of the center pixel in the second window data. The interpolation unit 450 is for interpolating data of the Chinese pixel held or changed by the edge data verification unit. The memory device may be used to store not only the first window data but also the second window data.

지금까지 살펴본 바와 같이, 본 실시예에 따른 이미지 처리장치는 에지 데이터 생성부를 구비하고, 원도우 데이터에서 중심픽셀의 에지 정보를 검출하여 중심픽셀의 데이터와 결합한다. 추후 데이터의 에지 정보를 이용할 필요하 있는 경우에는 새롭게 에지 정보를 검출할 필요없이 태그 형태로 붙어 있는 에지 정보를 이용하여 이미지 데이터를 처리하게 된다.As described above, the image processing apparatus according to the present embodiment includes an edge data generation unit, and detects edge information of the center pixel from the window data and combines the edge information with the center pixel data. If it is necessary to use the edge information of the data later, the image data is processed using the edge information attached in the form of a tag without detecting the edge information newly.

이전에는 일반적으로 사용하는 이미지 처리장치는 데이터의 에지정보가 필요한 경우마다 일일히 에지 정보를 검출하여 사용하였기 때문에, 데이터를 처리하는데 많은 시간이 필요하였고, 메모리 또한 많이 사용되었다. 예를 들면, 도2의 DPC부(131)에서 데드 픽셀을 찾아 내서 없애는 경우에도 에지 정보가 필요하며, 인터폴레이션부(134)에서도 인터폴레이션 작업을 수행할 때에 에지 정보를 이용하게 된다. 또한, 도3의 데이터 경계면 조정부(142)도 에지정보가 필요하다. 그러나, 이전의 이미지 처리장치는 에지 정보가 필요한 블럭에서 데이터를 처리하기 전에, 각 블럭에서 데이터의 에지 정보를 원도우 데이터의 값들을 비교하여 추출하였다. 이렇게 각 블럭마다 에지 정보를 검출하다보니, 메모리를 자주 이용해야 하고, 그로 인해 필요한 검출 로직이 이미지 처리장치의 각 블럭에 구비되었다. In the past, an image processing apparatus generally used requires a lot of time for processing data, and a lot of memory is used since edge information of data is used every day. For example, edge information is required when the DPC unit 131 of FIG. 2 finds and removes the dead pixel, and the interpolation unit 134 uses the edge information when performing the interpolation operation. In addition, the data boundary adjustment unit 142 of FIG. 3 also needs edge information. However, the previous image processing apparatus extracts edge information of the data in each block by comparing the values of the window data before processing the data in the block requiring the edge information. As the edge information is detected in each block, the memory must be frequently used, and thus, the necessary detection logic is provided in each block of the image processing apparatus.

그러나, 본 발명에 의해서는 이미지 처리장치는 에지 데이터 생성부(200)에서 에지 정보를 추출하여 픽셀의 데이터에 태그형태로 결합시키고, 추후 데이터의 에지 정보를 이용하고 싶을 경우에는 태그 형태의 데이터를 이용한다. 따라서, 이미지 처리장치에서 에지 정보 여러번 추출할 필요가 없기 때문에, 메모리 사용을 크게 줄일 수 있으며, 불필요한 검출 회로를 구비할 필요도 없다.However, according to the present invention, the image processing apparatus extracts edge information from the edge data generating unit 200 and combines the data of the pixel in the form of a tag. I use it. Therefore, since the edge information does not need to be extracted many times in the image processing apparatus, the memory usage can be greatly reduced, and there is no need to provide unnecessary detection circuits.

이와같이, 에지 데이터 검출부(200)에서 한번에 에지 정보 검출하고 검출된 에지 정보를 영상 데이터에 포함시켜 영상 데이터를 재생성하게 되면, 영상 신호 처리부(370)에서는 이를 입력받아서 영상의 에지 정보를 필요로 하는 모든 회로부에서 에지 정보 검출 로직을 생략하고 바로 에지 정보를 이용한 영상 처리가 가능하므로, 이미지 처리장치는 최소한의 메모리를 사용하면서 영상 데이터를 보다 쉽게 처리할 수 있게 된다. 특별히, 중심픽셀의 데이터를 주변 픽셀의 데이터의 에지 데이터 정보를 참조하여 수정한 다음 인터폴레이션을 수행하기 때문에, 보다 신뢰성있는 인터폴레이션 결과를 얻을 수 있다. As such, when the edge data detection unit 200 detects edge information at one time and includes the detected edge information in the image data to regenerate the image data, the image signal processing unit 370 receives the input and receives all the edge information of the image. By eliminating the edge information detection logic in the circuit unit and immediately performing image processing using the edge information, the image processing apparatus may process image data more easily using a minimum of memory. In particular, since the data of the center pixel is corrected with reference to the edge data information of the data of the surrounding pixels and then interpolated, more reliable interpolation results can be obtained.

디모자익(Demosaic)과정 또는 컬러 인터폴레이션 과정에서 어떤 방법으로 데이터를 처리하느냐에 따라 최종적으로 구현되는 이미지의 퀄러티(Quality)가 좌우 된다. 인터폴레이션 과정을 수행하는 과정에 있어서 이미지의 에지면을 검출하고, 그 정보를 가지고 처리하게 되면 보다 더 퀄러티가 높은 이미지를 구현할 수 있다.The quality of the final image depends on how the data is processed in the demosaicing or color interpolation process. In the process of performing the interpolation process, if the edge of the image is detected and processed with the information, a higher quality image can be realized.

데이터를 분석하여 에지 정보를 검출하고, 이를 이용하여 인터폴레이션을 수행하기 위해서는 이미지 처리장치에 많은 리소스를 필요로 한다. 이전에는 베이어 데이터를 3x3 또는 5x5 등의 윈도우 데이터를 구성하고, 중심픽셀에 대한 에지 방향의 정보를 구하고, 이를 이용하여 인터폴레이션을 수행하는데 이용하였다.In order to analyze the data and detect the edge information and perform interpolation using the data, a large amount of resources are required for the image processing apparatus. Previously, Bayer data was used to construct window data such as 3x3 or 5x5, obtain edge information about a center pixel, and use it to perform interpolation.

이 경우, 한정된 정보를 가지고 에지 정보를 구하기 때문에 노이즈 등으로 인한 왜곡으로 인해 에지 정보가 잘못 구해 질 수도 있어 인터폴레이션 결과값에 오류가 발생할 수 있다. 이러한 오류는 이미지 구현할 때에 컬러 노이즈로 나타나게 된다.In this case, since edge information is obtained with limited information, edge information may be incorrectly obtained due to distortion due to noise or the like, which may cause an error in the interpolation result. This error appears as color noise when implementing the image.

중심픽셀의 에지 정보를 가지고 이미지를 구현하기 위한 데이터 처리를 하는 경우에 정확도가 떨어질 수 있다. 본원발명은 인터폴레이션 과정을 수행하기 전에 모든 데이터에 에지 정보를 포함하는 에지 데이터가 결합된 데이터를 재생성한다. 재성된 데이터를 이용하여 원도우를 구성하고 이를 이용하여 인터폴레이선을 수행하게 되면, 원도우 데이터의 모든 픽셀값들마다 에지정보가 있기 때문에 보다 정확하게 인터폴레이션을 수행할 수 있다.When processing data to implement an image with the edge information of the center pixel may be less accurate. The present invention regenerates data in which edge data including edge information is combined with all data before performing the interpolation process. When the window is constructed using the regenerated data and the interpolation line is performed using the generated data, interpolation can be performed more accurately because edge information is included in every pixel value of the window data.

특별히, 본 실시예에 따른 이미지 처리장치에서는 모든 픽셀값에 에지 데이터가 포함된 상태에서 중심픽셀의 값을 주변픽셀들의 값을 참조하여 변경 또는 유지시킨 이후에 인터폴레이션을 수행한다. 원도우 데이터에서 모든 데이터가 에지 방향을 가지고 있고, 중심픽셀의 에지방향이 주변의 픽셀 데이터의 에지 방향과는 다를 때에 주변픽셀의 에지 데이터를 참조하여 데이터를 처리함으로서, 보다 정확한 중심픽셀의 데이터 처리가 가능하다. 따라서, 본 실시예에 따른 이미지 처리장치는 정확한 에지 정보를 가지고 있는 중심픽셀의 값을 인터폴레이션 하도록 할 수 있다. 인터폴에이션된 이후의 RGB 값에 잘못된 에지정보로 인해 노이즈가 포함되는 것을 막을 수 있는 것이다.In particular, the image processing apparatus according to the present embodiment performs interpolation after changing or maintaining the value of the center pixel with reference to the values of surrounding pixels while the edge data is included in all pixel values. When all the data in the window data has an edge direction, and the edge direction of the center pixel is different from the edge direction of the surrounding pixel data, the data is processed with reference to the edge data of the peripheral pixel, thereby more accurately processing the data of the center pixel. It is possible. Therefore, the image processing apparatus according to the present exemplary embodiment may interpolate the value of the center pixel having the correct edge information. It is possible to prevent noise from being included due to incorrect edge information in the RGB value after interpolation.

또한, 윈도우 데이터의 모든 값을이 에지 정보를 가지고 있기 때문에, 다양한 형태로 인터폴레이션을 이용하는데 이 에지 데이터를 이용할 수 있다.
In addition, since all values of the window data have this edge information, this edge data can be used to use interpolation in various forms.

이상에서 대표적인 실시예를 통하여 본 발명에 대하여 상세하게 설명하였으나, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 상술한 실시예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리범위는 설명된 실시예에 국한되어 정해져서는 안되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the present invention. I will understand. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the scope of the appended claims, as well as the appended claims.

Claims (14)

입력된 베이어 데이터로 제1 윈도우 데이터 구성하는 단계;
상기 제1 원도우 데이터에서의 중심픽셀의 에지방향을 검출하여 에지 데이터 생성하는 단계;
중심픽셀의 이미지 데이터와 에지 데이터를 결합하여 베이어 데이터 재생성하는 단계;
상기 재생성된 베이어 데이터를 이용하여 제2 윈도우 데이터를 구성하는 단계;
상기 제2 윈도우 데이터에서의 중심픽셀의 에지 데이터와, 상기 중심픽셀의 주변에 놓인 주변픽셀의 에지 데이터를 비교하여, 상기 제2 윈도우 데이터에서의 중심픽셀의 에지 데이터를 유지 또는 변경하는 단계; 및
상기 제2 윈도우 데이터를 이용하여 인터폴레이션 수행하는 단계
를 포함하며, 상기 제2 윈도우 데이터에서 상기 중심픽셀의 주변픽셀은 상기 중심픽셀과 접하는 8개의 픽셀인 것을 특징으로 하는 이미지 처리장치의 데이터 처리방법.
Constructing first window data from input Bayer data;
Generating edge data by detecting an edge direction of a center pixel in the first window data;
Combining Bayer data with image data and edge data of the center pixel;
Constructing second window data using the regenerated Bayer data;
Maintaining or changing edge data of the center pixel in the second window data by comparing edge data of the center pixel in the second window data with edge data of a peripheral pixel placed around the center pixel; And
Performing interpolation using the second window data
And a peripheral pixel of the center pixel in the second window data is eight pixels in contact with the center pixel.
삭제delete 청구항 3은(는) 설정등록료 납부시 포기되었습니다.Claim 3 has been abandoned due to the setting registration fee. 제 1 항에 있어서,
상기 제1 윈도우 데이터는 3 * 3, 5 * 5, 또는 7 * 7 데이터인 것을 포함하는 것을 특징으로 하는 이미지 처리장치의 데이터 처리방법.
The method of claim 1,
And the first window data is 3 * 3, 5 * 5, or 7 * 7 data.
청구항 4은(는) 설정등록료 납부시 포기되었습니다.Claim 4 has been abandoned due to the setting registration fee. 제 1 항에 있어서,
상기 제2 윈도우 데이터는 3 * 3, 5 * 5, 또는 7 * 7 데이터인 것을 포함하는 것을 특징으로 하는 이미지 처리장치의 데이터 처리방법.
The method of claim 1,
And the second window data comprises 3 * 3, 5 * 5, or 7 * 7 data.
청구항 5은(는) 설정등록료 납부시 포기되었습니다.Claim 5 was abandoned upon payment of a set-up fee. 제 1 항에 있어서,
상기 제2 윈도우 데이터에서의 중심픽셀의 에지 데이터를 유지 또는 변경하는 단계는
상기 중심픽셀의 에지 데이터와, 상기 중심픽셀과 접한 8개의 주변픽셀의 에지 데이터를 비교하는 단계; 및
상기 8개의 주변픽셀의 에지 데이터와 모두 일치하고, 상기 중심픽셀의 에지 데이터와는 다른 값일 때, 상기 중심픽셀의 에지 데이터를 상기 주변픽셀의 에지 데이터로 변경하는 단계를 포함하는 것을 특징으로 하는 이미지 처리장치의 데이터 처리방법.
The method of claim 1,
Maintaining or changing the edge data of the center pixel in the second window data
Comparing edge data of the center pixel with edge data of eight peripheral pixels in contact with the center pixel; And
Changing the edge data of the center pixel to the edge data of the peripheral pixel when all of the edge data of the eight peripheral pixels is identical to and different from the edge data of the central pixel. Data processing method of processing device.
청구항 6은(는) 설정등록료 납부시 포기되었습니다.Claim 6 has been abandoned due to the setting registration fee. 제 1 항에 있어서,
상기 제2 윈도우 데이터에서의 중심픽셀의 에지 데이터를 유지 또는 변경하는 단계는
상기 중심픽셀의 에지 데이터와, 상기 중심픽셀과 접한 8개의 주변픽셀의 에지 데이터를 비교하는 단계; 및
상기 8개의 주변픽셀의 에지 데이터의 4개이상의 값이 일치하고, 상기 중심픽셀의 에지 데이터와는 다른 값일 때, 상기 중심픽셀의 에지 데이터를 상기 주변픽셀의 일치된 에지 데이터로 변경하는 단계를 포함하는 것을 특징으로 하는 이미지 처리장치의 데이터 처리방법.
The method of claim 1,
Maintaining or changing the edge data of the center pixel in the second window data
Comparing edge data of the center pixel with edge data of eight peripheral pixels in contact with the center pixel; And
Changing the edge data of the center pixel to matched edge data of the peripheral pixel when at least four values of the edge data of the eight peripheral pixels match and are different from the edge data of the central pixel. And a data processing method of the image processing apparatus.
청구항 7은(는) 설정등록료 납부시 포기되었습니다.Claim 7 has been abandoned due to the setting registration fee. 제 1 항에 있어서,
상기 에지 데이터는
상기 중심픽셀의 데이터가 가지는 이미지 특성의 방향이 수직방향, 수평방향, 45도 방향의 대각선 방향, 135도 방향의 대각선 방향, 플랫 방향 및 복잡한 방향중 하나의 방향에 대한 정보를 가지고 있는 것을 특징으로 하는 이미지 처리장치의 데이터 처리방법..
The method of claim 1,
The edge data is
The direction of the image characteristic of the data of the center pixel has information about one of the vertical direction, the horizontal direction, the diagonal direction in the 45 degree direction, the diagonal direction in the 135 degree direction, the flat direction and the complex direction. Data processing method of the image processing apparatus.
픽셀 어레이;
상기 픽셀 어레이에서 제공되는 정보를 제1 윈도우 데이터로 저장하기 위한 저장부;
상기 저장부에 저장된 제1 원도우 데이터중 중심픽셀의 이미지 데이터에 대한 에지 방향을 추출하여 상기 이미지 데이터와 상기 에지 데이터를 포함하는 데이터를 재생성하기 위한 데이터 포맷 생성부;
상기 데이터 포멧 생성부에서 제공된 재생성된 데이터로 제2 원도우 데이터로 구성하고, 상기 제2 윈도우 데이터의 중심픽셀에 대한 에지 데이터와, 상기 중심픽셀의 주변에 배치된 주변픽셀의 에지 데이터를 비교하여, 상기 제2 윈도우 데이터에서의 중심픽셀의 에지 데이터를 유지 또는 변경하기 위한 에지 데이터 검증부; 및
상기 에지 데이터 검증부에 의해 유지 또는 변경된 중심픽셀의 데이터를 인터폴레이션 하기 위한 인터폴레이션부
를 구비하며, 상기 제2 윈도우 데이터에서 상기 중심픽셀의 주변픽셀은 상기 중심픽셀과 접하는 8개의 픽셀인 것을 특징으로 하는 이미지 처리장치.
Pixel arrays;
A storage unit for storing the information provided from the pixel array as first window data;
A data format generation unit for extracting an edge direction of image data of a center pixel among the first window data stored in the storage unit and regenerating data including the image data and the edge data;
Reconstructed data provided by the data format generation unit is composed of second window data, and compares edge data of a center pixel of the second window data with edge data of a peripheral pixel disposed around the center pixel. An edge data verification unit for holding or changing edge data of the center pixel in the second window data; And
Interpolation unit for interpolating data of the center pixel maintained or changed by the edge data verification unit
And surrounding pixels of the center pixel in the second window data are eight pixels in contact with the center pixel.
삭제delete 청구항 10은(는) 설정등록료 납부시 포기되었습니다.Claim 10 has been abandoned due to the setting registration fee. 제 8 항에 있어서,
상기 제1 윈도우 데이터는 3 * 3, 5 * 5, 또는 7 * 7 데이터인 것을 포함하는 것을 특징으로 하는 이미지 처리장치.
The method of claim 8,
And the first window data comprises 3 * 3, 5 * 5, or 7 * 7 data.
청구항 11은(는) 설정등록료 납부시 포기되었습니다.Claim 11 was abandoned upon payment of a setup registration fee. 제 8 항에 있어서,
상기 제2 윈도우 데이터는 3 * 3, 5 * 5, 또는 7 * 7 데이터인 것을 포함하는 것을 특징으로 하는 이미지 처리장치.
The method of claim 8,
And the second window data comprises 3 * 3, 5 * 5, or 7 * 7 data.
청구항 12은(는) 설정등록료 납부시 포기되었습니다.Claim 12 is abandoned in setting registration fee. 제 8 항에 있어서,
상기 에지 데이터 검증부는
상기 중심픽셀을 둘러싸고 있는 8개의 주변픽셀의 에지 방향이 모두 일치하고, 상기 8개의 주변픽셀의 에지 데이터와 상기 중심픽셀의 에지 데이터와는 다른 값일 때, 상기 중심픽셀의 에지 데이터를 상기 주변픽셀의 에지 데이터로 변경하는 것을 특징으로 하는 이미지 처리장치.
The method of claim 8,
The edge data verification unit
When the edge directions of the eight peripheral pixels surrounding the center pixel all coincide with each other, and the edge data of the eight peripheral pixels is different from the edge data of the central pixel, the edge data of the central pixel is set to the edge pixel of the peripheral pixel. An image processing apparatus characterized by changing to edge data.
청구항 13은(는) 설정등록료 납부시 포기되었습니다.Claim 13 was abandoned upon payment of a registration fee. 제 8 항에 있어서,
상기 에지 데이터 검증부는
상기 중심픽셀을 둘러싸고 있는 4개이상의 주변픽셀의 에지 방향이 모두 일치하고, 상기 4개의 주변픽셀의 에지 데이터와 상기 중심픽셀의 에지 데이터와는 다른 값일 때, 상기 중심픽셀의 에지 데이터를 상기 주변픽셀의 일치된 에지 데이터로 변경하는 것을 특징으로 하는 이미지 처리장치.
The method of claim 8,
The edge data verification unit
When the edge directions of the four or more peripheral pixels surrounding the center pixel all match, and the edge data of the four peripheral pixels is different from the edge data of the center pixel, the edge data of the center pixel is converted into the peripheral pixel. And change to the matched edge data of the image processing apparatus.
청구항 14은(는) 설정등록료 납부시 포기되었습니다.Claim 14 has been abandoned due to the setting registration fee. 제 8 항에 있어서,
상기 에지 데이터는
상기 중심픽셀의 데이터가 가지는 이미지 특성의 방향이 수직방향, 수평방향, 45도 방향의 대각선 방향, 135도 방향의 대각선 방향, 플랫 방향 및 복잡한 방향중 하나의 방향에 대한 정보를 가지고 있는 것을 특징으로 하는 이미지 처리장치.
The method of claim 8,
The edge data is
The direction of the image characteristic of the data of the center pixel has information about one of the vertical direction, the horizontal direction, the diagonal direction in the 45 degree direction, the diagonal direction in the 135 degree direction, the flat direction and the complex direction. Image processing unit.
KR1020100078370A 2010-08-13 2010-08-13 Image processing device and method for processing image data of the same KR101211102B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100078370A KR101211102B1 (en) 2010-08-13 2010-08-13 Image processing device and method for processing image data of the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100078370A KR101211102B1 (en) 2010-08-13 2010-08-13 Image processing device and method for processing image data of the same

Publications (2)

Publication Number Publication Date
KR20120015870A KR20120015870A (en) 2012-02-22
KR101211102B1 true KR101211102B1 (en) 2012-12-11

Family

ID=45838449

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100078370A KR101211102B1 (en) 2010-08-13 2010-08-13 Image processing device and method for processing image data of the same

Country Status (1)

Country Link
KR (1) KR101211102B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102087986B1 (en) * 2013-10-04 2020-03-11 삼성전자주식회사 Method and apparatus for processing image data and medium record of

Also Published As

Publication number Publication date
KR20120015870A (en) 2012-02-22

Similar Documents

Publication Publication Date Title
US10547772B2 (en) Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US8363123B2 (en) Image pickup apparatus, color noise reduction method, and color noise reduction program
JP5151075B2 (en) Image processing apparatus, image processing method, imaging apparatus, and computer program
JP5280448B2 (en) Image processing apparatus, image processing method, image processing program, and semiconductor integrated circuit
JP5664255B2 (en) Image processing apparatus, image processing method, and program
TW200915861A (en) Method and apparatus for improving low-light performance for small pixel image sensors
WO2016031597A1 (en) Image processing device, image processing method, and image processing system
CN101375589A (en) Adaptive image filter for filtering image information
JP2003259224A (en) Image pickup device
KR20110029001A (en) Image porcessing method and apparatus in the bayer image
CN108122201A (en) A kind of Bayer interpolation slide fastener effect minimizing technology
EP2442556A1 (en) Apparatus and method for capturing images with high dynamic range
JP4305071B2 (en) Signal correction method
US20160277721A1 (en) Color filtered area processing method for improving image processing
US20150055861A1 (en) Methods and Systems for Image Demosaicing
KR100565429B1 (en) Apparatus and method for reconstructing missing color values in a color filter array
JP5948167B2 (en) Imaging device
KR101211102B1 (en) Image processing device and method for processing image data of the same
JP2010141661A (en) Image processing device
KR101204921B1 (en) Image processing device and method for processing image data of the same
US11412164B1 (en) Method, apparatus, and system for residual row noise removal
KR101327790B1 (en) Image interpolation method and apparatus
US8938120B2 (en) Image sensing device and image data processing method using the same
TWI524729B (en) A real-time false color reduction system and method for color interpolation
US20130038772A1 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A201 Request for examination
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20151120

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20161125

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20171124

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee