KR101493425B1 - Apparatus and method for interpolating image, and apparatus for processing image using the same - Google Patents

Apparatus and method for interpolating image, and apparatus for processing image using the same Download PDF

Info

Publication number
KR101493425B1
KR101493425B1 KR20120120367A KR20120120367A KR101493425B1 KR 101493425 B1 KR101493425 B1 KR 101493425B1 KR 20120120367 A KR20120120367 A KR 20120120367A KR 20120120367 A KR20120120367 A KR 20120120367A KR 101493425 B1 KR101493425 B1 KR 101493425B1
Authority
KR
South Korea
Prior art keywords
edge
region
image
pixel
edge region
Prior art date
Application number
KR20120120367A
Other languages
Korean (ko)
Other versions
KR20140054639A (en
Inventor
김재석
윤유진
배종현
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR20120120367A priority Critical patent/KR101493425B1/en
Priority to US13/681,810 priority patent/US9076232B2/en
Publication of KR20140054639A publication Critical patent/KR20140054639A/en
Application granted granted Critical
Publication of KR101493425B1 publication Critical patent/KR101493425B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0142Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation being edge adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection

Abstract

본 발명은 영상 보간 장치, 영상 보간 방법 및 이를 사용한 영상 처리 장치에 관한 것이다. 본 발명의 일 실시예에 따른 영상 보간 장치는, 이미지로부터 에지를 포함하는 에지 영역을 식별하는 에지 영역 식별부; 상기 에지 영역을 다수의 구역으로 분류하는 에지 영역 분류부; 그리고 상기 구역마다 상이한 방식으로 보간을 수행하는 보간부;를 포함할 수 있다.The present invention relates to an image interpolation apparatus, an image interpolation method, and an image processing apparatus using the same. According to an aspect of the present invention, there is provided an image interpolation apparatus including: an edge region identification unit for identifying an edge region including an edge from an image; An edge region classifying unit classifying the edge region into a plurality of regions; And an interpolation section for performing interpolation in different ways for each of the zones.

Figure R1020120120367
Figure R1020120120367

Description

영상 보간 장치, 영상 보간 방법 및 이를 사용한 영상 처리 장치{APPARATUS AND METHOD FOR INTERPOLATING IMAGE, AND APPARATUS FOR PROCESSING IMAGE USING THE SAME}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image interpolation apparatus, an image interpolation method, and an image processing apparatus using the interpolation apparatus,

본 발명은 영상 보간 장치, 영상 보간 방법 및 이를 사용한 영상 처리 장치에 관한 것이다.The present invention relates to an image interpolation apparatus, an image interpolation method, and an image processing apparatus using the same.

영상 처리 시 원 영상을 확대하는 것은 원 영상의 각 픽셀의 좌표를 확대하려는 배율만큼 이동하는 것을 말한다. 이 과정에서 확대된 영상에는 픽셀값을 할당 받지 못한 픽셀들이 존재하게 된다. 이러한 픽셀들을 홀(hole)이라 하는데, 빈 픽셀에 적당한 값을 할당하여 영상을 처리하는 기법을 보간(interpolation)이라 한다. In the image processing, enlarging the original image means shifting the coordinates of each pixel of the original image by a magnification for enlarging the original image. In this process, pixels that have not been assigned pixel values exist in the enlarged image. These pixels are called holes. The technique of assigning appropriate values to empty pixels and processing images is called interpolation.

보간은 값이 알려진 픽셀들을 이용하여 만들어진 선형식(linear function)이나 다항식의 회귀분석(regression analysis), 푸리에 급수, 스플라인(Spline), 무빙 에버리지(Moving average), 크리깅(Kriging) 등에 의해 이루어진다. 또한, 보간 방식으로는 최근린 보간(Nearest Neighbor Interpolation), 겹선형 보간(Bilinear Interpolation), 큐빅 보간(Cubic interpolation), 고차 보간(Higher Order Interpolation), 비-스플라인 보간(B-Spline Interpolation) 등이 있다.Interpolation is performed by a linear function or a polynomial regression analysis, Fourier series, spline, moving average, Kriging, etc., using values of known pixels. The interpolation method includes Nearest Neighbor Interpolation, Bilinear Interpolation, Cubic Interpolation, Higher Order Interpolation, and B-Spline Interpolation. have.

하지만, 전술한 방식을 사용하여 보간된 영상은 원 영상에 비해 화질이 열악하며, 영상의 확대 비율이 높아질수록 영상의 디테일을 알아보기 힘들어진다. 특히, 영상 중 에지에 해당하는 부분에 블러킹(blocking)이 발생하여, 종래의 보간 방식에 의하면 고품질의 영상을 기대하기 어렵다.However, the interpolated image using the above-described method has poor image quality as compared with the original image. As the enlargement ratio of the image increases, the detail of the image becomes difficult to understand. Particularly, blocking occurs at a portion corresponding to an edge of the image, and it is difficult to expect a high-quality image according to the conventional interpolation method.

본 발명의 일 실시예는, 원 영상에 비해 화질이 크게 저하되지 않는 영상을 얻기 위한 영상 보간 장치, 영상 보간 방법 및 이미지 처리 장치를 제공하는 것을 목적으로 한다.An object of the present invention is to provide an image interpolating apparatus, an image interpolating method, and an image processing apparatus for obtaining an image in which image quality is not greatly degraded as compared with an original image.

또한, 본 발명의 일 실시예는, 보간 후에도 영상의 에지 부분이 선명하게 복원되도록 하는 영상 보간 장치, 영상 보간 방법 및 이미지 처리 장치를 제공하는 것을 목적으로 한다.It is another object of the present invention to provide an image interpolating apparatus, an image interpolating method, and an image processing apparatus that allow an edge portion of an image to be clearly restored even after interpolation.

또한, 본 발명의 일 실시예는, 고화질의 영상을 얻으면서 보간에 필요한 연산량을 크게 증가시키지 않는 영상 보간 장치, 영상 보간 방법 및 이미지 처리 장치를 제공하는 것을 목적으로 한다.Another object of the present invention is to provide an image interpolating apparatus, an image interpolating method, and an image processing apparatus which do not greatly increase the amount of calculation required for interpolation while obtaining a high-quality image.

본 발명의 일 실시예에 따른 영상 보간 장치는, 이미지로부터 에지를 포함하는 에지 영역을 식별하는 에지 영역 식별부; 상기 에지 영역을 다수의 구역으로 분류하는 에지 영역 분류부; 그리고 상기 구역마다 상이한 방식으로 보간을 수행하는 보간부;를 포함할 수 있다.According to an aspect of the present invention, there is provided an image interpolation apparatus including: an edge region identification unit for identifying an edge region including an edge from an image; An edge region classifying unit classifying the edge region into a plurality of regions; And an interpolation section for performing interpolation in different ways for each of the zones.

상기 에지 영역 식별부는, 상기 이미지의 일 영역에 포함된 픽셀들의 픽셀값의 분산을 계산하여 상기 에지 영역을 식별할 수 있다.The edge region identification unit may identify the edge region by calculating a variance of pixel values of pixels included in one region of the image.

상기 에지 영역 식별부는: 상기 픽셀값의 분산이 기설정된 임계치보다 크면, 상기 일 영역을 에지 영역으로 결정하고, 상기 픽셀값의 분산이 상기 임계치보다 작거나 같으면, 상기 일 영역을 비-에지 영역으로 결정할 수 있다.Wherein the edge area identification unit determines the one area as an edge area if the variance of the pixel value is greater than a preset threshold value and if the variance of the pixel value is less than or equal to the threshold value, You can decide.

상기 영상 보간 장치는, 상기 에지 영역에 포함된 에지를 검출하여 에지 맵을 생성하는 에지 맵 생성부를 더 포함할 수 있다.The image interpolating apparatus may further include an edge map generating unit for detecting an edge included in the edge area and generating an edge map.

상기 에지 맵 생성부는: 상기 에지 영역에서 에지에 해당하는 제 1 픽셀을 검출하고, 상기 제 1 픽셀의 주위에 위치한 다수의 픽셀 중 에지에 해당하는 제 2 픽셀을 검출하고, 상기 제 1 픽셀과 상기 제 2 픽셀을 연결할 수 있다.Wherein the edge map generation unit comprises: an edge detection unit configured to detect a first pixel corresponding to an edge in the edge region, detect a second pixel corresponding to an edge of a plurality of pixels located around the first pixel, The second pixel can be connected.

상기 에지 영역 분류부는, 상기 에지 맵의 일 구역에 포함된 에지의 개수에 따라 상기 에지 영역을 분류할 수 있다.The edge region classifying unit may classify the edge regions according to the number of edges included in one region of the edge map.

상기 에지 영역 분류부는: 상기 일 구역에 포함된 에지의 개수가 기설정된 임계치보다 적거나 같으면, 상기 일 구역을 제 1 구역으로 결정하고, 상기 일 구역에 포함된 에지의 개수가 상기 임계치보다 많으면, 상기 일 구역을 제 2 구역으로 결정할 수 있다.Wherein the edge region classifier determines the first zone as a first zone if the number of edges included in the one zone is less than or equal to a preset threshold value and if the number of edges included in the one zone is greater than the threshold value, The one zone may be determined as the second zone.

상기 보간부는, 상기 제 1 구역에 포함된 픽셀을 보간하기 위해 상기 픽셀의 주위에 위치한 넷보다 많은 인접 픽셀을 사용할 수 있다.The interpolator may use more than four adjacent pixels located around the pixel to interpolate pixels contained in the first region.

상기 보간부는, 상기 제 1 구역에 포함된 픽셀을 둘러싸는 12 개의 인접 픽셀을 사용하여 상기 픽셀을 보간할 수 있다.The interpolator may interpolate the pixel using twelve adjacent pixels surrounding the pixels included in the first zone.

상기 보간부는, 상기 넷보다 많은 인접 픽셀 각각의 픽셀값에 가중치를 적용하고 합산하여 상기 픽셀의 픽셀값을 산출할 수 있다.The interpolator may calculate a pixel value of the pixel by applying a weight to pixel values of each of the plurality of adjacent pixels, and summing the weight values.

상기 가중치는, 위너 필터(Wiener filter)를 사용하여 산출될 수 있다.The weight can be calculated using a Wiener filter.

상기 가중치는, 상기 픽셀과 상기 인접 픽셀 간의 거리를 기반으로 산출될 수 있다.The weight may be calculated based on a distance between the pixel and the adjacent pixel.

상기 보간부는, 상기 제 2 구역에 포함된 픽셀을 보간하기 위해 상기 픽셀의 주위에 위치한 넷 이하의 인접 픽셀을 사용할 수 있다.The interpolator may use less than four adjacent pixels located around the pixel to interpolate the pixels contained in the second region.

상기 보간부는, 상기 이미지에서 에지를 포함하지 않는 비-에지 영역의 픽셀을 보간하기 위해 선형 보간 방식을 사용할 수 있다.The interpolator may use a linear interpolation scheme to interpolate pixels in the non-edge region that do not include an edge in the image.

본 발명의 일 실시예에 따른 영상 보간 방법은, 영상 보간 장치를 사용하여, 이미지에서 에지를 포함하는 영역에 대해 다수의 방식으로 보간을 수행할 수 있다.The image interpolation method according to an embodiment of the present invention can perform interpolation in a plurality of ways for an area including an edge in an image using an image interpolator.

상기 영상 보간 방법은: 상기 이미지로부터 에지 영역을 식별하는 단계; 상기 에지 영역을 다수의 구역으로 분류하는 단계; 그리고 상기 구역마다 상이한 방식으로 보간을 수행하는 단계;를 포함할 수 있다.The image interpolation method comprising: identifying an edge region from the image; Classifying the edge region into a plurality of regions; And performing interpolation in different ways for each of the zones.

상기 에지 영역을 식별하는 단계는: 상기 이미지로부터 기설정된 사이즈의 영역을 불러오는 단계; 상기 불러온 영역에 포함된 픽셀들의 픽셀값의 분산을 계산하는 단계; 그리고 상기 픽셀값의 분산이 기설정된 임계치보다 크면, 상기 불러온 영역을 에지 영역으로 결정하는 단계;를 포함할 수 있다.Identifying the edge region comprises: retrieving an area of predetermined size from the image; Calculating a variance of pixel values of pixels included in the loaded area; And determining the referred area as an edge area if the variance of the pixel value is greater than a predetermined threshold value.

상기 에지 영역을 다수의 구역으로 분류하는 단계는: 상기 에지 영역에 포함된 에지를 검출하여 에지 맵을 생성하는 단계; 상기 에지 맵으로부터 기설정된 사이즈의 구역을 불러오는 단계; 상기 불러온 구역에 포함된 에지의 개수를 산출하는 단계; 상기 에지의 개수가 기설정된 임계치보다 적거나 같으면, 상기 불러온 구역을 제 1 구역으로 결정하는 단계; 그리고 상기 에지의 개수가 기설정된 임계치보다 많으면, 상기 불러온 구역을 제 2 구역으로 결정하는 단계;를 포함할 수 있다.The step of classifying the edge region into a plurality of regions includes: generating an edge map by detecting an edge included in the edge region; Loading a zone of predetermined size from the edge map; Calculating the number of edges included in the loaded area; Determining the loaded zone as a first zone if the number of edges is less than or equal to a predetermined threshold; And determining the loaded area as the second zone if the number of edges is greater than a predetermined threshold value.

상기 보간을 수행하는 단계는: 상기 제 1 구역에 포함된 픽셀의 주위에 위치한 넷보다 많은 인접 픽셀을 사용하여 상기 픽셀을 보간하는 단계를 포함할 수 있다.Performing the interpolation may comprise: interpolating the pixel using more than four adjacent pixels located around the pixels included in the first zone.

상기 보간을 수행하는 단계는: 상기 제 2 구역에 포함된 픽셀의 주위에 위치한 넷 이하의 인접 픽셀을 사용하여 상기 픽셀을 보간하는 단계를 포함할 수 있다.Performing the interpolation may comprise: interpolating the pixel using less than four adjacent pixels located around the pixels included in the second region.

상기 보간을 수행하는 단계는: 상기 이미지에서 에지를 포함하지 않는 비-에지 영역의 픽셀을 선형 보간 방식으로 보간하는 단계를 포함할 수 있다.Performing the interpolation may comprise: interpolating the pixels of the non-edge region that do not include an edge in the image in a linear interpolation manner.

본 발명의 일 실시예에 따른 이미지 처리 장치는, 이미지를 수신하는 수신부; 수신된 이미지를 처리하는 처리부; 이미지 또는 이미지 처리에 사용되는 데이터를 저장하는 저장부; 그리고 처리된 이미지를 출력하는 출력부를 포함하며, 상기 처리부는: 상기 수신된 이미지로부터 에지를 포함하는 에지 영역을 식별하는 에지 영역 식별부; 상기 에지 영역에 포함된 에지를 검출하여 에지 맵을 생성하는 에지 맵 생성부; 상기 에지 맵을 사용하여 상기 에지 영역을 다수의 구역으로 분류하는 에지 영역 분류부; 그리고 상기 구역마다 상이한 방식으로 보간을 수행하는 보간부;를 포함할 수 있다.An image processing apparatus according to an embodiment of the present invention includes: a receiving unit for receiving an image; A processing unit for processing the received image; A storage unit for storing data used for image or image processing; And an output unit outputting the processed image, wherein the processing unit comprises: an edge area identification unit for identifying an edge area including an edge from the received image; An edge map generation unit for generating an edge map by detecting an edge included in the edge region; An edge region classifying unit classifying the edge region into a plurality of regions using the edge map; And an interpolation section for performing interpolation in different ways for each of the zones.

상기 에지 영역 분류부는: 상기 에지 영역의 일 구역에 포함된 에지의 개수가 기설정된 임계치보다 적거나 같으면, 해당 구역을 제 1 구역으로 결정하고, 상기 에지 영역의 일 구역에 포함된 에지의 개수가 상기 임계치보다 많으면, 해당 구역을 제 2 구역으로 결정할 수 있다.The edge region classifying section may determine that the first zone is a first zone if the number of edges included in one zone of the edge zone is less than or equal to a preset threshold value and if the number of edges included in one zone of the edge zone is If it is larger than the threshold value, the zone can be determined as the second zone.

상기 보간부는: 상기 제 1 구역에 포함된 픽셀에 대하여, 해당 픽셀의 주위에 위치한 넷보다 많은 인접 픽셀을 사용하여 보간을 수행하고, 상기 제 2 구역에 포함된 픽셀에 대하여, 해당 픽셀의 주위에 위치한 넷 이하의 인접 픽셀을 사용하여 보간을 수행하고, 상기 수신된 이미지에서 에지를 포함하지 않는 비-에지 영역의 픽셀에 대하여, 선형 보간 방식으로 보간을 수행할 수 있다.Wherein the interpolator performs interpolation using more than four adjacent pixels located around the pixel for the pixels included in the first zone and for interpolating pixels included in the second zone around the pixel An interpolation can be performed using a linear interpolation method for pixels in a non-edge area that does not include edges in the received image.

본 발명의 일 실시예에 따른 영상 보간 방법은, 컴퓨터에서 실행될 수 있는 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 기록 매체에 기록될 수 있다.The image interpolation method according to an embodiment of the present invention may be implemented as a program that can be executed in a computer and recorded in a computer-readable recording medium.

본 발명의 일 실시예에 따르면, 보간 후에도 원 영상에 비해 화질이 크게 저하되지 않는 영상을 얻을 수 있다.According to an embodiment of the present invention, even after the interpolation, an image in which the image quality is not significantly degraded as compared with the original image can be obtained.

또한, 본 발명의 일 실시예에 따르면, 보간 후에도 영상의 에지 부분이 선명하게 복원될 수 있다.Also, according to an embodiment of the present invention, an edge portion of an image can be vividly reconstructed even after interpolation.

또한, 본 발명의 일 실시예에 따르면, 보간에 필요한 연산량을 크게 증가시키지 않으면서 고화질의 영상을 얻을 수 있다.According to an embodiment of the present invention, a high-quality image can be obtained without greatly increasing the amount of calculation required for interpolation.

도 1은 본 발명의 일 실시예에 따른 영상 보간 장치를 나타내는 블록도이다.
도 2는 본 발명의 일 실시예에 따라 보간이 수행될 이미지의 일 예를 나타낸다.
도 3은 본 발명의 일 실시예에 따라 에지 영역과 비-에지 영역이 구분된 이미지의 일 예를 나타낸다.
도 4는 본 발명의 일 실시예에 따라 에지 영역이 다수의 구역으로 구분된 이미지의 일 예를 나타낸다.
도 5는 본 발명의 일 실시예에 따라 에지 맵을 생성하는 과정을 설명하는 도면이다.
도 6 및 도 7은 본 발명의 일 실시예에 따라 에지 영역을 분류하는 과정을 설명하는 도면이다.
도 8은 본 발명의 일 실시예에 따라 에지 영역에 포함된 픽셀을 보간하는 과정을 설명하는 도면이다.
도 9 내지 도 13은 본 발명의 다른 실시예에 따라 에지 영역에 포함된 픽셀을 보간하는 과정을 설명하는 도면이다.
도 14는 본 발명의 일 실시예에 따른 영상 보간 방법을 설명하는 흐름도이다.
도 15는 본 발명의 일 실시예에 따라 이미지로부터 에지 영역을 식별하는 단계를 설명하는 흐름도이다.
도 16은 본 발명의 일 실시예에 따라 에지 영역을 다수의 구역으로 분류하는 단계를 설명하는 흐름도이다.
도 17은 본 발명의 일 실시예에 따른 이미지 처리 장치를 나타내는 블록도이다.
1 is a block diagram illustrating an image interpolation apparatus according to an embodiment of the present invention.
2 shows an example of an image to be interpolated according to an embodiment of the present invention.
FIG. 3 illustrates an example of an image in which an edge region and a non-edge region are separated according to an embodiment of the present invention.
FIG. 4 illustrates an example of an image in which an edge region is divided into a plurality of regions according to an embodiment of the present invention.
5 is a diagram illustrating a process of generating an edge map according to an embodiment of the present invention.
FIGS. 6 and 7 illustrate a process of classifying edge regions according to an embodiment of the present invention.
8 is a diagram illustrating a process of interpolating pixels included in an edge region according to an embodiment of the present invention.
9 to 13 are diagrams illustrating a process of interpolating pixels included in an edge region according to another embodiment of the present invention.
FIG. 14 is a flowchart illustrating an image interpolation method according to an embodiment of the present invention.
15 is a flowchart illustrating steps for identifying an edge region from an image in accordance with an embodiment of the present invention.
16 is a flow chart illustrating the step of classifying an edge region into a plurality of regions according to an embodiment of the present invention.
17 is a block diagram showing an image processing apparatus according to an embodiment of the present invention.

본 발명의 다른 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되는 실시 예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예는 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Other advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims.

만일 정의되지 않더라도, 여기서 사용되는 모든 용어들(기술 혹은 과학 용어들을 포함)은 이 발명이 속한 종래 기술에서 보편적 기술에 의해 일반적으로 수용되는 것과 동일한 의미를 가진다. 일반적인 사전들에 의해 정의된 용어들은 관련된 기술 그리고/혹은 본 출원의 본문에 의미하는 것과 동일한 의미를 갖는 것으로 해석될 수 있고, 그리고 여기서 명확하게 정의된 표현이 아니더라도 개념화되거나 혹은 과도하게 형식적으로 해석되지 않을 것이다.Unless defined otherwise, all terms (including technical or scientific terms) used herein have the same meaning as commonly accepted by the generic art in the prior art to which this invention belongs. Terms defined by generic dictionaries may be interpreted to have the same meaning as in the related art and / or in the text of this application, and may be conceptualized or overly formalized, even if not expressly defined herein I will not.

본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다' 및/또는 이 동사의 다양한 활용형들 예를 들어, '포함', '포함하는', '포함하고', '포함하며' 등은 언급된 조성, 성분, 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 조성, 성분, 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. 본 명세서에서 '및/또는' 이라는 용어는 나열된 구성들 각각 또는 이들의 다양한 조합을 가리킨다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. As used herein, the terms' comprise 'and / or various forms of use of the verb include, for example,' including, '' including, '' including, '' including, Steps, operations, and / or elements do not preclude the presence or addition of one or more other compositions, components, components, steps, operations, and / or components. The term 'and / or' as used herein refers to each of the listed configurations or various combinations thereof.

한편, 본 명세서 전체에서 사용되는 '~부', '~기', '~블록', '~모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미할 수 있다. 그렇지만 '~부', '~기', '~블록', '~모듈' 등이 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부', '~기', '~블록', '~모듈'은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.It should be noted that the terms such as '~', '~ period', '~ block', 'module', etc. used in the entire specification may mean a unit for processing at least one function or operation. For example, a hardware component, such as a software, FPGA, or ASIC. However, '~ part', '~ period', '~ block', '~ module' are not meant to be limited to software or hardware. Modules may be configured to be addressable storage media and may be configured to play one or more processors. ≪ RTI ID = 0.0 >

따라서, 일 예로서 '~부', '~기', '~블록', '~모듈'은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부', '~기', '~블록', '~모듈'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부', '~기', '~블록', '~모듈'들로 결합되거나 추가적인 구성요소들과 '~부', '~기', '~블록', '~모듈'들로 더 분리될 수 있다.Thus, by way of example, the terms 'to', 'to', 'to block', 'to module' refer to components such as software components, object oriented software components, class components and task components Microcode, circuitry, data, databases, data structures, tables, arrays, and the like, as well as components, Variables. The functions provided in the components and in the sections ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ ' , '~', '~', '~', '~', And '~' modules with additional components.

이하, 본 명세서에 첨부된 도면을 참조하여 본 발명의 실시예를 상세하게 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings attached hereto.

본 발명의 일 실시예에 따른 영상 보간 장치는, 이미지에서 에지를 포함하는 에지 영역에 대해 다수의 방식으로 보간을 수행할 수 있다. 다시 말해, 본 발명의 일 실시예에 따른 영상 보간 장치는, 이미지의 에지 영역을 다수의 구역으로 분류하고, 각각의 구역에 대해 보간 방식을 선택적으로 적용할 수 있다.An image interpolation apparatus according to an exemplary embodiment of the present invention may perform interpolation in a plurality of ways with respect to an edge region including an edge in an image. In other words, the image interpolation apparatus according to an embodiment of the present invention can classify the edge region of the image into a plurality of regions, and selectively apply an interpolation method to each region.

도 1은 본 발명의 일 실시예에 따른 영상 보간 장치를 나타내는 블록도이다. 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 영상 보간 장치(100)는 에지 영역 식별부(11), 에지 영역 분류부(13) 및 보간부(14)를 포함할 수 있다. 상기 에지 영역 식별부(11)는, 이미지로부터 에지를 포함하는 에지 영역을 식별할 수 있다. 상기 에지 영역 분류부(13)는, 상기 에지 영역을 다수의 구역으로 분류할 수 있다. 상기 보간부(14)는 상기 구역마다 상이한 방식으로 보간을 수행할 수 있다.1 is a block diagram illustrating an image interpolation apparatus according to an embodiment of the present invention. 1, an image interpolation apparatus 100 according to an embodiment of the present invention may include an edge region identification unit 11, an edge region classification unit 13, and an interpolation unit 14. The edge region identification section 11 can identify an edge region including an edge from the image. The edge region classifying unit 13 may classify the edge region into a plurality of regions. The interpolator 14 may perform interpolation in different ways for each of the zones.

상기 에지 영역 식별부(11)는, 보간될 이미지로부터 에지를 포함하는 에지 영역과 에지를 포함하지 않는 비-에지 영역을 식별하여 구분할 수 있다. 도 2는 본 발명의 일 실시예에 따라 보간이 수행될 이미지의 일 예를 나타낸다.The edge region identification unit 11 can identify and distinguish an edge region including an edge and a non-edge region including no edge from an image to be interpolated. 2 shows an example of an image to be interpolated according to an embodiment of the present invention.

도 2를 참조하면, 상기 이미지(20)는 풀밭(21) 위에 집(22)이 있는 모습을 나타낸다. 풀밭(21)에는 풀들이 빽빽하게 자라 있으며, 상기 이미지(20)는 풀들이 자라있는 풀밭(21)의 모습을 디테일하게 표현하고 있다.Referring to FIG. 2, the image 20 shows a house 22 on a meadow 21. The grasses (21) are dense with grasses, and the image (20) details the appearance of the grasses (21) where the grasses grow.

본 발명의 일 실시예에 따르면, 상기 에지 영역 식별부(11)는 상기 이미지(20)로부터 에지를 포함하는 에지 영역을 식별할 수 있다. 예를 들어, 도 3에 도시된 바와 같이, 상기 에지 영역 식별부(11)는 이미지(20)에서 에지를 포함하는 에지 영역(201)을 식별할 수 있다. 상기 이미지(20)에서 에지 영역(201)을 제외한 나머지 영역은 에지를 포함하지 않는 비-에지 영역(202, 203, 204, 205)이다. 다시 말해, 상기 이미지(20)에서 하늘, 집 지붕, 벽 및 문은 에지가 없이 색상으로만 표현된다.According to an embodiment of the present invention, the edge region identification unit 11 may identify an edge region including an edge from the image 20. [ For example, as shown in FIG. 3, the edge region identification section 11 can identify an edge region 201 that includes an edge in the image 20. FIG. In the image 20, the remaining area excluding the edge area 201 is a non-edge area 202, 203, 204, or 205 that does not include an edge. In other words, in the image (20), sky, house roof, walls and doors are expressed in color only, without edges.

본 발명의 일 실시예에 따르면, 상기 에지 영역 식별부(11)는 이미지(20)의 일 영역에 포함된 픽셀들의 픽셀값의 분산(variances)을 계산하여 에지 영역(201)을 식별할 수 있다. 일 실시예에 따르면, 상기 에지 영역 식별부(11)는, 이미지(20)의 일 영역에 포함된 픽셀들이 픽셀값의 분산이 기설정된 임계치보다 크면, 해당 영역을 에지 영역으로 결정할 수 있다. 반대로, 상기 에지 영역 식별부(11)는, 이미지(20)의 일 영역에 포함된 픽셀들의 픽셀값의 분산이 상기 임계치보다 작거나 같으면, 해당 영역을 비-에지 영역으로 결정할 수 있다.According to an embodiment of the present invention, the edge region identification unit 11 may identify the edge region 201 by calculating variances of pixel values of pixels included in one region of the image 20 . According to an exemplary embodiment, the edge region identification unit 11 may determine a region included in one region of the image 20 as an edge region if the variance of pixel values is greater than a preset threshold value. In contrast, if the variance of pixel values of pixels included in one area of the image 20 is less than or equal to the threshold value, the edge area identification unit 11 may determine the area as a non-edge area.

에지 영역(201)을 식별하기 위해 분산이 계산되는 이미지의 일 영역은 사이즈가 4 X 4일 수 있으나, 이에 제한되지 않고 그보다 작거나 큰 사이즈의 영역에 대해 분산이 계산될 수 있다.One region of the image for which the variance is calculated to identify the edge region 201 may be 4 x 4 in size, but is not so limited and the variance can be calculated for regions of smaller or larger size.

소정 영역에서 픽셀값의 분산이 기설정된 임계치보다 크면, 픽셀들 간에 픽셀값의 차가 크다고 생각할 수 있으므로, 해당 영역은 에지를 포함하는 에지 영역(201)으로 분류될 수 있다. 반대로, 소정 영역에서 픽셀값의 분산이 임계치 이하이면, 픽셀들의 픽셀값이 상기 영역에 걸쳐 고르게 분포한다고 생각할 수 있으므로, 해당 영역은 에지를 포함하지 않는 비-에지 영역으로 분류될 수 있다.If the variance of pixel values in a given region is larger than a preset threshold value, it may be considered that the difference in pixel value between the pixels is large, so that the region may be classified into the edge region 201 including the edge. Conversely, if the variance of pixel values in a given region is below a threshold, it can be assumed that the pixel values of the pixels are evenly distributed over the region, so that region can be classified as a non-edge region that does not include an edge.

상기 에지 영역 분류부(13)는 에지 영역(201)을 다수의 구역으로 분류할 수 있다. 도 4는 본 발명의 일 실시예에 따라 상기 에지 영역(201)이 두 개의 구역(201a, 201b)으로 구분된 이미지(20)의 일 예를 나타낸다. 도 4에 도시된 바와 같이, 상기 에지 영역(201)은 이미지의 주요 윤곽에 기여하는 주 에지를 포함하는 주 구역(201a)과, 이미지의 디테일에 기여하는 부 에지를 포함하는 부 구역(201b)으로 분류될 수 있다. 도 4에 도시된 바와 같이, 상기 에지 영역 분류부(13)는 에지 영역(201)을 두 개의 구역으로 분류할 수 있으나, 분류되는 구역의 개수는 이에 제한되지 않고 셋 또는 그 이상이 될 수도 있다.The edge region classifying unit 13 may classify the edge region 201 into a plurality of regions. FIG. 4 shows an example of an image 20 in which the edge region 201 is divided into two regions 201a and 201b according to an embodiment of the present invention. 4, the edge region 201 includes a main zone 201a that includes a main edge that contributes to the main contour of the image, and a minor zone 201b that includes a minor edge that contributes to the detail of the image. . ≪ / RTI > As shown in FIG. 4, the edge region classification unit 13 may classify the edge region 201 into two regions, but the number of the regions to be classified is not limited thereto and may be three or more .

본 발명의 일 실시예에 따르면, 상기 에지 영역 분류부(13)는 상기 에지 영역(201)의 일 구역에 포함된 에지의 개수에 따라 에지 영역을 분류할 수 있다. 일 실시예에 따르면, 상기 에지 영역 분류부(13)는, 에지 영역(201)의 일 구역에 포함된 에지의 개수가 기설정된 임계치보다 적거나 같으면, 해당 구역을 제 1 구역, 즉 주 구역(201a)으로 결정할 수 있다. 반대로, 상기 에지 영역 분류부(13)는, 에지 영역(201)의 일 구역에 포함된 에지의 개수가 상기 임계치보다 많으면, 해당 구역을 제 2 구역, 즉 부 구역(201b)으로 결정할 수 있다. According to an embodiment of the present invention, the edge region classifying unit 13 may classify edge regions according to the number of edges included in one region of the edge region 201. According to one embodiment, when the number of edges included in one region of the edge region 201 is less than or equal to a predetermined threshold value, the edge region classification unit 13 divides the region into the first region, that is, the main region 201a). Conversely, if the number of edges included in one region of the edge region 201 is greater than the threshold value, the edge region classification unit 13 may determine the region as the second region, that is, the sub region 201b.

에지 영역(201)에서 일정한 사이즈의 구역 내에 에지가 많이 포함되어 있을수록, 그 에지는 길이가 짧은 에지일 수 있으며, 이러한 짧은 에지는 이미지(20)의 디테일에 기여하는 부수적인 에지일 가능성이 크다. 또한, 에지 영역(201)에서 일정한 사이즈의 구역 내에 에지가 적게 포함되어 있을수록, 그 에지는 길이가 긴 에지일 수 있으며, 이러한 긴 에지는 이미지(20)의 주요 윤곽에 기여하는 메인 에지일 가능성이 크다. 따라서, 본 발명의 일 실시예는, 에지 영역(201)을 다수의 구역으로 나누고, 각각의 구역에 포함된 에지의 개수를 카운팅하여, 에지의 개수가 임계치 이하이면 해당 구역을 주 구역(201a)으로 분류하고, 에지의 개수가 임계치보다 많으면 해당 구역을 부 구역(201b)으로 분류할 수 있다.The more edges the edge region 201 contains in a region of constant size, the shorter the edge may be, which is likely to be a minor edge contributing to the detail of the image 20 . Also, the less edge the edge region 201 contains in a region of constant size, the longer edge may be the longer edge, which may be the main edge contributing to the main contour of the image 20 This is big. Thus, one embodiment of the present invention is to divide the edge region 201 into a plurality of regions, count the number of edges included in each region, and if the number of edges is less than the threshold, , And if the number of edges is larger than the threshold value, the zone can be classified as the sub-zone 201b.

다시 도 1을 참조하면, 본 발명의 일 실시예에 따른 영상 보간 장치(100)는 에지 영역(201)에 포함된 에지를 검출하여 에지 맵을 생성하는 에지 맵 생성부(12)를 더 포함할 수 있다. 상기 에지 맵 생성부(12)는, 에지 영역(201)에서 에지에 해당하는 픽셀에 1을 할당하고, 에지에 해당하지 않는 픽셀에 0을 할당하여, 에지 영역(201) 내 에지의 분포를 나타낼 수 있는 에지 맵을 생성할 수 있다.1, the image interpolation apparatus 100 according to an embodiment of the present invention further includes an edge map generation unit 12 for detecting an edge included in the edge region 201 and generating an edge map . The edge map generation unit 12 assigns 1 to pixels corresponding to edges in the edge region 201 and 0 to pixels not corresponding to edges to indicate the distribution of edges in the edge region 201 The edge map can be generated.

도 5는 본 발명의 일 실시예에 따라 에지 맵을 생성하는 과정을 설명하는 도면이다. 본 발명의 일 실시예에 따르면, 상기 에지 맵 생성부(12)는 에지 영역(201)에서 에지에 해당하는 제 1 픽셀을 검출하고, 상기 제 1 픽셀의 주위에 위치한 다수의 픽셀 중 에지에 해당하는 제 2 픽셀을 검출하고, 상기 제 1 픽셀과 상기 제 2 픽셀을 연결할 수 있다. 5 is a diagram illustrating a process of generating an edge map according to an embodiment of the present invention. According to an embodiment of the present invention, the edge map generation unit 12 detects a first pixel corresponding to an edge in the edge area 201, and detects an edge of a plurality of pixels located around the first pixel , And may connect the first pixel and the second pixel.

예를 들어, 도 5에 도시된 바와 같이, 상기 에지 맵 생성부(12)는, 에지 영역(201)에서 에지에 해당하는 제 1 픽셀(31)을 검출할 수 있다. 그리고 나서, 상기 에지 맵 생성부(12)는 상기 제 1 픽셀(31)을 시작점으로 하여, 제 1 픽셀(31)의 주위에 위치한 8 개의 픽셀 중 에지에 해당하는 제 2 픽셀을 검출할 수 있다. 도 5를 참조하면, 제 1 픽셀(31)의 우측에 위치한 픽셀(32)이 에지에 해당한다. 상기 에지 맵 생성부(12)는 시작점에 해당하는 제 1 픽셀(31)과 그 주위에 위치한 제 2 픽셀(32)을 연결하여 에지에 해당하는 픽셀들을 서로 연결할 수 있다.For example, as shown in FIG. 5, the edge map generation unit 12 may detect a first pixel 31 corresponding to an edge in the edge region 201. The edge map generator 12 may then detect the second pixel corresponding to the edge of the eight pixels located around the first pixel 31 with the first pixel 31 as a starting point . Referring to FIG. 5, a pixel 32 located to the right of the first pixel 31 corresponds to an edge. The edge map generator 12 may connect the pixels corresponding to the edges by connecting the first pixel 31 corresponding to the starting point and the second pixel 32 positioned around the first pixel 31. [

그리고 나서, 상기 에지 맵 생성부(12)는 제 2 픽셀(32)의 주위에 위치한 픽셀들 중 에지에 해당하는 또 다른 픽셀을 검출할 수 있다. 도 5를 참조하면, 제 2 픽셀(32)의 우측에 위치한 픽셀(33)이 에지에 해당한다. 상기 에지 맵 생성부(12)는 상기 제 2 픽셀(32)과 그 다음 에지 픽셀인 제 3 픽셀(33)을 연결할 수 있다.Then, the edge map generating unit 12 may detect another pixel corresponding to the edge among the pixels located around the second pixel 32. [0050] Referring to FIG. 5, a pixel 33 located to the right of the second pixel 32 corresponds to an edge. The edge map generating unit 12 may connect the second pixel 32 with a third pixel 33 which is an edge pixel.

상기 에지 맵 생성부(12)는 에지 픽셀 주위에서 더 이상 새로운 에지 픽셀이 검출되지 않을 때까지 전술한 과정을 반복할 수 있다. 그 결과, 도 5에 도시된 에지 영역(201)에서는 제 5 픽셀(35)을 끝으로 에지 1의 검출이 완료된다.The edge map generating unit 12 may repeat the process described above until no new edge pixels are detected around the edge pixels. As a result, in the edge region 201 shown in Fig. 5, the detection of the edge 1 is completed after the fifth pixel 35 is completed.

그리고 나서, 상기 에지 맵 생성부(12)는 에지 영역(201)에서 또 다른 에지에 해당하는 픽셀을 검출하고, 상기 픽셀을 시작점으로 그 주위에 위치한 에지 픽셀을 검출하여 이들을 연결하는 과정을 반복할 수 있다. 예를 들어, 도 5에 도시된 에지 영역(201)에서, 상기 에지 맵 생성부(12)는 또 다른 에지인 에지 2에 해당하는 제 1 픽셀(36)을 검출하고, 상기 제 1 픽셀(36)의 주위에 위치한 8 개의 픽셀 중 에지에 해당하는 제 2 픽셀(37)을 검출할 수 있다. 상기 에지 맵 생성부(12)는 상기 제 1 픽셀(36)과 상기 제 2 픽셀(37)을 연결하여 에지 픽셀들을 서로 연결할 수 있다. 전술한 과정을 반복함으로써, 상기 에지 맵 생성부(12)는 제 4 픽셀(39)을 끝으로 에지 2의 검출을 완료할 수 있다. 이와 같이, 상기 에지 맵 생성부(12)는 에지 영역(201)에 대하여 에지에 해당하는 픽셀을 검출하고 이들을 서로 연결하여, 에지 영역 내 에지의 분포, 길이 및 개수에 대한 정보를 나타내는 에지 맵을 생성할 수 있다.Then, the edge map generation unit 12 detects a pixel corresponding to another edge in the edge region 201, detects an edge pixel located around the edge of the pixel as a starting point, and repeats the process of connecting them . For example, in the edge region 201 shown in Fig. 5, the edge map generation section 12 detects a first pixel 36 corresponding to another edge 2, and the first pixel 36 The second pixel 37 corresponding to the edge of the eight pixels positioned around the edge of the second pixel 37 is detected. The edge map generating unit 12 may connect the first pixels 36 and the second pixels 37 to connect the edge pixels. By repeating the above-described process, the edge map generating unit 12 can complete the detection of the edge 2 at the end of the fourth pixel 39. As described above, the edge map generation unit 12 detects pixels corresponding to the edges with respect to the edge region 201 and connects them to each other to generate an edge map indicating information on the distribution, length, and number of edges in the edge region Can be generated.

본 발명의 일 실시예에 따르면, 상기 에지 영역 분류부(13)는 상기 에지 맵을 사용하여 에지 영역(201)을 다수의 구역으로 분류할 수 있다. 일 실시예에 따르면, 상기 에지 영역 분류부(13)는, 상기 에지 맵의 일 구역에 포함된 에지의 개수가 기설정된 임계치보다 적거나 같으면, 해당 구역을 제 1 구역, 즉 주 구역(201a)으로 결정할 수 있다. 반대로, 상기 에지 영역 분류부(13)는, 상기 에지 맵의 일 구역에 포함된 에지의 개수가 상기 임계치보다 많으면, 해당 구역을 제 2 구역, 즉 부 구역(201b)으로 결정할 수 있다. According to an embodiment of the present invention, the edge region classifying unit 13 may classify the edge region 201 into a plurality of regions using the edge map. According to one embodiment, if the number of edges included in one section of the edge map is less than or equal to a predetermined threshold value, the edge region classifying section 13 divides the zone into the first zone, that is, the main zone 201a, . Conversely, if the number of edges included in one section of the edge map is larger than the threshold value, the edge region classifying section 13 may determine the section as a second section, that is, a sub-section 201b.

에지 영역(201)을 분류하기 위해 에지의 개수가 카운팅되는 일 구역의 사이즈는 15 X 15일 수 있으나, 구역의 사이즈는 이에 제한되지 않고 그보다 작거나 큰 사이즈의 구역에 대해 에지의 개수가 카운팅될 수 있다.The size of one zone where the number of edges is counted to classify the edge zone 201 may be 15 X 15, but the size of the zone is not limited thereto, and the number of edges may be counted for a zone of size smaller or larger .

도 6 및 도 7은 본 발명의 일 실시예에 따라 에지 영역(201)을 다수의 구역으로 분류하는 과정을 설명하는 도면이다. 도 6 및 도 7에 도시된 바와 같이, 상기 에지 영역 분류부(13)는 에지 맵으로부터 기설정된 사이즈(예컨대, 15 X 15)의 구역을 불러오고, 해당 구역에 포함된 에지의 개수를 카운팅할 수 있다. 도 6에 도시된 구역은 총 두 개의 에지(41, 42)를 포함하며, 도 7에 도시된 구역은 총 6 개의 에지(43 내지 48)를 포함하고 있다.FIGS. 6 and 7 are diagrams for explaining a process of classifying an edge region 201 into a plurality of regions according to an embodiment of the present invention. As shown in FIGS. 6 and 7, the edge region classifying section 13 retrieves a region of a predetermined size (for example, 15 X 15) from the edge map and counts the number of edges included in the region . The area shown in Fig. 6 includes a total of two edges 41, 42, and the area shown in Fig. 7 includes a total of six edges 43-48.

상기 에지 영역 분류부(13)는 불러온 구역에 포함된 에지의 개수를 카운팅하고, 에지의 개수와 임계치를 비교하여 해당 구역을 분류할 수 있다. 일 실시예에 따르면, 상기 임계치는 1 내지 5 중 어느 하나로 설정될 수 있으나, 이에 제한되지 않고 보간될 이미지에 따라 5보다 크게 설정될 수도 있다. 도 6 및 도 7에 도시된 실시예에서는 임계치가 2로 설정되어 있다고 가정한다.The edge area classifying unit 13 may count the number of edges included in the loaded area and compare the number of edges with a threshold value to classify the corresponding area. According to one embodiment, the threshold may be set to any one of 1 to 5, but is not limited thereto and may be set to be larger than 5 according to an image to be interpolated. In the embodiment shown in Figs. 6 and 7, it is assumed that the threshold value is set to 2.

도 6에 도시된 구역은 임계치와 같은 개수인 두 개의 에지(41, 42)를 포함하므로, 상기 에지 영역 분류부(13)는 해당 구역을 제 1 구역으로 결정할 수 있다. 도 7에 도시된 구역은 임계치보다 많은 개수인 여섯 개의 에지(43 내지 48)를 포함하므로, 상기 에지 영역 분류부(13)는 해당 구역을 제 2 구역으로 결정할 수 있다.Since the area shown in FIG. 6 includes two edges 41 and 42 of the same number as the threshold value, the edge area classification unit 13 can determine the area as the first area. Since the zone shown in Fig. 7 includes six edges (43 to 48) having a number larger than the threshold value, the edge zone classification unit 13 can determine the zone as the second zone.

본 발명의 다른 실시예에 따르면, 상기 에지 영역 분류부(13)는 에지 맵의 일 구역에 포함된 에지의 개수 대신, 에지의 길이를 기반으로 에지 영역을 분류할 수 있다. 예를 들어, 본 발명의 다른 실시예에 따르면, 상기 에지 영역 분류부(13)는, 상기 에지 맵의 일 구역에 포함된 에지 중 가장 긴 에지의 길이가 기설정된 임계치보다 길면, 해당 구역을 제 1 구역(201a)으로 결정할 수 있다. 또한, 상기 에지 영역 분류부(13)는, 상기 에지 맵의 일 구역에 포함된 에지 중 가장 긴 에지의 길이가 상기 임계치보다 짧거나 같으면, 해당 구역을 제 2 구역(201b)으로 결정할 수 있다.According to another embodiment of the present invention, the edge region classifying unit 13 may classify the edge region based on the length of the edge, instead of the number of edges included in one region of the edge map. For example, according to another embodiment of the present invention, if the length of the longest edge among the edges included in one section of the edge map is longer than a preset threshold value, 1 zone 201a. If the edge length of the edge included in one segment of the edge map is shorter than or equal to the threshold value, the edge region classifying unit 13 may determine the zone as the second zone 201b.

본 발명의 또 다른 실시예에 따르면, 상기 에지 영역 분류부(13)는 에지 맵의 일 구역에 포함된 에지의 전체 길이를 기반으로 에지 영역을 분류할 수도 있다. 예를 들어, 본 발명의 또 다른 실시예에 따르면, 상기 에지 영역 분류부(13)는, 에지 맵의 일 구역에 포함된 에지의 길이를 합산하고, 합산된 길이가 기설정된 임계치보다 길면 해당 구역을 제 1 구역(201a)으로 결정하고, 합산된 길이가 상기 임계치보다 짧거나 같으면 해당 구역을 제 2 구역(201b)으로 결정할 수 있다.According to another embodiment of the present invention, the edge region classifying section 13 may classify the edge region based on the entire length of edges included in one region of the edge map. For example, according to another embodiment of the present invention, the edge region classifying section 13 sums the lengths of edges included in one region of the edge map, and if the summed length is longer than the predetermined threshold value, May be determined as the first zone 201a, and if the summed length is shorter than or equal to the threshold value, the zone may be determined as the second zone 201b.

상기 보간부(14)는 상기 에지 영역 분류부(13)가 분류한 구역마다 상이한 방식으로 보간을 수행할 수 있다. 본 발명의 일 실시예에 따르면, 상기 보간부(14)는 에지 영역(201) 중 제 1 구역(201a)에 포함된 픽셀을 보간하기 위해, 해당 픽셀의 주위에 위치한 넷보다 많은 인접 픽셀을 사용할 수 있다. The interpolator 14 may perform interpolation in different ways for each of the areas classified by the edge area classifier 13. [ According to one embodiment of the present invention, the interpolating unit 14 uses more than four adjacent pixels located around the pixel to interpolate the pixels included in the first region 201a of the edge region 201 .

도 8은 본 발명의 일 실시예에 따라 제 1 구역(201a)에 포함된 픽셀을 보간하는 과정을 설명하는 도면이다. 도 8에 도시된 바와 같이, 본 발명의 일 실시예에 따르면, 상기 보간부(14)는 제 1 구역(201a)에 포함된 픽셀(50)을 보간하기 위해, 상기 픽셀(50)을 둘러싸는 12 개의 인접 픽셀(501 내지 512)을 사용할 수 있다. 다시 말해, 상기 보간부(14)는 제 1 구역(201a)에 포함된 픽셀(50)을 보간하기 위해, 해당 픽셀을 중심으로 12 방향에 위치한 픽셀들의 픽셀값을 참조할 수 있다.FIG. 8 is a diagram illustrating a process of interpolating pixels included in the first region 201a according to an embodiment of the present invention. 8, in accordance with an embodiment of the present invention, the interpolator 14 includes a plurality of pixels 50, which are arranged in a matrix, for interpolating the pixels 50 contained in the first zone 201a, Twelve adjacent pixels 501 to 512 may be used. In other words, the interpolator 14 may refer to the pixel values of the pixels located in the 12-direction around the pixel in order to interpolate the pixel 50 included in the first area 201a.

본 발명의 일 실시예에 따르면, 상기 보간부(14)는 상기 인접 픽셀(501 내지 512) 각각의 픽셀값에 가중치를 적용하고 합산하여, 상기 픽셀(50)의 픽셀값을 산출할 수 있다. 예를 들어, 상기 보간부(14)는 아래와 같은 수학식을 사용하여 픽셀(50)을 보간할 수 있다:According to an embodiment of the present invention, the interpolator 14 may calculate the pixel values of the pixels 50 by applying weights to the pixel values of the adjacent pixels 501 to 512 and summing them. For example, the interpolator 14 may interpolate the pixel 50 using the following equation:

Figure 112012088175916-pat00001
Figure 112012088175916-pat00001

여기서 α는 픽셀값에 적용되는 가중치이며, α0, 3, 12, 15는 0이다. Where α is the weight applied to the pixel value, and α 0, 3, 12, and 15 are zero.

본 발명의 일 실시예에 따르면, 상기 가중치 α는 위너 필터(Wiener filter) 이론을 사용하여 산출될 수 있다. 예를 들어, 상기 가중치 α는 아래와 같은 수학식을 사용하여 산출될 수 있다:According to an embodiment of the present invention, the weight a may be calculated using a Wiener filter theory. For example, the weight alpha can be calculated using the following equation: < RTI ID = 0.0 >

Figure 112012088175916-pat00002
Figure 112012088175916-pat00002

여기서, R은 보간이 수행될 이미지에서 기설정된 사이즈를 갖는 영역에 포함된 픽셀들의 auto covariance 행렬을 나타내며,

Figure 112012088175916-pat00003
은 기설정된 사이즈를 갖는 영역에 포함된 픽셀들의 cross covariance 행렬을 나타낸다. 본 발명의 일 실시예에 따르면, 상기 가중치 α를 계산하기 위해 R 및
Figure 112012088175916-pat00004
가 계산되는 영역의 사이즈는, 상기 에지 영역 분류부(13)에 의해 에지의 개수가 카운팅되는 구역의 사이즈와 동일할 수 있다.Here, R represents an auto covariance matrix of pixels included in an area having a predetermined size in an image to be interpolated,
Figure 112012088175916-pat00003
Represents a cross covariance matrix of pixels included in a region having a predetermined size. According to an embodiment of the present invention, R and < RTI ID = 0.0 >
Figure 112012088175916-pat00004
May be the same as the size of the region where the number of edges is counted by the edge region classifying unit 13. [

상기 가중치 α의 계산 시, 픽셀(50)의 픽셀값인 Y2i +1, 2j+1에 대한 정보가 없으므로, R 및

Figure 112012088175916-pat00005
는 고해상도의 이미지에서 계산할 수 없다. 하지만, 통계적으로 보간 후의 고해상도 이미지는 보간 전의 저해상도 이미지와 기하학적으로 동일성(geometric duality)을 가지므로, 상기 가중치 α를 계산하기 위해 필요한 R 및
Figure 112012088175916-pat00006
는 보간 전의 저해상도 이미지로부터 계산될 수 있다.Since there is no information on the pixel values Y 2i +1 and 2j + 1 of the pixel 50 at the time of calculating the weight value a,
Figure 112012088175916-pat00005
Can not be calculated from high resolution images. However, statistically, the high-resolution image after interpolation has geometric duality with the low-resolution image before interpolation, so that R and < RTI ID = 0.0 >
Figure 112012088175916-pat00006
Can be calculated from the low resolution image before interpolation.

본 발명의 다른 실시예에 따르면, 상기 가중치 α는 보간될 픽셀(50)과 인접 픽셀(501 내지 512) 간의 거리를 기반으로 산출될 수도 있다. 예를 들어, 상기 가중치 α는 보간될 픽셀(50)과 인접 픽셀(501 내지 512) 간의 거리에 반비례하도록 계산되거나, 상기 거리의 제곱에 반비례하도록 계산될 수도 있다.According to another embodiment of the present invention, the weight α may be calculated based on the distance between the pixel 50 to be interpolated and the adjacent pixels 501 to 512. For example, the weight a may be calculated to be inversely proportional to the distance between the pixel 50 to be interpolated and the adjacent pixels 501 to 512, or may be calculated to be inversely proportional to the square of the distance.

상기 보간부(14)는 상기 제 2 구역(201b)에 포함된 픽셀을 보간하기 위해 해당 픽셀의 주위에 위치한 넷 이하의 인접 픽셀을 사용할 수 있다. 다시 말해, 상기 보간부(14)는 이미지(20)의 주요 윤곽에 기여하는 주 에지를 포함하는 제 1 구역(201a)에 대해서는 넷보다 많은 인접 픽셀을 사용하여 픽셀을 보간하지만, 이미지(20)의 디테일이나 텍스쳐에 기여하는 부 에지를 포함하는 제 2 구역(201b)에 대해서는 그보다 적은 개수인 넷 이하의 인접 픽셀을 사용하여 픽셀을 보간할 수 있다. 본 발명의 일 실시예에 따르면, 상기 보간부(14)는 이미지(20)에서 에지를 포함하지 않는 비-에지 영역(202 내지 205)의 픽셀에 대해서는 선형 보간 방식을 사용하여 보간을 수행할 수 있다.The interpolator 14 may use less than four adjacent pixels located around the pixel to interpolate the pixels contained in the second area 201b. In other words, the interpolator 14 interpolates the pixels using more than four adjacent pixels for the first section 201a that includes the primary edge contributing to the main contour of the image 20, The pixel can be interpolated using fewer than four adjacent pixels for the second region 201b including the sub-edges contributing to the detail or texture of the pixel. According to one embodiment of the present invention, the interpolator 14 can perform interpolation using a linear interpolation scheme for pixels of non-edge regions 202-205 that do not include edges in the image 20 have.

그 결과, 본 발명의 일 실시예에 따른 영상 보간 장치(100)는, 이미지(20)의 선명도나 화질에 큰 영향을 미치는 긴 에지에 대해서는, 특정 방향의 픽셀만을 참조하지 않고 여러 방향에 걸쳐 픽셀의 정보를 반영함으로써, 보다 정교하고 정확한 이미지를 얻을 수 있다. 나아가, 상기 영상 보간 장치(100)는, 이미지(20)의 선명도나 화질에 영향을 덜 미치는 짧은 에지에 대해서는, 긴 에지보다 적은 개수의 픽셀을 참조함으로써, 보간에 필요한 연산량을 줄일 수 있다.As a result, the image interpolating apparatus 100 according to an embodiment of the present invention is capable of interpolating pixels in a plurality of directions without referring to only pixels in a specific direction, with respect to a long edge that greatly affects the sharpness and image quality of the image 20. [ So that a more accurate and accurate image can be obtained. Furthermore, the image interpolating apparatus 100 can reduce the amount of computation required for interpolation by referring to a smaller number of pixels than a long edge, for a short edge that has less influence on the sharpness and image quality of the image 20. [

도 8에 도시된 실시예에서, 상기 보간부(14)는 제 1 구역(201a)에 포함된 픽셀(50)을 보간하기 위해 12 개의 인접 픽셀(501 내지 512)을 사용하였으나, 도 9 내지 도 12에 도시된 바와 같이, 상기 보간부(14)는 픽셀(50)의 주위에 위치한 6 개의 인접 픽셀(도 9에서 501 내지 506), 8 개의 인접 픽셀(도 10에서 501 내지 506, 511 및 512; 도 11에서 501 내지 506, 507 및 509; 도 12에서 501 내지 504 및 507 내지 510), 10 개의 인접 픽셀(도 13에서 501 내지 510)을 사용할 수도 있다. 나아가, 실시예에 따라 상기 보간부(14)는 픽셀(50)의 주위에 위치한 5 개, 7 개, 9 개 및 11 개의 인접 픽셀을 참조하여 보간을 수행하거나, 12 개보다 많은 인접 픽셀을 참조하여 보간을 수행할 수도 있다.8, the interpolator 14 uses 12 adjacent pixels 501-512 to interpolate the pixels 50 included in the first section 201a, 12, the interpolator 14 includes six adjacent pixels (501 to 506 in Fig. 9), eight adjacent pixels (501 to 506, 511 and 512 in Fig. 10) located around the pixel 50, (501 to 506, 507 and 509 in Fig. 11; 501 to 504 and 507 to 510 in Fig. 12), ten adjacent pixels (501 to 510 in Fig. Further, according to an embodiment, the interpolator 14 may perform interpolation with reference to five, seven, nine and eleven adjacent pixels located around the pixel 50, or may reference more than twelve adjacent pixels Interpolation may be performed.

도 14는 본 발명의 일 실시예에 따른 영상 보간 방법을 설명하는 흐름도이다. 본 발명의 일 실시예에 따른 영상 보간 방법은 전술한 영상 보간 장치(100)를 사용하여, 이미지에서 에지를 포함하는 에지 영역에 대해 다수의 방식으로 보간을 수행할 수 있다.FIG. 14 is a flowchart illustrating an image interpolation method according to an embodiment of the present invention. The image interpolation method according to an embodiment of the present invention can perform interpolation in a plurality of ways with respect to an edge area including an edge in an image using the image interpolation apparatus 100 described above.

도 14에 도시된 바와 같이, 본 발명의 일 실시예에 따른 영상 보간 방법(200)은, 이미지로부터 에지 영역을 식별하는 단계(S21), 상기 에지 영역을 다수의 구역으로 분류하는 단계(S22), 및 상기 구역마다 상이한 방식으로 보간을 수행하는 단계(S23)를 포함할 수 있다.As shown in FIG. 14, an image interpolation method 200 according to an exemplary embodiment of the present invention includes a step S21 of identifying an edge region from an image, a step S22 of classifying the edge region into a plurality of regions, , And performing interpolation (S23) in different ways for each zone.

상기 단계(S21)은 영상 보간 장치(100)에 포함된 에지 영역 식별부(11)에 의해 수행될 수 있다. 상기 에지 영역 식별부(11)는, 보간될 이미지(20)에서 에지를 포함하는 에지 영역(201)과 에지를 포함하지 않는 비-에지 영역(202 내지 205)을 식별할 수 있다.The step S21 may be performed by the edge region identifying unit 11 included in the image interpolating apparatus 100. [ The edge region identification section 11 can identify an edge region 201 including an edge and a non-edge region 202-205 that does not include an edge in the image 20 to be interpolated.

도 15는 본 발명의 일 실시예에 따라 이미지로부터 에지 영역을 식별하는 단계(S21)를 설명하는 흐름도이다. 도 15에 도시된 바와 같이, 본 발명의 일 실시예에 따르면, 상기 이미지로부터 에지 영역을 식별하는 단계(S21)는, 이미지(20)로부터 기설정된 사이즈의 영역을 불러오는 단계(S211), 상기 불러온 영역에 포함된 픽셀들의 픽셀값의 분산을 계산하는 단계(S212), 및 상기 픽셀값의 분산이 기설정된 임계치보다 크면((S213)에서 예), 상기 불러온 영역을 에지 영역(201)으로 결정하는 단계(S214)를 포함할 수 있다.15 is a flow chart illustrating step S21 of identifying an edge region from an image in accordance with an embodiment of the present invention. As shown in FIG. 15, according to an embodiment of the present invention, the step S21 of identifying an edge region from the image includes a step S211 of loading an area of a predetermined size from the image 20, (S212) of calculating the variance of the pixel values of the pixels included in the on-area, and if the variance of the pixel values is larger than the predetermined threshold (YES in (S213)), (Step S214).

일 실시예에 따르면, 상기 픽셀값의 분산을 계산하기 위해 불러오는 영역의 사이즈는 4 X 4일 수 있으나, 상기 영역의 사이즈는 이에 제한되지 않고 4 X 4보다 작거나 클 수 있다.According to one embodiment, the size of the area to be loaded may be 4 X 4 to calculate the variance of the pixel values, but the size of the area is not limited thereto and may be smaller or larger than 4 X 4.

본 발명의 일 실시예에 따르면, 상기 이미지로부터 에지 영역을 식별하는 단계(S21)는, 불러온 영역에 포함된 픽셀값의 분산이 상기 임계치보다 작거나 같으면((S213)에서 아니오), 상기 불러온 영역을 비-에지 영역(202 내지 205)으로 결정하는 단계(S215)를 포함할 수 있다.According to an embodiment of the present invention, the step S21 of identifying an edge region from the image may be performed when the variance of pixel values included in the retrieved region is smaller than or equal to the threshold value (NO in (S213) And determining (S215) the ON region as the non-edge region 202-205.

상기 단계(S22)는 영상 보간 장치(100)에 포함된 에지 영역 분류부(13)에 의해 수행될 수 있다. 상기 에지 영역 분류부(13)는 이미지(20)로부터 식별된 에지 영역(201)을 다수의 구역으로 분류할 수 있다.The step S22 may be performed by the edge region classifying unit 13 included in the image interpolating apparatus 100. [ The edge region classifying section 13 may classify the edge region 201 identified from the image 20 into a plurality of regions.

도 16은 본 발명의 일 실시예에 따라 에지 영역을 다수의 구역으로 분류하는 단계를 설명하는 흐름도이다. 도 16에 도시된 바와 같이, 본 발명의 일 실시예에 따르면, 상기 에지 영역을 다수의 구역으로 분류하는 단계(S22)는, 상기 에지 영역(201)에 포함된 에지를 검출하여 에지 맵을 생성하는 단계(S221), 상기 에지 맵으로부터 기설정된 사이즈의 구역을 불러오는 단계(S222), 상기 불러온 구역에 포함된 에지의 개수를 산출하는 단계(S223), 상기 에지의 개수가 기설정된 임계치보다 적거나 같으면((S224)에서 아니오), 상기 불러온 구역을 제 1 구역으로 결정하는 단계(S225), 및 상기 에지의 개수가 상기 임계치보다 많으면((S224)에서 예), 상기 불러온 구역을 제 2 구역으로 결정하는 단계(S226)를 포함할 수 있다.16 is a flow chart illustrating the step of classifying an edge region into a plurality of regions according to an embodiment of the present invention. As shown in FIG. 16, according to an embodiment of the present invention, the step S22 of classifying the edge region into a plurality of regions may include generating an edge map by detecting an edge included in the edge region 201 A step S222 of calculating a number of edges included in the loaded area, a step S222 of calculating a number of edges included in the loaded area, a step of calculating a number of edges included in the loaded area, (S224). If the number of edges is larger than the threshold value (YES in S224) (S224: No), the step of determining the loaded zone as the first zone (S225) (Step S226).

상기 에지 맵을 생성하는 단계(S221)는, 영상 보간 장치(100)에 포함된 에지 맵 생성부(12)에 의해 수행될 수 있다. 본 발명의 일 실시예에 따르면, 상기 에지 맵을 생성하는 단계(S221)는, 에지 영역(201)에서 에지에 해당하는 제 1 픽셀을 검출하는 단계, 상기 제 1 픽셀의 주위에 위치한 다수의 픽셀 중 에지에 해당하는 제 2 픽셀을 검출하는 단계, 및 상기 제 1 픽셀과 상기 제 2 픽셀을 연결하는 단계를 포함할 수 있다.The step (S221) of generating the edge map may be performed by the edge map generating unit 12 included in the image interpolating apparatus 100. [ According to an embodiment of the present invention, the step of generating the edge map (S221) includes the steps of: detecting a first pixel corresponding to an edge in the edge region 201; detecting a plurality of pixels located around the first pixel Detecting a second pixel corresponding to an edge of the first pixel, and connecting the first pixel and the second pixel.

상기 에지에 해당하는 픽셀을 검출하는 과정은, 에지 픽셀 주위에 더 이상 새로운 에지 픽셀이 검출되지 않을 때까지 진행될 수 있다. 이와 같이 에지 영역(201)에서 어느 한 에지가 검출되면, 해당 에지는 소정의 번호, 기호 또는 문자로 인덱싱될 수 있다. 그리고 나서, 상기 에지 맵 생성부(12)는 에지 영역(201) 내 다른 에지에 해당하는 픽셀을 검출하고, 검출된 픽셀을 시작점으로 하여 주위에 위치한 픽셀 중 에지에 해당하는 픽셀을 검출하고 이들을 연결함으로써, 또 다른 에지를 검출할 수 있다.The process of detecting a pixel corresponding to the edge can be performed until a new edge pixel is no longer detected around the edge pixel. When an edge is detected in the edge area 201 in this way, the edge can be indexed with a predetermined number, symbol or character. Then, the edge map generation unit 12 detects pixels corresponding to other edges in the edge region 201, detects pixels corresponding to the edges of the surrounding pixels with the detected pixel as a starting point, , Another edge can be detected.

본 발명의 일 실시예에 따르면, 에지의 개수를 산출하기 위해 에지 맵으로부터 불러오는 구역의 사이즈는 15 X 15일 수 있으나, 상기 구역의 사이즈는 이에 제한되지 않고 15 X 15보다 작거나 크게 설정될 수도 있다.According to one embodiment of the present invention, the size of the region to be fetched from the edge map for calculating the number of edges may be 15 X 15, but the size of the region is not limited thereto and may be set to be smaller or larger than 15 X 15 have.

상기 에지 영역 분류부(13)는, 상기 불러온 구역 내 에지의 개수가 기설정된 임계치보다 적거나 같으면, 해당 구역을 제 1 구역, 즉 주 구역(201a)으로 결정할 수 있다. 그리고, 상기 에지 영역 분류부(13)는, 상기 불러온 구역 내 에지의 개수가 임계치보다 많으면, 해당 구역을 제 2 구역, 즉 부 구역(201b)으로 결정할 수 있다. If the number of edges in the loaded area is less than or equal to a predetermined threshold value, the edge area classifying unit 13 may determine the corresponding area as the first area, that is, the main area 201a. If the number of edges in the loaded area is greater than the threshold value, the edge area classifying unit 13 may determine the area as the second area, that is, the sub-area 201b.

불러온 구역에 포함된 에지의 개수가 임계치 이하이면, 해당 구역에 포함된 에지는 비교적 길이가 긴 것으로 생각할 수 있으며, 이러한 긴 에지를 포함하는 구역은 이미지의 주요 윤곽에 기여하는 주 구역으로 분류될 수 있다. 반대로, 불러온 구역에 포함된 에지의 개수가 임계치를 초과하면, 해당 구역에 포함된 에지는 비교적 길이가 짧은 것으로 생각할 수 있으며, 이러한 짧은 에지를 포함하는 구역은 이미지의 주요 윤곽에 기여하기보다는 이미지의 디테일이나 오브젝트의 질감 표현에 기여하는 부 구역으로 분류될 수 있다.If the number of edges included in the loaded area is below the threshold, then the edges included in the area may be considered relatively long, and the area containing these long edges may be classified as the main area contributing to the main contour of the image . Conversely, if the number of edges included in the loaded area exceeds the threshold, the edges included in the area may be considered to be relatively short in length, and the area containing such short edges may not contribute to the main contour of the image, Or sub-regions that contribute to the texture representation of the object.

일 실시예에 따르면, 상기 임계치는 1 내지 5 중 어느 하나로 설정될 수 있으나, 이에 제한되지 않고 보간될 이미지에 따라 5보다 큰 값으로 설정될 수도 있다.According to one embodiment, the threshold may be set to any one of 1 to 5, but is not limited thereto and may be set to a value larger than 5 according to an image to be interpolated.

상기 구역마다 상이한 방식으로 보간을 수행하는 단계(S23)는, 영상 보간 장치(100)에 포함된 보간부(14)에 의해 수행될 수 있다. 본 발명의 일 실시예에 따르면, 상기 구역마다 상이한 방식으로 보간을 수행하는 단계(S23)는, 상기 제 1 구역(201a)에 포함된 픽셀을 보간하기 위해, 해당 픽셀의 주위에 위치한 넷보다 많은 개수의 인접 픽셀을 사용하는 단계를 포함할 수 있다. 또한, 상기 보간을 수행하는 단계(S23)는, 상기 제 2 구역(201b)에 포함된 픽셀을 보간하기 위해, 해당 픽셀의 주위에 위치한 넷 이하의 인접 픽셀을 사용하는 단계를 포함할 수 있다.The step S23 of performing the interpolation in different ways for each of the zones may be performed by the interpolating unit 14 included in the image interpolating apparatus 100. [ According to an embodiment of the present invention, performing the interpolation (S23) in different ways for each of the zones may include interpolating pixels included in the first zone 201a by more than four And using the number of adjacent pixels. In addition, the step of performing the interpolation S23 may include using less than four adjacent pixels located around the pixel to interpolate the pixels included in the second area 201b.

다시 말해, 이미지(20)의 주요 윤곽에 기여하는 주 구역(201a)을 보간하기 위해 사용되는 인접 픽셀의 개수는, 이미지(20)의 디테일이나 질감에 기여하는 부 구역(201b)을 보간하기 위해 사용되는 인접 픽셀의 개수보다 더 많을 수 있다.In other words, the number of contiguous pixels used to interpolate the main zone 201a contributing to the main contour of the image 20 may be used to interpolate the sub-zone 201b that contributes to the detail or texture of the image 20 May be greater than the number of adjacent pixels used.

일 실시예에 따르면, 상기 보간을 수행하는 단계(S23)는, 제 1 구역(201a)에 포함된 픽셀을 보간하기 위해, 12 개의 인접 픽셀(501 내지 512)을 사용하는 단계를 포함할 수 있다.According to one embodiment, performing the interpolation (S23) may include using 12 adjacent pixels (501 to 512) to interpolate pixels contained in the first region (201a) .

일 실시예에 따르면, 상기 보간을 수행하는 단계(S23)는, 이미지(20)에서 에지를 포함하지 않는 비-에지 영역(202 내지 205)의 픽셀을 선형 보간 방식으로 보간하는 단계를 포함할 수 있다.According to one embodiment, the step of performing the interpolation S23 may comprise interpolating pixels of the non-edge areas 202 to 205 that do not include edges in the image 20 in a linear interpolation manner have.

도 17은 본 발명의 일 실시예에 따른 영상 처리 장치를 나타내는 블록도이다. 도 17에 도시된 바와 같이, 본 발명의 일 실시예에 따른 영상 처리 장치(300)는 수신부(31), 처리부(32), 저장부(33) 및 출력부(34)를 포함할 수 있다.17 is a block diagram illustrating an image processing apparatus according to an embodiment of the present invention. 17, the image processing apparatus 300 according to an exemplary embodiment of the present invention may include a receiving unit 31, a processing unit 32, a storage unit 33, and an output unit 34.

상기 수신부(31)는 이미지를 수신할 수 있다. 상기 이미지는 보간이 수행될 원본 이미지로서, 본 발명의 일 실시예에 따른 영상 처리 장치(300)는 원본 이미지에 포함된 픽셀을 사용하여 새로운 픽셀을 보간함으로써, 원본 이미지의 사이즈를 확대하거나 저해상도의 이미지를 고해상도의 이미지로 변환할 수 있다.The receiving unit 31 may receive an image. The image is an original image to be interpolated. The image processing apparatus 300 according to an embodiment of the present invention interpolates new pixels using pixels included in the original image, thereby enlarging the size of the original image, Images can be converted to high-resolution images.

상기 처리부(32)는 상기 수신된 이미지를 처리할 수 있다. 본 발명의 일 실시예에 따르면, 상기 처리부(32)는 상기 수신된 이미지로부터 에지를 포함하는 에지 영역을 식별하는 에지 영역 식별부(321), 상기 에지 영역에 포함된 에지를 검출하여 에지 맵을 생성하는 에지 맵 생성부(322), 상기 에지 맵을 사용하여 에지 영역을 다수의 구역으로 분류하는 에지 영역 분류부(323), 및 상기 구역마다 상이한 방식으로 보간을 수행하는 보간부(324)를 포함할 수 있다.The processing unit 32 may process the received image. According to an embodiment of the present invention, the processing unit 32 may include an edge region identifying unit 321 for identifying an edge region including an edge from the received image, an edge region detecting unit 321 for detecting an edge included in the edge region, An edge region classifying unit 323 for classifying the edge region into a plurality of regions by using the edge map, and an interpolating unit 324 for performing interpolation in different ways for each region .

상기 처리부(32)에 포함된 상기 에지 영역 식별부(321), 상기 에지 맵 생성부(322), 상기 에지 영역 분류부(323) 및 상기 보간부(324)는 각각 전술한 영상 보간 장치(100)에 포함된 에지 영역 식별부(11), 에지 맵 생성부(12), 에지 영역 분류부(13) 및 보간부(14)에 대응할 수 있다. 상기 처리부(32)는 이미지 처리를 위한 연산을 수행하는 CPU, GPU 등을 포함하는 프로세서로 구성될 수 있다.The edge region identifying unit 321, the edge map generating unit 322, the edge region classifying unit 323 and the interpolating unit 324 included in the processing unit 32 are connected to the image interpolator 100 The edge map generating section 12, the edge region classifying section 13, and the interpolating section 14 included in the edge region identifying section 11, The processing unit 32 may be a processor including a CPU, a GPU, and the like for performing operations for image processing.

상기 저장부(33)는 이미지 또는 이미지 처리에 사용되는 데이터를 저장할 수 있다. 상기 저장부(33)는 소정의 데이터를 저장하는 기억장치일 수 있으며, 예를 들어 RAM, ROM, 하드디스크, SSD 등을 포함할 수 있다.The storage unit 33 may store data used for image or image processing. The storage unit 33 may be a storage device that stores predetermined data, and may include, for example, a RAM, a ROM, a hard disk, an SSD, or the like.

상기 출력부(34)는 상기 처리된 이미지를 출력할 수 있다. 상기 출력부(34)는 상기 처리된 이미지를 LCD, PDP와 같은 디스플레이 장치로 전달하여, 이미지가 디스플레이 장치의 스크린에 표시되도록 할 수 있다.The output unit 34 may output the processed image. The output unit 34 may transmit the processed image to a display device such as an LCD or a PDP so that the image is displayed on the screen of the display device.

본 발명의 일 실시예에 따르면, 상기 에지 영역 분류부(323)는 에지 영역(201)의 일 구역에 포함된 에지의 개수가 기설정된 임계치보다 적거나 같으면, 해당 구역을 제 1 구역(201a)으로 결정하고, 에지의 개수가 임계치보다 많으면, 해당 구역을 제 2 구역(201b)으로 결정할 수 있다. 실시예에 따라, 상기 임계치는 둘 이상이 설정되어, 상기 에지 영역 분류부(323)는 에지 영역(201)을 셋 이상의 구역으로 분류할 수도 있다.According to an embodiment of the present invention, if the number of edges included in one region of the edge region 201 is less than or equal to a predetermined threshold, the edge region classifying unit 323 divides the region into the first region 201a, And if the number of edges is larger than the threshold value, the zone can be determined as the second zone 201b. According to an embodiment, the threshold value may be set to two or more, and the edge region classifying unit 323 may classify the edge region 201 into three or more regions.

전술한 실시예에서는 에지 영역 분류부(323)가 일 구역에 포함된 에지의 개수에 따라 에지 영역을 분류하였으나, 다른 실시예에 따르면 상기 에지 영역 분류부(323)는 일 구역에 포함된 에지 중 가장 긴 에지의 길이에 따라 에지 영역을 분류할 수도 있다. 예를 들어, 상기 에지 영역 분류부(323)는 일 구역에 포함된 에지 중 가장 긴 에지의 길이가 기설정된 임계치보다 길면, 해당 구역을 제 1 구역(201a)으로 분류하고, 가장 긴 에지의 길이가 상기 임계치보다 짧거나 같으면, 해당 구역을 제 2 구역(201b)으로 분류할 수 있다.The edge region classifying unit 323 classifies edge regions according to the number of edges included in one region. However, according to another embodiment, the edge region classifying unit 323 classifies the edge regions included in one region The edge region may be classified according to the length of the longest edge. For example, when the length of the longest edge among the edges included in one region is longer than a preset threshold value, the edge region classifying unit 323 classifies the corresponding region into the first region 201a, Is shorter than or equal to the threshold value, the zone may be classified into the second zone 201b.

다른 실시예에 따르면, 상기 에지 영역 분류부(323)는 일 구역에 포함된 에지의 전체 길이에 따라 에지 영역을 분류할 수도 있다. 예를 들어, 상기 에지 영역 분류부(323)는 일 구역에 포함된 에지의 길이를 합산하고, 합산된 에지의 길이가 기설정된 임계치보다 길면 해당 구역을 제 1 구역(201a)으로 분류하고, 합산된 에지의 길이가 상기 임계치보다 짧거나 같으면 해당 구역을 제 2 구역(201b)으로 분류할 수 있다.According to another embodiment, the edge region classifying section 323 may classify the edge region according to the entire length of edges included in one region. For example, the edge region classifying unit 323 sums the lengths of the edges included in one region and classifies the regions into the first region 201a if the length of the summed edge is longer than a preset threshold value, If the length of the edge is shorter than or equal to the threshold, the zone may be classified as the second zone 201b.

본 발명의 일 실시예에 따르면, 상기 보간부(324)는 상기 제 1 구역(201a)에 포함된 픽셀에 대하여, 해당 픽셀의 주위에 위치한 넷보다 많은 인접 픽셀을 사용하여 보간을 수행할 수 있다. 또한, 상기 보간부(324)는 상기 제 2 구역(201b)에 포함된 픽셀에 대하여, 해당 픽셀의 주위에 위치한 넷 이하의 인접 픽셀을 사용하여 보간을 수행할 수 있다. 또한, 상기 보간부(324)는 이미지(20)에서 에지를 포함하지 않는 비-에지 영역(202 내지 205)의 픽셀에 대하여 선형 보간 방식을 사용하여 보간을 수행할 수 있다. 다시 말해, 상기 보간부(324)는 제 1 구역(201a)의 픽셀 보간을 위해, 제 2 구역(201b)의 픽셀 보간에 사용하는 인접 픽셀보다 더 많은 인접 픽셀을 사용할 수 있다.According to one embodiment of the present invention, the interpolator 324 can perform interpolation for pixels included in the first section 201a using more than four adjacent pixels located around the pixel . In addition, the interpolator 324 may interpolate pixels included in the second region 201b using four or less adjacent pixels located around the pixel. The interpolator 324 may also perform interpolation using a linear interpolation scheme for pixels of the non-edge regions 202-205 that do not include edges in the image 20. [ In other words, the interpolator 324 can use more adjacent pixels than the adjacent pixels used for pixel interpolation in the second region 201b, for pixel interpolation in the first region 201a.

일 실시예에 따르면, 상기 보간부(324)는 제 1 구역(201a)의 보간을 위해 12 개의 인접 픽셀을 사용할 수 있으나, 이에 제한되지 않고 5 내지 11 개의 인접 픽셀을 사용하거나, 12 개보다 더 많은 인접 픽셀을 사용할 수도 있다.According to one embodiment, the interpolator 324 may use twelve adjacent pixels for interpolation of the first section 201a, but it is not limited thereto and may use five to eleven adjacent pixels, or more than twelve Many adjacent pixels may be used.

일 실시예에 따르면, 상기 보간부(324)는 제 2 구역(201b)을 보간하기 위해 비선형 보간 방식을 사용할 수도 있다.According to one embodiment, the interpolator 324 may use a non-linear interpolation scheme to interpolate the second section 201b.

전술한 본 발명의 일 실시예에 따른 영상 보간 방법(200)은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 상기 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 저장 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다.The image interpolation method 200 according to an embodiment of the present invention may be stored in a computer-readable recording medium that is manufactured as a program to be executed in a computer. The computer-readable recording medium includes all kinds of storage devices in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like.

이상에서, 이미지의 보간 시 에지를 포함하는 에지 영역을 다수의 구역으로 분류하고, 각각의 구역마다 상이한 보간 방식을 적용하여 보간을 수행하는 영상 보간 장치, 영상 보간 방법 및 이를 사용한 영상 처리 장치를 설명하였다. 상기 영상 보간 장치, 영상 보간 방법 및 영상 처리 장치는, 상대적으로 길이가 긴 에지를 포함하여 이미지의 주요 윤곽에 기여하는 주 구역에 대해서는 픽셀 보간에 사용되는 인접 픽셀의 개수를 늘리고, 상대적으로 길이가 짧은 에지를 포함하여 이미지의 주요 윤곽에 큰 영향을 미치지 않는 부 구역에 대해서는 픽셀 보간에 사용되는 인접 픽셀의 개수를 줄일 수 있다.In the above, an image interpolating apparatus, an image interpolating method, and an image processing apparatus using the same are described in which an edge region including an edge at the time of interpolation of an image is classified into a plurality of regions, and interpolation is performed by applying different interpolation methods to each region Respectively. The image interpolating apparatus, the image interpolating method, and the image processing apparatus may increase the number of adjacent pixels used for pixel interpolation for a main region including a relatively long edge and contribute to the main contour of the image, For subregions that do not significantly affect the main contour of the image, including short edges, the number of adjacent pixels used for pixel interpolation can be reduced.

그 결과, 상기 영상 보간 장치, 영상 보간 방법 및 영상 처리 장치는, 이미지의 긴 에지를 비교적 정확하고 선명하게 복원하여, 보간 후에도 원 영상에 비해 화질이 크게 저하되지 않는 영상을 얻을 수 있다. 또한, 상기 영상 보간 장치, 영상 보간 방법 및 영상 처리 장치는, 픽셀의 보간에 사용되는 인접 픽셀의 개수를 에지 영역의 각 구역마다 상이하게 설정함으로써, 보간에 필요한 연산량이 급격하게 증가하는 것을 방지할 수 있다.As a result, the image interpolating apparatus, the image interpolating method, and the image processing apparatus can relatively accurately and vigorously recover the long edges of the image, thereby obtaining an image in which the image quality is not significantly degraded as compared with the original image even after interpolation. Also, the image interpolating apparatus, the image interpolating method, and the image processing apparatus set the number of adjacent pixels used for interpolation of pixels to be different for each region of the edge region, thereby preventing the amount of computation required for interpolation from rapidly increasing .

100: 영상 보간 장치 11: 에지 영역 식별부
12: 에지 맵 생성부 13: 에지 영역 분류부
14: 보간부
100: image interpolating device 11: edge area identifying unit
12: edge map generating unit 13: edge region classifying unit
14: interpreter

Claims (25)

이미지로부터 에지를 포함하는 에지 영역을 식별하는 에지 영역 식별부;
상기 에지 영역에 포함된 에지를 검출하여 에지 맵을 생성하는 에지 맵 생성부;
상기 에지 영역을 다수의 구역으로 분류하는 에지 영역 분류부; 그리고
상기 구역마다 상이한 방식으로 보간을 수행하는 보간부;
를 포함하며,
상기 에지 영역 분류부는, 상기 에지 맵의 일 구역에 포함된 에지의 개수에 따라 상기 에지 영역을 분류하는 영상 보간 장치.
An edge region identification unit for identifying an edge region including an edge from the image;
An edge map generation unit for generating an edge map by detecting an edge included in the edge region;
An edge region classifying unit classifying the edge region into a plurality of regions; And
An interpolation section which performs interpolation in a different manner for each of the zones;
/ RTI >
Wherein the edge region classifying unit classifies the edge region according to the number of edges included in one region of the edge map.
제 1 항에 있어서,
상기 에지 영역 식별부는, 상기 이미지의 일 영역에 포함된 픽셀들의 픽셀값의 분산을 계산하여 상기 에지 영역을 식별하는 영상 보간 장치.
The method according to claim 1,
Wherein the edge region identification unit identifies the edge region by calculating a variance of pixel values of pixels included in one region of the image.
제 2 항에 있어서,
상기 에지 영역 식별부는:
상기 픽셀값의 분산이 기설정된 임계치보다 크면, 상기 일 영역을 에지 영역으로 결정하고,
상기 픽셀값의 분산이 상기 임계치보다 작거나 같으면, 상기 일 영역을 비-에지 영역으로 결정하는 영상 보간 장치.
3. The method of claim 2,
Wherein the edge region identification unit comprises:
If the variance of the pixel value is greater than a preset threshold value,
And determines the one region as a non-edge region if the variance of the pixel values is less than or equal to the threshold value.
삭제delete 제 1 항에 있어서,
상기 에지 맵 생성부는:
상기 에지 영역에서 에지에 해당하는 제 1 픽셀을 검출하고, 상기 제 1 픽셀의 주위에 위치한 다수의 픽셀 중 에지에 해당하는 제 2 픽셀을 검출하고, 상기 제 1 픽셀과 상기 제 2 픽셀을 연결하는 영상 보간 장치.
The method according to claim 1,
Wherein the edge map generator comprises:
Detecting a first pixel corresponding to an edge in the edge region, detecting a second pixel corresponding to an edge of a plurality of pixels located around the first pixel, and connecting the first pixel and the second pixel Image interpolation device.
삭제delete 제 1 항에 있어서,
상기 에지 영역 분류부는:
상기 일 구역에 포함된 에지의 개수가 기설정된 임계치보다 적거나 같으면, 상기 일 구역을 제 1 구역으로 결정하고,
상기 일 구역에 포함된 에지의 개수가 상기 임계치보다 많으면, 상기 일 구역을 제 2 구역으로 결정하는 영상 보간 장치.
The method according to claim 1,
Wherein the edge region classifier comprises:
If the number of edges included in the one zone is less than or equal to a preset threshold value, the one zone is determined as the first zone,
Wherein if the number of edges included in the one area is greater than the threshold value, the one area is determined as the second area.
제 7 항에 있어서,
상기 보간부는, 상기 제 1 구역에 포함된 픽셀을 보간하기 위해 상기 픽셀의 주위에 위치한 넷보다 많은 인접 픽셀을 사용하는 영상 보간 장치.
8. The method of claim 7,
Wherein the interpolator uses more than four adjacent pixels located around the pixel to interpolate pixels contained in the first region.
제 8 항에 있어서,
상기 보간부는, 상기 제 1 구역에 포함된 픽셀을 둘러싸는 12 개의 인접 픽셀을 사용하여 상기 픽셀을 보간하는 영상 보간 장치.
9. The method of claim 8,
Wherein the interpolator interpolates the pixel using twelve adjacent pixels surrounding the pixels included in the first zone.
제 8 항에 있어서,
상기 보간부는, 상기 넷보다 많은 인접 픽셀 각각의 픽셀값에 가중치를 적용하고 합산하여 상기 픽셀의 픽셀값을 산출하는 영상 보간 장치.
9. The method of claim 8,
Wherein the interpolator calculates a pixel value of the pixel by applying a weight to pixel values of each of the plurality of adjacent pixels,
제 10 항에 있어서,
상기 가중치는, 위너 필터(Wiener filter)를 사용하여 산출되는 영상 보간 장치.
11. The method of claim 10,
Wherein the weight is calculated using a Wiener filter.
제 10 항에 있어서,
상기 가중치는, 상기 픽셀과 상기 인접 픽셀 간의 거리를 기반으로 산출되는 영상 보간 장치.
11. The method of claim 10,
Wherein the weight is calculated based on a distance between the pixel and the adjacent pixel.
제 7 항에 있어서,
상기 보간부는, 상기 제 2 구역에 포함된 픽셀을 보간하기 위해 상기 픽셀의 주위에 위치한 넷 이하의 인접 픽셀을 사용하는 영상 보간 장치.
8. The method of claim 7,
Wherein the interpolator uses less than four adjacent pixels located around the pixel to interpolate pixels contained in the second region.
제 1 항에 있어서,
상기 보간부는, 상기 이미지에서 에지를 포함하지 않는 비-에지 영역의 픽셀을 보간하기 위해 선형 보간 방식을 사용하는 영상 보간 장치.
The method according to claim 1,
Wherein the interpolator uses a linear interpolation scheme to interpolate pixels in a non-edge region that do not include an edge in the image.
삭제delete 이미지로부터 에지를 포함하는 에지 영역을 식별하는 단계;
상기 에지 영역에 포함된 에지를 검출하여 에지 맵을 생성하는 단계;
상기 에지 영역을 상기 에지 맵의 일 구역에 포함된 에지의 개수에 따라 다수의 구역으로 분류하는 단계; 그리고
상기 구역마다 상이한 방식으로 보간을 수행하는 단계;
를 포함하는 영상 보간 방법.
Identifying an edge region comprising an edge from the image;
Detecting an edge included in the edge region to generate an edge map;
Classifying the edge region into a plurality of regions according to the number of edges included in one region of the edge map; And
Performing interpolation in different ways for each of the zones;
/ RTI >
제 16 항에 있어서,
상기 에지 영역을 식별하는 단계는:
상기 이미지로부터 기설정된 사이즈의 영역을 불러오는 단계;
상기 불러온 영역에 포함된 픽셀들의 픽셀값의 분산을 계산하는 단계; 그리고
상기 픽셀값의 분산이 기설정된 임계치보다 크면, 상기 불러온 영역을 에지 영역으로 결정하는 단계;
를 포함하는 영상 보간 방법.
17. The method of claim 16,
Wherein identifying the edge region comprises:
Loading an area of predetermined size from the image;
Calculating a variance of pixel values of pixels included in the loaded area; And
Determining the read area as an edge area if the variance of the pixel value is greater than a preset threshold;
/ RTI >
제 16 항에 있어서,
상기 에지 영역을 다수의 구역으로 분류하는 단계는:
상기 에지 맵으로부터 기설정된 사이즈의 구역을 불러오는 단계;
상기 불러온 구역에 포함된 에지의 개수를 산출하는 단계;
상기 에지의 개수가 기설정된 임계치보다 적거나 같으면, 상기 불러온 구역을 제 1 구역으로 결정하는 단계; 그리고
상기 에지의 개수가 기설정된 임계치보다 많으면, 상기 불러온 구역을 제 2 구역으로 결정하는 단계;
를 포함하는 영상 보간 방법.
17. The method of claim 16,
Wherein classifying the edge region into a plurality of zones comprises:
Loading a zone of predetermined size from the edge map;
Calculating the number of edges included in the loaded area;
Determining the loaded zone as a first zone if the number of edges is less than or equal to a predetermined threshold; And
Determining the loaded zone as a second zone if the number of edges is greater than a predetermined threshold;
/ RTI >
제 18 항에 있어서,
상기 보간을 수행하는 단계는:
상기 제 1 구역에 포함된 픽셀의 주위에 위치한 넷보다 많은 인접 픽셀을 사용하여 상기 픽셀을 보간하는 단계를 포함하는 영상 보간 방법.
19. The method of claim 18,
Wherein performing the interpolation comprises:
Interpolating the pixel using more than four adjacent pixels located around a pixel included in the first region.
제 18 항에 있어서,
상기 보간을 수행하는 단계는:
상기 제 2 구역에 포함된 픽셀의 주위에 위치한 넷 이하의 인접 픽셀을 사용하여 상기 픽셀을 보간하는 단계를 포함하는 영상 보간 방법.
19. The method of claim 18,
Wherein performing the interpolation comprises:
Interpolating the pixel using less than four adjacent pixels located around a pixel included in the second region.
제 16 항에 있어서,
상기 보간을 수행하는 단계는:
상기 이미지에서 에지를 포함하지 않는 비-에지 영역의 픽셀을 선형 보간 방식으로 보간하는 단계를 포함하는 영상 보간 방법.
17. The method of claim 16,
Wherein performing the interpolation comprises:
Interpolating pixels of a non-edge region that does not include an edge in the image in a linear interpolation manner.
이미지를 수신하는 수신부;
수신된 이미지를 처리하는 처리부;
이미지 또는 이미지 처리에 사용되는 데이터를 저장하는 저장부; 그리고
처리된 이미지를 출력하는 출력부를 포함하며,
상기 처리부는:
상기 수신된 이미지로부터 에지를 포함하는 에지 영역을 식별하는 에지 영역 식별부;
상기 에지 영역에 포함된 에지를 검출하여 에지 맵을 생성하는 에지 맵 생성부;
상기 에지 맵을 사용하여 상기 에지 영역을 상기 에지 맵의 일 구역에 포함된 에지의 개수에 따라 다수의 구역으로 분류하는 에지 영역 분류부; 그리고
상기 구역마다 상이한 방식으로 보간을 수행하는 보간부;
를 포함하는 영상 처리 장치.
A receiving unit for receiving an image;
A processing unit for processing the received image;
A storage unit for storing data used for image or image processing; And
And an output unit for outputting the processed image,
Wherein the processing unit comprises:
An edge region identification unit for identifying an edge region including an edge from the received image;
An edge map generation unit for generating an edge map by detecting an edge included in the edge region;
An edge region classifying unit classifying the edge region into a plurality of regions according to the number of edges included in one region of the edge map using the edge map; And
An interpolation section which performs interpolation in a different manner for each of the zones;
And the image processing apparatus.
제 22 항에 있어서,
상기 에지 영역 분류부는:
상기 에지 영역의 일 구역에 포함된 에지의 개수가 기설정된 임계치보다 적거나 같으면, 해당 구역을 제 1 구역으로 결정하고,
상기 에지 영역의 일 구역에 포함된 에지의 개수가 상기 임계치보다 많으면, 해당 구역을 제 2 구역으로 결정하는 영상 처리 장치.
23. The method of claim 22,
Wherein the edge region classifier comprises:
If the number of edges included in one region of the edge region is less than or equal to a predetermined threshold value, the region is determined as the first region,
And determines the zone as a second zone if the number of edges included in one zone of the edge zone is larger than the threshold value.
제 23 항에 있어서,
상기 보간부는:
상기 제 1 구역에 포함된 픽셀에 대하여, 해당 픽셀의 주위에 위치한 넷보다 많은 인접 픽셀을 사용하여 보간을 수행하고,
상기 제 2 구역에 포함된 픽셀에 대하여, 해당 픽셀의 주위에 위치한 넷 이하의 인접 픽셀을 사용하여 보간을 수행하고,
상기 수신된 이미지에서 에지를 포함하지 않는 비-에지 영역의 픽셀에 대하여, 선형 보간 방식으로 보간을 수행하는 영상 처리 장치.
24. The method of claim 23,
Wherein the interpolator comprises:
Performing interpolation for pixels included in the first zone using more than four adjacent pixels located around the pixel,
Performing interpolation with respect to the pixels included in the second zone using four or less adjacent pixels located around the pixel,
And performs interpolation in a linear interpolation manner on pixels of a non-edge region that does not include edges in the received image.
컴퓨터로 읽을 수 있는 기록 매체로서,
제 16 항 내지 제 21 항 중 어느 한 항에 따른 영상 보간 방법을 구현하는 프로그램이 기록된 기록 매체.
A computer-readable recording medium,
A recording medium on which a program for implementing the image interpolation method according to any one of claims 16 to 21 is recorded.
KR20120120367A 2011-11-29 2012-10-29 Apparatus and method for interpolating image, and apparatus for processing image using the same KR101493425B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR20120120367A KR101493425B1 (en) 2012-10-29 2012-10-29 Apparatus and method for interpolating image, and apparatus for processing image using the same
US13/681,810 US9076232B2 (en) 2011-11-29 2012-11-20 Apparatus and method for interpolating image, and apparatus for processing image using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20120120367A KR101493425B1 (en) 2012-10-29 2012-10-29 Apparatus and method for interpolating image, and apparatus for processing image using the same

Publications (2)

Publication Number Publication Date
KR20140054639A KR20140054639A (en) 2014-05-09
KR101493425B1 true KR101493425B1 (en) 2015-02-16

Family

ID=50886460

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20120120367A KR101493425B1 (en) 2011-11-29 2012-10-29 Apparatus and method for interpolating image, and apparatus for processing image using the same

Country Status (1)

Country Link
KR (1) KR101493425B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101590114B1 (en) * 2014-09-02 2016-01-29 재단법인 실감교류인체감응솔루션연구단 Method, appratus and computer-readable recording medium for hole filling of depth image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7187811B2 (en) * 2003-03-18 2007-03-06 Advanced & Wise Technology Corp. Method for image resolution enhancement
KR20070119482A (en) * 2006-06-14 2007-12-20 삼성전자주식회사 Image resampling method
KR20080072450A (en) * 2007-02-02 2008-08-06 삼성전자주식회사 Method for processing images in order to detect properties of image area and to filter images and apparatus thereof
KR20130059546A (en) * 2011-11-29 2013-06-07 연세대학교 산학협력단 Methods of interpolation based on edge and apparatuses for using the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7187811B2 (en) * 2003-03-18 2007-03-06 Advanced & Wise Technology Corp. Method for image resolution enhancement
KR20070119482A (en) * 2006-06-14 2007-12-20 삼성전자주식회사 Image resampling method
KR20080072450A (en) * 2007-02-02 2008-08-06 삼성전자주식회사 Method for processing images in order to detect properties of image area and to filter images and apparatus thereof
KR20130059546A (en) * 2011-11-29 2013-06-07 연세대학교 산학협력단 Methods of interpolation based on edge and apparatuses for using the same

Also Published As

Publication number Publication date
KR20140054639A (en) 2014-05-09

Similar Documents

Publication Publication Date Title
US6943807B2 (en) Image processing apparatus and method, recording medium, and program thereof
EP2347385B1 (en) Method and system for image resizing based on interpolation enhanced seam operations
JP5093083B2 (en) Image processing apparatus and method, and program
EP2138975A2 (en) Apparatus, method and computer-readable recording medium for pixel interpolation
US8340473B2 (en) Apparatus and method of interpolating image using region segmentation
KR20180097342A (en) Method and apparatus for sharpening super resolution image with minimum image artifacts
RU2589401C2 (en) Digital image processing filter, image generating device for super hybrid image generating, image generating method, method of digital filter generating, method of super hybrid image generating, method of making printed media, method of making electronic data medium and software, and device for vertical panning letter row generating, method of vertical panning letter row generating, method of making printed media, method of making electronic data medium and software
Harb et al. Improved image magnification algorithm based on Otsu thresholding
US9076232B2 (en) Apparatus and method for interpolating image, and apparatus for processing image using the same
JP2012515982A (en) Smoothed local histogram filter for computer graphics
EP2085926B1 (en) Method and apparatus for generating thumbnail image
KR101493425B1 (en) Apparatus and method for interpolating image, and apparatus for processing image using the same
US6785415B1 (en) Image processing method, an image processing apparatus, and a recording media on which an image processing program is recorded
JP2013200298A (en) Dispersion property evaluation method of island part in resin composition, and dispersion property evaluation device of island part in resin composition
US9154671B2 (en) Image processing apparatus, image processing method, and program
JP4571923B2 (en) Histogram projection processing frequency threshold setting apparatus, method, and recording medium recording the program.
EP3796216A1 (en) Image processing apparatus, image processing method, and program
US9225876B2 (en) Method and apparatus for using an enlargement operation to reduce visually detected defects in an image
JP2004133592A (en) Image processor, image processing method and image processing program for magnifying image
KR20130059546A (en) Methods of interpolation based on edge and apparatuses for using the same
CN102447817B (en) Image processing device and space image noise eliminating method
KR101535196B1 (en) Apparatus and Method of Image Segmentation based on the Texture Characteristics
Chan et al. Contrast Measurement with Histograms of Second-order Derivatives of Pixels for Magnetic Resonance Images.
KR101373193B1 (en) Apparatus and method for interpolating image
CN117934369A (en) Quadric surface defect detection method, quadric surface defect detection device, quadric surface defect detection system and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20180201

Year of fee payment: 4