KR20030082249A - Motion adaptive spatial-temporal deinterlacing method - Google Patents

Motion adaptive spatial-temporal deinterlacing method Download PDF

Info

Publication number
KR20030082249A
KR20030082249A KR1020020020900A KR20020020900A KR20030082249A KR 20030082249 A KR20030082249 A KR 20030082249A KR 1020020020900 A KR1020020020900 A KR 1020020020900A KR 20020020900 A KR20020020900 A KR 20020020900A KR 20030082249 A KR20030082249 A KR 20030082249A
Authority
KR
South Korea
Prior art keywords
pixel
interpolated
boundary line
motion
horizontal boundary
Prior art date
Application number
KR1020020020900A
Other languages
Korean (ko)
Other versions
KR100913890B1 (en
Inventor
나정은
김인철
이병욱
Original Assignee
오리온전기 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 오리온전기 주식회사 filed Critical 오리온전기 주식회사
Priority to KR1020020020900A priority Critical patent/KR100913890B1/en
Publication of KR20030082249A publication Critical patent/KR20030082249A/en
Application granted granted Critical
Publication of KR100913890B1 publication Critical patent/KR100913890B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/012Conversion between an interlaced and a progressive signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0137Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes dependent on presence/absence of motion, e.g. of motion zones

Abstract

PURPOSE: A motion adaptive spatial-temporal deinterlacing method is provided to improve the quality of picture by clearly representing a horizontal boundary line in a display device such as a large PDP(Plasma Display Panel). CONSTITUTION: An interlaced scan type image is inputted to a deinterlacing unit(S10). Differences in pixel values are obtained between fields related to pixels around a pixel to be interpolated(S21). The maximum pixel difference is decided as a motion value(S23). It is judged whether the motion value exceeds a threshold(S25). If so, a median filter filters information related to the detected movement through post-processing(S31). If not, the median filter filters the information related to the detected movement through post-processing(S33). A pixel value of the pixel to be interpolated is adaptively interpolated according to the information of the detected movement through temporally axial filtering or spatially axial filtering(S41-S43). A progressive scan type image is output(S50).

Description

움직임 적응 시공간 디인터레이싱 방법{Motion Adaptive Spatial-Temporal Deinterlacing Method}Motion Adaptive Spatial-Temporal Deinterlacing Method

본 발명은 격행 주사(Interlaced Scan) 방식의 영상을 순차 주사(Progressive Scan) 방식의 영상으로 변환시키는 디인더레이싱(Deinterlacing)방법에 관한 것으로, 더욱 상세하게는 대화면 디스플레이장치의 화질 열화를 개선시키도록 한 움직임 적응 시공간 디인터레이싱(Motion Adaptive Spatial-Temporal Deinterlacing) 방법에 관한 것이다.The present invention relates to a deinterlacing method for converting an interlaced scan image into a progressive scan image, and more particularly, to improve image quality deterioration of a large screen display device. The present invention relates to a motion adaptive spatial-temporal deinterlacing method.

일반적으로, NTSC 방식의 티브이(TV) 시스템은 하나의 프레임을 짝수(even) 필드와 홀수(odd) 필드로 나누어 시간차를 두고 주사하는 방식인 격행 주사(interlaced scan) 방식을 사용하고 있다. 격행 주사 방식은 간단한 방법으로 영상 정보를 반으로 감축시킬 수 있기 때문에 오랫동안 사용되어 왔다. 하지만, 격행 주사 방식은 시간 방향의 주파수 성분을 보존하기 위해 수직 방향의 주파수 성분을 희생시키므로 수직 방향으로 상세 정보가 많은 영상에서는 프리커(Flicker) 현상 등 심각한 왜곡이 다발한다. 최근에 들어, 엘시디(LCD: Liquid Crystal Display), 피디피(PDP: Plasma Display Panel) 등 순차 주사(progressive scan)가 용이한 디스플레이 장치가 널리 보급되고 있고, 피씨(PC: Personal Computer) 등 다른 디스플레이 장치와의 호환성이 중요한 문제로 부각되고 있다. 이에 따라, 기존의 격행 주사 방식의 영상을 순차 주사 방식의 영상으로 변환시키는 디인터레이싱 방법에 대한 연구가 활발히 진행되고 있다.In general, an NTSC TV system uses an interlaced scan method in which one frame is divided into even and odd fields and scanned at a time difference. A conventional scanning method has been used for a long time because it can reduce image information in half by a simple method. However, since the conventional scanning method sacrifices frequency components in the vertical direction to preserve frequency components in the time direction, serious distortions such as a flicker phenomenon occur frequently in an image having a lot of detailed information in the vertical direction. Recently, display devices that facilitate progressive scan such as LCD (LCD) and Plasma Display Panel (PDP) are widely used, and other display devices such as PCs (PCs) are widely available. Compatibility with is emerging as an important issue. Accordingly, researches on a deinterlacing method for converting a conventional progressive scan image into a sequential scan image have been actively conducted.

상기 디인터레이싱 방법은 크게 공간축(spatial) 처리와 시간축(temporal) 처리로 구분된다. 상기 공간축 처리란 하나의 필드 내에서 보간(interpolation)될 화소의 주위 화소들만을 이용하여 보간하는 것을 말한다. 상기 공간축 처리는 일반적으로 로우 패스 필터를 근사화한 함수를 사용함으로써 영상에서의 간섭 현상을 제거한다. 여기에 사용되는 함수에는 ZOH(zero order hold) 함수, 선형 보간 함수,비선형 보간 함수 등이 있다.The deinterlacing method is largely divided into spatial processing and temporal processing. The spatial axis processing refers to interpolation using only surrounding pixels of a pixel to be interpolated in one field. The spatial axis processing generally eliminates interference in an image by using a function approximating a low pass filter. Functions used here include zero order hold (ZOH) functions, linear interpolation functions, and nonlinear interpolation functions.

상기 ZOH 함수를 이용한 변환은 같은 화소 값을 중복하여 사용하는 방법으로, 영상의 윤곽선(boundary)이 나타나는 부분에서 심각한 계단 현상이 발생한다. 상기 선형 보간 함수를 이용한 변환은 1차식의 함수를 이용하여 선형적으로 보간하는 방법이다. 즉, 2개 화소 값 사이의 누락된 화소 값은 상기 2개 화소 값의 가중 평균값으로 구해진다. 이 경우, 영상의 보간 비율이 커지면, 보간된 영상의 화질이 저하될 수 있다는 단점이 있다. 상기 ZOH 함수를 이용한 변환이나 상기 선형 보간 함수를 이용한 변환은 노이즈나 물체 윤곽선을 고려하지 않고 이들을 모두 흐리게 처리하기 때문에 잡음을 효과적으로 제거할 수 있다. 그러나, 보간된 영상은 전체적으로 흐려져 버린다.The transformation using the ZOH function is a method of using the same pixel value repeatedly, and a serious step phenomenon occurs in a portion where an image boundary appears. The transformation using the linear interpolation function is a method of linear interpolation using a linear function. That is, the missing pixel value between the two pixel values is obtained as the weighted average value of the two pixel values. In this case, when the interpolation ratio of the image is increased, there is a disadvantage that the image quality of the interpolated image may be degraded. The transformation using the ZOH function or the transformation using the linear interpolation function can effectively remove noise because all of them are blurred without considering noise or object contours. However, the interpolated image is blurred overall.

따라서, 영상의 윤곽선을 유지하면서도 잡음을 제거할 수 있도록 고안된 것이 비선형 필터이고, 그 대표적인 예가 메디안 필터(median filter)이다. 메디안 필터는 로우 패스 필터처럼 영상을 스무싱(smoothing)하게 만드는 효과가 있으므로 잡음 제거에 유용하다. 그러나, 상기 메디안 필터는 비선형 필터이기 때문에 신호 처리에 계산량이 많아서 실시간 처리에 부담이 된다.Therefore, a nonlinear filter is designed to remove noise while maintaining the outline of an image, and a representative example thereof is a median filter. The median filter, like a low pass filter, has the effect of smoothing the image, which is useful for noise reduction. However, since the median filter is a non-linear filter, a large amount of calculation is required for signal processing, which places a burden on real time processing.

상기 메디안 필터를 이용한 공간축 디인터레이싱은 상기 메디안 필터의 윤곽선 보존 특성을 활용하여 수직 방향 보간에 이용하려는 디인터레이싱 방법이다. 이 방법은 선형 보간 함수보다 영상의 윤곽선을 잘 유지해주기 때문에 양질의 영상을 얻을 수가 있다. 그러나, 이 방법은 연산을 비교적 많이 수행하므로 계산량이 많고, 인접하는 화소 값들 중 가운데 값이 되는 화소 값을 그대로 사용하기 때문에보간된 영상이 불규칙성을 가질 수가 있다.The spatial axis deinterlacing using the median filter is a deinterlacing method to be used for vertical interpolation by utilizing the contour preservation characteristic of the median filter. This method maintains the contour of the image better than the linear interpolation function, so that a good image can be obtained. However, since this method performs a relatively large amount of calculation, the computational amount is large, and the interpolated image may have irregularity because the pixel value which is the middle value among adjacent pixel values is used as it is.

한편, 시간축 디인터레이싱은 필드간의 움직임 정보를 이용하여 시간축 상에서 필터링하는 방법이다. 상기 시간축 디인터레이싱에는 움직임 벡터를 이용하여 빠진 주사선의 화소 값을 구하는 움직임 보상(motion compensated: MC) 디인터레이싱 방법과, 움직임 벡터를 이용하지 않고 단순히 시간축 상으로 여러 종류의 필터를 이용하여 보간하는 움직임 비보상(non-MC) 디인터레이싱 방법이 있다.On the other hand, time axis deinterlacing is a method of filtering on the time axis using motion information between fields. The time axis deinterlacing includes a motion compensated (MC) deinterlacing method for obtaining pixel values of missing scan lines using a motion vector, and a motion non-compensation for interpolation using various types of filters on the time axis without using a motion vector. There is a (non-MC) deinterlacing method.

상기 MC 디인터레이싱 방법은 움직임 예측을 통하여 현재 필드의 전, 후 필드에서 움직임 벡터를 구하고 이를 이용하여 현재 필드의 빠진 화소의 값을 보간하는 방법이다. 상기 움직임 예측은 연속하는 홀수 필드와 짝수 필드 사이에서 수행되거나 같은 패리티(parity)를 갖는 필드 사이에서 수행될 수 있으나, 같은 패리티를 갖는 필드 사이에서 수행되었을 때 더 나은 성능을 나타낸다. 상기 MC 디인터레이싱 방법은 좋은 화질의 영상을 제공하지만, 이 경우 상기 움직임 예측의 동작이 정확하여야 하고, 상기 움직임 예측이 매우 복잡하여 실시간 처리에 어려운 단점이 있다.The MC deinterlacing method is a method of obtaining a motion vector in a field before and after a current field through motion prediction and using the same to interpolate missing pixel values of the current field. The motion prediction can be performed between successive odd and even fields or between fields with the same parity, but better performance when performed between fields with the same parity. The MC de-interlacing method provides an image of good quality, but in this case, the motion prediction operation must be accurate, and the motion prediction is very complicated, which is difficult in real time processing.

이에 비하여, 상기 non-MC 디인터레이싱 방법은 여러 필드에 대한 움직임 정보를 사용하지만 움직임 벡터를 이용하지 않고 시간축에서의 단순한 필터링을 이용하여 디인터레이싱을 수행하는 방법이다. 즉, 디인터레이싱을 할 때 여러 필드에 대한 움직임 정보를 사용하지만, 움직임 벡터를 사용하지 않고 주변 화소 값만을 이용하여 보간하는 방법이다. 상기 non-MC 디인터레이싱 방법은 공간축 상에서 ZOH 보간 함수나 선형 보간 함수를 이용하는 방법과 유사하다.In contrast, the non-MC deinterlacing method is a method of performing deinterlacing using simple filtering on the time axis using motion information for various fields but not using a motion vector. In other words, when deinterlacing, motion information of various fields is used, but the interpolation is performed using only surrounding pixel values without using a motion vector. The non-MC deinterlacing method is similar to the method using a ZOH interpolation function or a linear interpolation function on the spatial axis.

앞서 설명한 바와 같이, 디인터레이싱에는 움직임 정보를 이용한 방법과, 움직임 정보를 이용하지 않는 방법이 있다. 상기 움직임 정보를 이용하지 않는 방법이 바로 공간축 디인터레이싱 방법이다. 상기 공간축 디인터레이싱 방법에는 라인 평균(averaging), 가중 메디안 필터링(weighted median filtering), ELA(edge-based line averaging) 등의 방법이 있다. 상기 움직임 정보를 이용하는 방법이 시간축 디인터레이싱 방법이고, 이중에서 non-MC 디인터레이싱 방법은 일본 NEC사의 스캔 컨버터용 칩(SDA 9400)에 사용되고 있다.As described above, de-interlacing includes a method using motion information and a method not using motion information. The method of not using the motion information is a spatial axis deinterlacing method. The spatial axis deinterlacing methods include line averaging, weighted median filtering, and edge-based line averaging. A method of using the motion information is a time base deinterlacing method, and a non-MC deinterlacing method is used in a scan converter chip (SDA 9400) of NEC of Japan.

상기 SDA 9400에서 사용된 종래의 non-MC 디인터레이싱 방법은 공간축 필터링과 시간축 필터링을 결합한 움직임 적응(motion adaptive) 디인터레이싱 방법이다. 종래의 non-MC 디인터레이싱 방법은 격행 주사 방식의 입력 영상의 전, 후 필드를 이용하여 움직임을 예측하고 그 움직임의 존재 유무를 결정한다. 상기 움직임에 대한 정보를 추출하기 위해 3개의 필드를 이용한 3-D 움직임 감지를 한다. 이때, 라인간의 화소 값 차이, 필드간의 화소 값 차이, 프레임간의 화소 값 차이가 사용된다. 이후, 상기 움직임 정보에 대한 움직임 값이 결정되면, 보간할 화소 값을 상기 움직임 값에 따라 적응적으로 공간축 필터와 시간축 필터를 적용하여 보간한다. 즉, 움직임이 있을 경우에는 공간 영역에 더욱 많은 정보가 있으므로 공간축 필터로서 선형 보간 함수를 사용하여 보간하고, 움직임이 없을 경우에는 시간 영역에 더욱 많은 정보가 있으므로 시간축 필터로서 3-포인트 메디안 필터(3-point median filter)를 사용하여 보간한다.The conventional non-MC deinterlacing method used in the SDA 9400 is a motion adaptive deinterlacing method combining spatial axis filtering and time axis filtering. The conventional non-MC deinterlacing method predicts a motion by using before and after fields of an input image of a conventional scan method and determines the presence or absence of the motion. 3-D motion detection is performed using three fields to extract the information on the motion. In this case, a pixel value difference between lines, a pixel value difference between fields, and a pixel value difference between frames are used. Subsequently, when the motion value for the motion information is determined, the pixel value to be interpolated is interpolated by adaptively applying a spatial axis filter and a time axis filter according to the motion value. That is, since there is more information in the spatial domain when there is motion, it is interpolated using the linear interpolation function as a spatial axis filter. When there is no motion, since there is more information in the time domain, the 3-point median filter ( Interpolate using a 3-point median filter.

이를 좀 더 상세히 언급하면, 예를 들어 도 1에 도시된 바와 같이, k 번째 필드에 있어서, i, i+1 번째 라인의 이웃한 화소들의 화소 값이 각각 a, b이고, 상기 i, i+1 번째 라인 사이의 보간될 라인의 화소 값이 A인 경우, 상기 움직임이 있으면, 공간축 필터로서 선형 보간 함수를 사용하여 상기 화소 값 A을 수학식 1에 의해 보간하여준다.More specifically, for example, as shown in FIG. 1, in the k-th field, pixel values of neighboring pixels of the i and i + 1 th lines are a and b, respectively, and i and i + When the pixel value of the line to be interpolated between the first lines is A, if there is the movement, the pixel value A is interpolated by Equation 1 using a linear interpolation function as a spatial axis filter.

A = (a + b)/2A = (a + b) / 2

상기 움직임이 없으면, 시간축 필터인 3-포인트 메디안 필터를 사용하여 상기 화소 값 A을 수학식 2에 의해 보간하여준다.If there is no motion, the pixel value A is interpolated by Equation 2 using a three-point median filter.

A = med(a, b, Aprev)A = med (a, b, Aprev)

여기서, Aprev는 K-1 번째 필드 내의 보간된 라인의 동일 화소에서의 화소 값이다.Here, Aprev is a pixel value in the same pixel of the interpolated line in the K-1th field.

그런데, 상기 움직임 정보가 추출되고 나면, 여러 필드를 통해 따로 떨어진 움직임이나 정지 영역 내에 있는 움직임 등을 제거함으로써 잡음에 의한 잘못된 움직임 정보를 수정할 수 있다. 이를 위해 후처리 필터로서 메디안 필터가 통상적으로 사용된다.However, after the motion information is extracted, the wrong motion information due to noise can be corrected by removing the motion separated from each other through the various fields or the motion in the still area. For this purpose, a median filter is commonly used as a post-treatment filter.

그러나, 종래의 non-MC 디인터레이싱 방법에서는 후처리 필터가 사용되지 않으므로 움직임 정보에 대한 신뢰성이 떨어진다. 또한, 상기 공간축 필터로서 사용된 선형 보간 함수는 보간 완료된 영상 정보의 경계 부분을 흐리게 만드는 문제점이 있다. 이로써, 대화면 디스플레이장치의 화질이 열화된다.However, since the post-processing filter is not used in the conventional non-MC deinterlacing method, the reliability of the motion information is low. In addition, the linear interpolation function used as the spatial axis filter has a problem of blurring the boundary portion of the interpolated image information. As a result, the image quality of the large screen display device is degraded.

한편, 상기 ELA 방법은 상기 움직임 정보를 이용하지 않고 공간 영역에서 수행되는 방법 중에서 대표적인 방법이다. 상기 ELA 방법은 손실된 라인의 이웃 라인에 있는 화소 값 중 수직, 대각선 방향 중에서 상관도(Correlation)가 가장 높은 방향에 있는 화소 값들의 평균값을 사용하는 방법인데, 계산이 간단하고 하드웨어 구현이 쉬워 널리 사용되고 있다.Meanwhile, the ELA method is a representative method among methods performed in a spatial domain without using the motion information. The ELA method is a method of using an average value of pixel values in a direction having the highest correlation among vertical and diagonal directions among pixel values in a neighboring line of a lost line. It is used.

종래의 ELA 방법은 보간될 화소의 값의 상관도에 따라 경계선(edge)의 방향을 결정하고 그 에지 방향에 해당하는 화소 값을 평균하여 보간하는 방법이다. 즉, 보간될 화소를 중심으로 3 X 3 크기의 창(window)을 설정하고, 상기 창 안에서 공간적으로 대칭 상태에 놓인 화소 값들의 상관도를 계산하여 상관도가 가장 높은 방향의 화소 값들을 평균함으로써 상기 보간될 화소 값을 추정한다.The conventional ELA method is a method of determining the direction of an edge in accordance with the correlation between the values of pixels to be interpolated and interpolating by averaging pixel values corresponding to the edge direction. That is, by setting a 3 X 3 window with respect to the pixel to be interpolated, and calculating the correlation between the pixel values placed in the spatially symmetrical state in the window, average the pixel values in the direction of highest correlation The pixel value to be interpolated is estimated.

이를 좀 더 상세히 언급하면, 종래의 ELA 방법에서 고려되는 경계선의 방향은 수직 방향과 대각선 방향이다. 가령, 보간될 화소가 i 번째 라인 상의 j 번째 화소이고 그 화소 값이 x(i,j)라고 가정하면, 도 2에 도시된 바와 같이, 상기 보간될 화소를 중심으로 한 3 X 3 크기의 창을 설정한다. 상기 창에서 i-1 번째 라인 상의 j-1, j, j+1 번째 화소 값이 각각 x(i-1, j-1), x(i-1,j), x(i-1,j+1)이고, i+1 번째 라인 상의 j-1, j, j+1 번째 화소 값이 각각 x(i+1,j-1), x(i+1,j), x(i+1,j+1)이다.In more detail, the direction of the boundary line considered in the conventional ELA method is a vertical direction and a diagonal direction. For example, assuming that the pixel to be interpolated is the j-th pixel on the i-th line and that pixel value is x (i, j), as shown in FIG. 2, a 3 X 3 sized window centering on the pixel to be interpolated Set. In the window, j-1, j, and j + 1th pixel values on the i-1th line are x (i-1, j-1), x (i-1, j), and x (i-1, j, respectively. +1) and the j-1, j, j + 1 th pixel values on the i + 1 th line are x (i + 1, j-1), x (i + 1, j), x (i + 1), respectively. , j + 1).

상기 보간될 화소의 경계선 방향은 3개의 주변 화소 값 사이의 차이(C1),(C2),(C3)에 의해 결정된다. 상기 차이(C1),(C2),(C3)는 다음의 수학식 3에 의해 계산될 수 있다.The boundary direction of the pixel to be interpolated is determined by the differences C1, C2, and C3 between three peripheral pixel values. The differences C1, C2, and C3 may be calculated by Equation 3 below.

이때, 가장 작은 값 차이를 나타내는 방향이 상관도가 가장 높은 방향이 되므로 그 방향에 해당하는 화소 값들에 의해 x(i,j)가 보간된다. 상기 C1, C2, C3이 각각 최소인 경우에 있어서 x(i,j)는 다음의 수학식 4에 의해 계산될 수 있다.At this time, since the direction showing the smallest difference is the direction having the highest correlation, x (i, j) is interpolated by the pixel values corresponding to the direction. In the case where C1, C2, and C3 are the minimum, x (i, j) can be calculated by the following equation (4).

즉, C1,C3가 최소가 되는 경우에는 경계선 방향이 대각선 방향이므로 해당 대각선 방향에 위치한 화소 값들의 평균값이 상기 보간될 화소 값으로 된다. C2가 최소가 되는 경우에는 경계선 방향이 수직 방향이므로 수직 방향에 위치한 화소 값들의 평균값이 상기 보간될 화소 값으로 된다.That is, when C1 and C3 are minimum, since the boundary line direction is a diagonal direction, the average value of pixel values located in the diagonal direction becomes the pixel value to be interpolated. When C2 is minimum, since the boundary line direction is vertical, the average value of pixel values located in the vertical direction becomes the pixel value to be interpolated.

그런데, 종래의 ELA 방법은 수직 경계선이나 대각선 경계선에 대해서는 양호하게 동작하나, 수평 경계선에 대하여 고려를 하지 않으므로 수평 경계선에 해당하는 값을 제대로 보간할 수 없다. 즉, 상기 보간될 화소를 통과하는 수평 경계선이 있다면, 상기 수평 경계선이 억지로 수직 경계선 또는 대각선 방향의 경계선으로 고려됨으로써 상기 보간될 화소 값 x(i,j)가 잘못 보간된다. 그 결과, 수평 경계선 부분에서 수평 경계선이 선명하게 나타나지 않으므로 대화면의 PDP에서 화질 열화가 심해진다.However, the conventional ELA method works well for a vertical boundary line or a diagonal boundary line, but does not consider the horizontal boundary line and thus cannot interpolate a value corresponding to the horizontal boundary line properly. That is, if there is a horizontal boundary line passing through the pixel to be interpolated, the horizontal boundary line is forcibly considered as a vertical boundary line or a diagonal boundary line, thereby incorrectly interpolating the pixel value x (i, j) to be interpolated. As a result, since the horizontal boundary lines do not appear clearly in the horizontal boundary portions, the image quality deteriorates in the PDP of the large screen.

이와 같이, 종래의 ELA 방법은 여러 다양한 영상에 대해 비교적 안정적인 성능을 나타내나 수평 경계선이 많은 영상에 대해서는 그 성능이 저하되므로 화질이 열화된다. 이는 종래의 ELA 방법에서 수평 경계선에 대한 고려가 없기 때문에 수평 경계선이 포함된 화소라고 할지라도 수직 경계선이나 대각선 경계선과 동일하게 처리하기 때문이다. 이를 개선하기 위해서는 먼저, 수평 경계선을 검출해내어야 하고 또 그에 해당하는 화소를 적절히 보간해주어야 한다. 그래서, 수평 경계선이 검출되지 않으면 해당 화소를 종래의 ELA 방법으로 보간하고, 수평 경계선이 검출되면 해당 화소를 다른 방식으로 보간해주어야 할 필요가 있다.As described above, the conventional ELA method has a relatively stable performance with respect to various images, but the performance is deteriorated with respect to an image having a large number of horizontal boundaries, thereby degrading image quality. This is because in the conventional ELA method, since there is no consideration of the horizontal boundary line, even the pixel including the horizontal boundary line is treated the same as the vertical boundary line or the diagonal boundary line. To improve this, first, a horizontal boundary line must be detected and the corresponding pixel must be interpolated appropriately. Therefore, if a horizontal boundary line is not detected, it is necessary to interpolate the pixel by a conventional ELA method, and when the horizontal boundary line is detected, the pixel needs to be interpolated in a different manner.

따라서, 본 발명의 목적은 영상의 경계 부분을 선명하게 나타내도록 한 움직임 적응 시공간 디인터레이싱 방법을 제공하는데 있다.Accordingly, an object of the present invention is to provide a motion adaptive space-time de-interlacing method to clearly display the boundary portion of the image.

본 발명의 다른 목적은 영상의 수평 경계선 부분을 선명하게 나타내도록 한 움직임 적응 시공간 디인터레이싱 방법을 제공하는데 있다.Another object of the present invention is to provide a motion-adaptive space-time deinterlacing method for clearly displaying a horizontal boundary portion of an image.

본 발명의 또 다른 목적은 화질 열화를 개선시키도록 한 움직임 적응 시공간 디인터레이싱 방법을 제공하는데 있다.It is still another object of the present invention to provide a motion adaptive space-time deinterlacing method for improving image quality deterioration.

도 1은 종래 기술에 의한 움직임 비보상(non-motion compensated: non MC) 시간축 상의 디인터레이싱 방법에 적용된 화소 값의 보간을 설명하기 위한 예시도.1 is an exemplary diagram for explaining interpolation of pixel values applied to a de-interlacing method on a non-motion compensated (non MC) time axis according to the prior art.

도 2는 본 발명이 적용된 3X3 창을 나타낸 예시도.Figure 2 is an exemplary view showing a 3X3 window to which the present invention is applied.

도 3은 본 발명에 의한 움직임 적응 시공간 디인터레이싱 방법을 나타낸 플로우차트.3 is a flowchart showing a motion adaptive space-time deinterlacing method according to the present invention.

도 4는 본 발명이 적용된 움직임 감지를 위한 4개의 연속 필드들을 나타낸 예시도.4 is an exemplary diagram showing four continuous fields for motion detection to which the present invention is applied.

도 5는 본 발명이 적용된 5-포인트 메디안 필터를 나타낸 예시도.5 is an exemplary view showing a five-point median filter to which the present invention is applied.

도 6은 본 발명에 의한 움직임 적응 시공간 디인터레이싱 방법의 공간축 필터링을 나타낸 상세 플로우차트.6 is a detailed flowchart illustrating spatial axis filtering of a motion adaptive space-time deinterlacing method according to the present invention.

이와 같은 목적을 달성하기 위한 본 발명에 의한 움직임 적응 시공간 디인터레이싱 방법은Motion-adaptive space-time deinterlacing method according to the present invention for achieving the above object

격행 주사 방식의 입력 영상의 시간적으로 연속적인 복수개의 필드 데이터에서 현재 보간할 화소를 포함한 일정 크기의 창 내의 화소 값들을 검출하고 상기 필드간의 화소 값 차이를 계산, 비교하여 움직임 값을 검출하는 단계; 상기 움직임 값이 소정의 문턱값을 초과하는 지 여부를 판별하는 단계; 상기 움직임 값이 상기 문턱값을 초과하는, 움직임이 있는 것으로 간주되는 경우이면, 상기 보간할 화소의 화소 값을 공간축 정보에 가중치를 두고 보간하는 공간축 필터링을 실시하는 단계; 및 상기 움직임 값이 상기 문턱값 이하인, 움직임이 없는 것으로 간주되는 경우이면, 상기 보간할 화소의 화소 값을 시간축 정보에 가중치를 두고 보간하는 시간축 필터링을 실시하는 단계를 포함하는 것을 특징으로 한다.Detecting a motion value by detecting pixel values in a window of a predetermined size including pixels to be interpolated from a plurality of temporally continuous field data of an input image of a parallel scan method, and calculating and comparing pixel value differences between the fields; Determining whether the motion value exceeds a predetermined threshold; Performing spatial axis filtering to interpolate the pixel value of the pixel to be interpolated with weights to spatial axis information if the motion value is considered to be motion exceeding the threshold value; And if it is determined that there is no motion, wherein the motion value is less than or equal to the threshold value, performing time-base filtering to interpolate the pixel value of the pixel to be interpolated with time-axis information.

바람직하게는, 상기 문턱값으로 8 과 16 중 어느 하나를 선택하여 사용할 수 있다.Preferably, one of 8 and 16 may be selected and used as the threshold.

바람직하게는, 상기 움직임 값이 상기 문턱값을 초과하는 지 여부를 판별하고 나서 후처리 필터링을 실시하는 단계를 포함할 수 있다.Preferably, the method may include performing post-processing filtering after determining whether the motion value exceeds the threshold.

바람직하게는 상기 공간축 필터링 단계는Preferably, the space axis filtering step

상기 격행 주사 방식의 입력 영상에 대한 소정의 필드 데이터에서 현재 보간할 화소를 중심으로 한 일정 크기의 창 내의 화소 값을 검출하고, 수평, 수직, 대각선 방향의 화소 값 차이를 구하여 상기 보간할 화소가 수평 경계선인지 아닌 지를 판별하는 단계; 상기 보간할 화소가 상기 수평 경계선인 것으로 판별되면, 상기보간할 화소를 수평 보간하는 단계; 및 상기 보간할 화소가 상기 수평 경계선이 아닌 것으로 판별되면, 상기 보간할 화소를 이엘에이(ELA) 법에 의해 보간하는 단계를 포함하는 것을 특징으로 한다.The pixel values to be interpolated are detected by detecting pixel values in a window of a predetermined size centering on the pixels to be interpolated from predetermined field data of the input image of the interlocking scan method, and obtaining a pixel value difference in horizontal, vertical, and diagonal directions. Determining whether or not it is a horizontal boundary line; If it is determined that the pixel to be interpolated is the horizontal boundary line, horizontal interpolating the pixel to be interpolated; And if it is determined that the pixel to be interpolated is not the horizontal boundary line, interpolating the pixel to be interpolated by ELA method.

바람직하게는, 상기 보간할 화소가 상기 수평 경계선인지 아닌 지를 판별하는 단계는 상기 보간할 화소를 중심으로 한 3X3 크기의 창에서 상기 보간할 화소에 대한 수직, 대각선, 수평 경계선 방향의 화소 값 차이를 각각 계산하는 단계; 및 상기 화소 값 차이 중에서 상기 수평 경계선 방향의 화소 값 차이가 최소인지 아닌 지를 판별함으로써 상기 보간할 화소가 상기 수평 경계선인지 아닌 지를 판별하는 단계를 포함할 수 있다.Preferably, the step of determining whether or not the pixel to be interpolated is the horizontal boundary line may be performed by determining a difference in pixel values in a vertical, diagonal, and horizontal boundary direction with respect to the pixel to be interpolated in a 3 × 3 size window centering on the pixel to be interpolated. Calculating each; And determining whether the pixel to be interpolated is the horizontal boundary by determining whether the pixel value difference in the horizontal boundary line direction is the minimum among the pixel value differences.

바람직하게는, 상기 수평 경계선 방향의 화소 값 차이가 최소로 판별되면, 상기 수평 경계선이 배경 영역인 지 아닌 지를 판별하는 단계를 포함할 수 있다.Preferably, the method may include determining whether the horizontal boundary line is a background region when the pixel value difference in the horizontal boundary line direction is determined to be minimum.

바람직하게는, 상기 수평 경계선 방향의 화소 값 차이가 최소가 아닌 것으로 판별되면, 상기 보간할 화소를 상기 이엘에이법에 의해 보간할 수 있다.Preferably, when it is determined that the difference in pixel values in the horizontal boundary direction is not the minimum, the pixel to be interpolated may be interpolated by the EL method.

바람직하게는, 상기 수평 경계선이 상기 배경 영역이 아닌 것으로 판별되면, 상기 경계선이 텍스처 영역인 지 아닌 지를 판별하는 단계 포함할 수 있다.Preferably, if it is determined that the horizontal boundary line is not the background area, it may include determining whether the boundary line is a texture area.

바람직하게는, 상기 수평 경계선이 상기 배경 영역인 것으로 판별되면, 상기 보간할 화소를 상기 이엘에이법에 의해 보간할 수 있다.Preferably, when it is determined that the horizontal boundary line is the background area, the pixel to be interpolated may be interpolated by the EL method.

바람직하게는, 상기 경계선이 상기 텍스처 영역이 아닌 것으로 판별되면, 상기 보간할 화소를 수평 보간하고, 상기 경계선이 상기 텍스처 영역인 것으로 판별되면, 상기 이엘에이법에 의해 보간할 수 있다.Preferably, when it is determined that the boundary line is not the texture area, the pixel to be interpolated is horizontally interpolated, and when it is determined that the boundary line is the texture area, it may be interpolated by the EL method.

바람직하게는, 상기 수평 보간의 단계는 상기 보간할 화소가 상기 수평 경계선의 시작점인 지 아닌 지를 판별하는 단계; 상기 수평 경계선의 시작점으로 판별되면, 상기 보간할 화소의 화소 값을 라인 평균으로 결정하는 단계; 및 상기 수평 경계선의 시작점으로 판별되지 않고 연속되는 수평 경계선에 해당하는 것으로 판별되면, 상기 보간할 화소의 화소 값을 수평 방향의 화소를 고려하여 보간하는 단계를 포함할 수 있다.Preferably, the step of horizontal interpolation comprises: determining whether the pixel to be interpolated is a starting point of the horizontal boundary line; Determining the pixel value of the pixel to be interpolated as a line average when it is determined as a starting point of the horizontal boundary line; And if it is determined that the image corresponds to a continuous horizontal boundary line without being determined as a starting point of the horizontal boundary line, interpolating a pixel value of the pixel to be interpolated in consideration of pixels in a horizontal direction.

이하, 본 발명의 실시 예에 의한 움직임 적응 시공간 디인터레이싱 방법을 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, a motion adaptive space-time deinterlacing method according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 3은 본 발명의 실시 예에 의한 움직임 적응 시공간 디인터레이싱 방법을 나타낸 플로우차트이다. 도 3을 참조하면, 먼저, 단계(S10)에서 격행 주사 방식의 입력 영상이 디인터레이싱부(도시 안됨)에 입력되면, 단계(S20)에서 상기 디인터레이싱부가 상기 입력 영상에 대한 시간적으로 연속적인 여러 필드 데이터간의 특정 라인들의 화소 값을 이용하여 동영상의 움직임이 있는 지 없는 지를 판별한다.3 is a flowchart illustrating a motion adaptive space-time deinterlacing method according to an embodiment of the present invention. Referring to FIG. 3, first, when an input image of a caterpillar scanning method is input to a deinterlacing unit (not shown) in step S10, the deinterlacing unit may continuously store various field data of the input image in step S20. Pixel values of specific lines in the liver are used to determine whether there is motion in the video.

이를 좀 더 상세히 언급하면, 상기 움직임을 감지하기 위해서는 이전 필드 데이터를 저장하는 버퍼가 필요하다. 움직임 감지를 위해 2개 필드의 영상 데이터를 저장하는 필드 메모리를 사용하는 경우와, 3개 필드의 영상 데이터를 저장하는 필드 메모리를 사용하는 경우가 있다. 필드 메모리의 수가 적을 경우에는 움직임 감지를 간단하게 구현할 수 있으나 빠르게 지나가는 움직임을 감지할 수 없기 때문에 움직임 감지 에러가 큰 단점이 있다. 본 발명에서는 가장 좋은 성능을 보이는 것으로 알려진, 3개 필드 메모리를 이용한 움직임 감지 방법을 사용하여 움직임을감지하는 것을 기준으로 설명하기로 한다.In more detail, in order to detect the movement, a buffer for storing previous field data is required. There are cases where a field memory for storing video data of two fields is used for motion detection and a field memory for storing video data of three fields. When the number of field memories is small, motion detection can be easily implemented, but motion detection error is a big disadvantage because it cannot detect fast moving motion. In the present invention, a motion detection method using three field memories, which are known to have the best performance, will be described based on detecting motion.

도 4에 도시된 바와 같이, 움직임 감지를 위한 연속된 4개 필드들, 예를 들어 i, j, k, l 번째 필드들이 Fi, Fj, Fk, Fl이고, 현재 필드가 Fk이고 이전 필드가 Fi, Fj이며 다음 필드가 Fl이다. 상기 필드 Fi, Fk에서 i 번째 라인 내의 j 번째 화소의 화소 값이 각각 ai, ak이고, i+1 번째 라인 내의 j 번째 화소의 화소 값이 bi, bk이다. 상기 필드 Fj, Fl에서 i, i+1 번째 라인 사이의 보간될 라인 내의 j 번째 화소의 화소 값이 cj, cl이다. 상기 필드 Fk에서 i, i+1 번째 라인의 j 번째 화소 사이의 화소, 즉 현재 보간할 화소의 화소 값이 zk이다.As shown in FIG. 4, four consecutive fields for motion detection, e.g., the i, j, k, l th fields are Fi, Fj, Fk, Fl, the current field is Fk and the previous field is Fi , Fj and the next field is Fl. In the fields Fi and Fk, pixel values of the j-th pixel in the i-th line are ai and ak, respectively, and pixel values of the j-th pixel in the i + 1th line are bi and bk. The pixel values of the j th pixel in the line to be interpolated between the i and i + 1 th lines in the fields Fj and Fl are cj and cl. In the field Fk, the pixel value of the pixel between the i-th, i-th line, j-th pixel, that is, the pixel to be interpolated is zk.

단계(S21)에서 현재 보간할 화소 주변의 화소에 대한 필드간의 화소 값 차이를 구한다. 즉, 상기 화소 값 ai, ak 사이의 화소 값 차이 D1과, 상기 화소 값 bi, bk 사이의 화소 값 차이 D2와, 상기 화소 값 cj,cl 사이의 화소 값 차이 D3을 수학식 5에 의해 계산한다.In step S21, the pixel value difference between fields for pixels around the pixel to be interpolated is obtained. That is, the pixel value difference D1 between the pixel values ai and ak, the pixel value difference D2 between the pixel values bi and bk, and the pixel value difference D3 between the pixel values cj and cl are calculated by Equation 5. .

상기 화소 값 차이 D1, D2, D3의 계산이 완료되고 나면, 단계(S23)에서 상기 화소 값 차이 D1, D2, D3을 서로 비교하여 이들 중 최대의 화소 값 차이를 움직임 값으로 결정한다.After the calculation of the pixel value differences D1, D2, and D3 is completed, in step S23, the pixel value differences D1, D2, and D3 are compared with each other to determine the maximum pixel value difference among them as a motion value.

상기 움직임 값이 결정되고 나면, 단계(S25)에서 상기 움직임 값이 문턱값(threshold), 예를 들어 실험치에 의해 결정된 8(또는 16)을 초과하는 지를 판단한다. 이때, 상기 움직임 값이 상기 문턱값을 초과하면, 상기 움직임이 있는 것으로 검출된다. 상기 움직임이 상기 문턱값을 초과하지 못하면, 상기 움직임이 없는 것으로 검출된다.After the motion value is determined, it is determined in step S25 whether the motion value exceeds a threshold, e.g., 8 (or 16) determined by the experimental value. At this time, if the motion value exceeds the threshold, it is detected that there is the motion. If the movement does not exceed the threshold, it is detected that there is no movement.

상기 움직임 값과 상기 문턱값이 비교되고 나면, 단계(S30)에서 상기 검출된 움직임에 대한 정보를 예를 들어 메디안 필터에 의해 후처리 필터링한다. 즉, 상기 움직임 값이 상기 문턱값을 초과하면, 단계(S31)에서 상기 검출된 움직임에 대한 정보를 예를 들어 메디안 필터에 의해 후처리 필터링한다. 상기 움직임 값이 상기 문턱값을 초과하지 않으면, 단계(S33)에서 상기 검출된 움직임에 대한 정보를 예를 들어 메디안 필터에 의해 후처리 필터링한다. 이는 순간적인 잡음 등으로 인하여 생긴 정지 영역 안에서는 움직임, 움직임 영역 안에서의 소실된 움직임을 보정해주기 위함이다. 영상처리 응용분야, 특히 디인터레이싱에 있어서, 경계선(edge)을 향상시키고 잡음을 제거하는데 메디안 필터가 가장 적합한 것으로 알려져 있다. 바이너리(binary) 움직임 정보에 있어서, 상기 메디안 필터는 따로 떨어진 움직임 정보를 없애거나 손실된 움직임 정보를 채워 넣어주는데 우수한 성능을 보여준다. 본 발명에서 사용된 메디안 필터는 도 5에 도시된 바와 같이, 5-포인트의 십자가 형태이며, 이로전(erosion), 다이레이션(dilation)보다 모두 좋은 성능을 보여준다. 한편, 상기 후처리 필터링 과정은 반드시 필요한 것이 아니라 선택적인 것이다.After the motion value is compared with the threshold value, in step S30, the information on the detected motion is post-processed filtered by, for example, a median filter. In other words, if the motion value exceeds the threshold, in step S31, the information on the detected motion is post-processed filtered by, for example, a median filter. If the motion value does not exceed the threshold value, in step S33, the information on the detected motion is post-processed filtered by, for example, a median filter. This is to compensate for the movement in the stationary region caused by the momentary noise, and the lost movement in the movement region. In image processing applications, especially deinterlacing, median filters are known to be most suitable for improving edges and removing noise. In binary motion information, the median filter shows excellent performance in eliminating separate motion information or filling in lost motion information. The median filter used in the present invention has a 5-point cross shape, as shown in FIG. 5, and shows better performance than erosion and dilation. On the other hand, the post-processing filtering process is not necessarily necessary but optional.

상기 후처리 필터링이 완료되고 나면, 단계(S40)에서 현재 보간할 화소의 화소 값을 상기 검출된 움직임 정보에 따라 적응적으로 보간한다. 이를 좀 더 상세히 언급하면, 도 2에 도시된 바와 같은 특정 필드 t의 창에서 현재 보간할 화소의 화소 값이 x(i,j)인 경우, x(i,j)의 움직임 값이 임의의 문턱값 이하이면, 단계(S41)에서 상기 화소 값 x(i,j)을 메디안 필터, 예를 들어 7-포인트 가중 메디안 필터(weighted median filter)에 의해 시간축 필터링한다. 가중 메디안 필터에서 시간영역 입력 샘플이 여러번 반복 사용된다. 이로써, 시간영역 샘플이 결과로 출력될 확률을 높이게 된다. 상기 가중 메디안 필터는 표준 메디안 필터의 확장형이다. 상기 가중 메디안 필터는 다음의 수학식 6에 의해 표현될 수 있다.After the post-processing filtering is completed, in step S40, the pixel value of the pixel to be currently interpolated is adaptively interpolated according to the detected motion information. In more detail, when the pixel value of the pixel to be interpolated currently is x (i, j) in a window of a specific field t as shown in FIG. 2, the motion value of x (i, j) is an arbitrary threshold. If less than the value, in step S41, the pixel value x (i, j) is time-base filtered by a median filter, for example a 7-point weighted median filter. In the weighted median filter, time-domain input samples are used repeatedly. This increases the probability that a time domain sample is output as a result. The weighted median filter is an extension of the standard median filter. The weighted median filter may be represented by Equation 6 below.

y = med[x(i-1,j-1,t),x(i-1,j,t),x(i-1,j+1,t), x(i+1,j-1,t), x(i+1,j,t), x(i+1,j+1,t), 3 X x(i,j,t-1)]y = med [x (i-1, j-1, t), x (i-1, j, t), x (i-1, j + 1, t), x (i + 1, j-1 , t), x (i + 1, j, t), x (i + 1, j + 1, t), 3 X x (i, j, t-1)]

상기 움직임 값이 상기 문턱값보다 크면, 즉 상기 움직임이 있으면, 단계(S43)에서 공간축 정보에 가중치를 두는 공간축 필터링을 실시한다. 즉, 도 6에 도시된 바와 같이, 먼저, 단계(S430)에서 상기 격행 주사 방식의 입력 영상의 보간할 화소가 수평 경계선인지 아닌 지를 판별한다. 이를 좀 더 상세히 언급하면, 단계(S431)에서 도 2에 도시한 바와 같은 3X3 창 내의 보간될 화소 값 x(i,j)에 대한 수평 방향의 상관도를 구하기 위해 화소 값 차이(C4),(C5)를 다음의 수학식 7에 의해 계산한다. 또한, 이미 설명한 바와 같이 C1, C2, C3도 함께 계산한다.If the motion value is larger than the threshold value, that is, if there is the motion, spatial axis filtering is performed to weight the spatial axis information in step S43. That is, as shown in FIG. 6, first, in step S430, it is determined whether the pixel to be interpolated of the input image of the catenary scanning method is a horizontal boundary line. In more detail, in step S431, the pixel value difference C4, in order to obtain a correlation in the horizontal direction with respect to the pixel value x (i, j) to be interpolated in the 3X3 window as shown in FIG. C5) is calculated by the following equation. As already explained, C1, C2, and C3 are also calculated.

여기서, C4는 상기 보간될 화소가 있는 i 번째 라인의 위 라인, 즉 i-1 번째 라인에서 상기 보간될 화소에 대한 수평 방향 좌, 우 화소의 화소 값 차이이다. C5는 상기 보간될 화소가 있는 i 번째 라인의 아래 라인, 즉 i+1 번째 라인에서 상기 보간될 화소에 대한 수평 방향 좌, 우 화소의 화소 값 차이이다.Here, C4 is a difference in pixel values of horizontal left and right pixels with respect to the pixel to be interpolated on the line above the i-th line where the pixel to be interpolated is located, that is, the i-1 th line. C5 is a pixel value difference of horizontal left and right pixels with respect to the pixel to be interpolated in the line below the i-th line where the pixel to be interpolated is located, i.

상기 C1, C2, C3, C4, C5가 계산되고 나면, 단계(S433)에서 상기 C1, C2, C3, C4, C5를 비교하여 상기 C1, C2, C3, C4, C5 중 최소값을 선정한다. 이때, 상기 최소값을 갖는 경계선 방향이 상관도가 가장 높은 경계선 방향이 된다. 예를 들어, 상기 C1,C2,C3, C4,C5 중에서 C4 또는 C5가 최소값이면, 상기 상관도가 가장 높은 경계선 방향은 수평 경계선 방향이 되므로 상기 보간될 화소가 수평 경계선 상에 있는 것으로 간주된다. 상기 C1,C2,C3, C4,C5 중에서 C4 또는 C5가 최소값이 아니면, 상기 상관도가 가장 높은 방향이 수평 경계선 방향이 아니므로 상기 보간될 화소가 수평 경계선 상에 있지 않은 것으로 간주된다.After the C1, C2, C3, C4 and C5 are calculated, the minimum value of the C1, C2, C3, C4 and C5 is selected by comparing the C1, C2, C3, C4 and C5 in step S433. At this time, the boundary line direction having the minimum value becomes the boundary line direction having the highest correlation. For example, if C4 or C5 is the minimum value among the C1, C2, C3, C4, and C5, the boundary line direction having the highest correlation becomes the horizontal boundary line direction, and thus the pixel to be interpolated is considered to be on the horizontal boundary line. If C4 or C5 is not the minimum among the C1, C2, C3, C4, and C5, the pixel to be interpolated is not considered to be on the horizontal boundary because the direction having the highest correlation is not the horizontal boundary.

그러나, 이와 같은 방법으로 수평 경계선의 여부를 판별하는 경우, 배경 영역 또한 수평 경계선으로 판별될 에러의 발생 가능성이 높다. 그러므로, 상기 배경 영역이 수평 경계선으로 판별되는 에러를 방지하기 위해 상기 수평 경계선이 상기 배경 영역인 지를 판단해 줄 필요가 있다.However, in the case of determining whether or not a horizontal boundary line is used in this manner, the background area also has a high possibility of an error to be determined as a horizontal boundary line. Therefore, in order to prevent an error in which the background area is determined as a horizontal boundary line, it is necessary to determine whether the horizontal boundary line is the background area.

상기 보간될 화소가 상기 수평 경계선 상에 있는 것으로 간주되면, 단계(S435)에서 상기 수평 경계선이 상기 배경 영역인 지 아닌 지를 판별한다. 즉, 상기 보간될 화소의 이웃한 상, 하 라인 사이의 값 차이가 수직 방향으로 미리 설정된 문턱값(threshold), 예를 들어 5∼8의 값 이상인 지를 판단한다.If the pixel to be interpolated is considered to be on the horizontal boundary line, it is determined in step S435 whether the horizontal boundary line is the background area or not. That is, it is determined whether the difference in values between adjacent upper and lower lines of the pixel to be interpolated is equal to or greater than a threshold value, for example, 5 to 8, which is preset in the vertical direction.

이때, 상기 상, 하 라인 사이의 화소 값 차이가 상기 문턱값 이상이면, 상기 경계선은 배경 영역이 아니므로 상기 경계선을 수평 경계선으로 간주한다. 상기 상, 하 라인 사이의 화소 값 차이가 상기 문턱값보다 작으면, 상기 경계선을 배경 영역으로 간주한다.In this case, when the pixel value difference between the upper and lower lines is greater than or equal to the threshold value, the boundary line is not a background area, so the boundary line is regarded as a horizontal boundary line. When the pixel value difference between the upper and lower lines is smaller than the threshold value, the boundary line is regarded as a background area.

상기 경계선이 배경 영역으로 판별되고 나면, 단계(S437)에서 상기 경계선이 있는 영역이 텍스처(texture) 영역인 지 아닌 지를 판별한다. 즉, 화소 값의 차이(d1),(d2),(d3)를 다음의 수학식 8에 의해 구한다. 이는 상기 경계선이 수평 경계선으로 간주되더라도 상기 화소 값이 빠르게 변하는 텍스처 형태의 영상에서는 상기 검출된 경계선이 수평 경계선이 아님에도 불구하고 수평 경계선으로 잘못 검출되기 쉬우므로 상기 경계선이 포함된 텍스처 영역을 제거하기 위함이다.After the boundary line is determined as the background area, it is determined in step S437 whether the area having the boundary line is a texture area or not. In other words, the difference d1, d2, and d3 of the pixel value is obtained by the following expression (8). Although the boundary line is regarded as a horizontal boundary line, in a texture-type image in which the pixel value changes rapidly, the detected boundary line is not easily detected as a horizontal boundary line even though the boundary line is not a horizontal boundary line. For sake.

그런 다음, 상기 차이(d1),(d2),(d3)의 부호가 모두 동일한 양(또는 음) 인지 아닌 지를 판단하다. 이때, 상기 차이(d1),(d2),(d3)의 부호가 모두 동일한 양(또는 음)이면, 상기 경계선을 도 2의 3X3 창에서 연속되는 경계선으로 볼 수 있고, 이때에만 상기 경계선을 진정한 수평 경계선으로 간주될 수 있다.Then, it is determined whether the signs of the differences d1, d2, and d3 are all the same positive (or negative). At this time, if the sign of the difference (d1), (d2), (d3) are all the same (or negative), the boundary line can be seen as a continuous boundary line in the 3X3 window of Figure 2, only when the boundary line is true It can be considered as a horizontal boundary line.

반면에, 상기 차이(d1),(d2),(d3)의 부호가 모두 동일한 양(또는 음)이 아니면, 상기 경계선이 도 2의 3X3 창에서 연속되는 경계선으로 볼 수 없다. 이때의 상기 경계선을 텍스처 영역으로 간주한다.On the other hand, if the signs of the difference (d1), (d2), (d3) are not all the same (or negative), the boundary line is not seen as a continuous boundary line in the 3X3 window of FIG. The boundary at this time is regarded as a texture region.

지금까지의 처리 과정에 의해 수평 경계선에 대한 정보를 찾아내긴 하였지만, 이 정보만으로 상기 수평 경계선의 보간할 화소 값에 가까운 값을 보간하기가 어렵다. 이는 상기 보간될 화소 값 x(i,j)를 중심으로 x(i,j-1)을 알고 있지만, x(i,j+1)을 알지 못하기 때문이다.Although information on the horizontal boundary line has been found by the process up to now, it is difficult to interpolate values close to the pixel values to be interpolated of the horizontal boundary line only with this information. This is because x (i, j-1) is known around the pixel value x (i, j) to be interpolated, but x (i, j + 1) is not known.

상기 x(i,j+1)의 값을 모르는 상태에서 수평 경계선인 화소 값 x(i,j)를 보간할 때, x(i,j-1)은 중요한 정보가 된다. 이는 도 2의 3X3 창에서 현재 알고 있는 화소 값 중에서 x(i,j-1)이 수평 경계선의 화소 값 x(i,j)에 가장 가까운 값이기 때문이다. 그러나, x(i,j-1)의 값을 반영시킬 경우에 고려하여야 할 점이 있다. 만일, x(i,j)가 수평 경계선의 시작점이라면, x(i,j-1)은 종래의 ELA법의 알고리즘에 의해 보간되었을 것이고, 그 화소는 수평 경계선이 아닐 가능성이 높다. 상기 수평 경계선이 아닌 화소 값 x(i,j-1)이 x(i,j)의 보간에 영향을 미치면, 수평 경계선 영역에 지속적으로 좋지 않은 영향이 미치게 된다.When interpolating a pixel value x (i, j) which is a horizontal boundary line without knowing the value of x (i, j + 1), x (i, j-1) becomes important information. This is because x (i, j-1) is closest to the pixel value x (i, j) of the horizontal boundary among pixel values currently known in the 3X3 window of FIG. 2. However, there is a point to be considered when reflecting the value of x (i, j-1). If x (i, j) is the starting point of the horizontal boundary line, x (i, j-1) would have been interpolated by the algorithm of the conventional ELA method, and the pixel is likely not the horizontal boundary line. If the pixel value x (i, j-1) that is not the horizontal boundary line affects the interpolation of x (i, j), the adverse effect continues on the horizontal boundary line area.

이러한 점을 고려하여 상기 보간될 화소가 상기 수평 경계선 상에 있으면, 단계(S530)에서 상기 보간될 화소 값을 본 발명의 수평 보간에 의해 처리하고, 상기 보간될 화소가 상기 수평 경계선 상에 있지 않으면, 단계(S630)에서 상기 보간될 화소 값을 종래의 ELA법의 보간에 의해 처리한다.Considering this point, if the pixel to be interpolated is on the horizontal boundary line, the pixel value to be interpolated is processed by the horizontal interpolation of the present invention in step S530, and the pixel to be interpolated is not on the horizontal boundary line. In step S630, the pixel values to be interpolated are processed by interpolation of the conventional ELA method.

상기 단계(S530)의 과정을 좀 더 상세히 언급하면, 단계(S531)에서 상기 보간될 화소가 수평 경계선의 시작점인 지 아닌 지를 판별한다. 이때, 상기 보간될 화소가 수평 경계선의 시작점이면, 수평 경계선이나 대각선 경계선과는 무관하게 보간하고자 하는 화소와 가장 가까운 위치에 있는 값을 주는 것이 가장 좋다. 따라서, 단계(S533)에서 상기 경계선의 시작점에 해당하는 화소 값 x(i,j)을 공간적으로 가장 가까운 화소 값들 x(i-1,j), x(i+1,j)의 평균값으로 일률적으로 결정한다. 즉, 상기 화소가 상기 수평 경계선의 시작점이면, 상기 화소 값 x(i,j)을 다음의 수학식 9에 의해 결정한다.Referring to the process of step S530 in more detail, it is determined in step S531 whether the pixel to be interpolated is a starting point of a horizontal boundary line. At this time, if the pixel to be interpolated is the starting point of the horizontal boundary line, it is best to give a value at the position closest to the pixel to be interpolated irrespective of the horizontal boundary line or the diagonal boundary line. Therefore, in step S533, the pixel value x (i, j) corresponding to the starting point of the boundary line is uniformly equal to the average value of the spatially closest pixel values x (i-1, j) and x (i + 1, j). Decide on That is, if the pixel is the starting point of the horizontal boundary line, the pixel value x (i, j) is determined by the following equation (9).

x(i,j) = {x(i-1,j) + x(i+1,j)}/2x (i, j) = {x (i-1, j) + x (i + 1, j)} / 2

한편, 상기 화소가 상기 경계선의 시작점이 아니고 연속되는 수평 경계선에 해당하는 위치에 있으면, 단계(S535)에서 화소의 값 x(i,j)을 종래의 ELA 법의 알고리즘에 x(i,j-1)을 반영하여 보간한다. 이는 화소간의 상관도를 고려함과 아울러 수평 경계선의 연속성을 함께 고려한 것이다. 즉, 연속되는 수평 경계선에 해당하는 화소일 경우, 수평 방향으로 인접한 화소 값 x(i,j-1)을 사용할 수 있으므로 상기 값 x(i,j)을 다음의 수학식 10에 의해 결정한다.On the other hand, if the pixel is not at the starting point of the boundary line but at a position corresponding to a continuous horizontal boundary line, in step S535, the value x (i, j) of the pixel is converted to the algorithm of the conventional ELA method x (i, j− Interpolate to reflect 1). This takes into account the correlation between the pixels and the continuity of the horizontal boundary. That is, in the case of a pixel corresponding to a continuous horizontal boundary line, the pixel value x (i, j-1) adjacent to each other in the horizontal direction may be used, and the value x (i, j) is determined by Equation 10 below.

이어서, 상기 단계(S530)이나 단계(S630)에서의 보간이 완료되고 나면, 도 3의 단계(50)에서 상기 보간된 영상을 순차 주사 방식으로 출력시킬 수 있다.Subsequently, after the interpolation in the step S530 or the step S630 is completed, the interpolated image may be sequentially output in step 50 of FIG. 3.

따라서, 본 발명은 본 발명은 움직임에 따라 적응적으로 보간할 수 있다. 또한, 본 발명은 수평 경계선의 시작점을 고려함으로써 종래의 ELA 방법보다 우수한 PSTN(pixel signal to noise) 값을 얻을 수가 있고, 수평 경계선 부분을 더욱 선명하게 나타낼 수 있다. 그 결과, 대화면의 LCD나 PDP와 같은 디스플레이장치에서 영상의 화질 열화가 개선될 수 있다.Therefore, the present invention can adaptively interpolate according to the present invention. In addition, the present invention can obtain a PSTN (pixel signal to noise) value superior to the conventional ELA method by considering the starting point of the horizontal boundary line, and can more clearly represent the horizontal boundary line portion. As a result, image quality deterioration can be improved in a display device such as a large LCD or a PDP.

한편, 본 발명에서는 하나의 화소에 대한 보간을 중점적으로 설명하였으나,실제로는 상기 화소의 보간이 완료되고 나면, 연속적으로 그 다음의 이웃한 화소에 대하여서도 동일한 방법으로 보간을 실시한다. 이에 대한 설명은 설명의 편의상 설명의 중복을 피하기 위해 생략하기로 한다.Meanwhile, in the present invention, interpolation for one pixel has been mainly described. In fact, once interpolation of the pixel is completed, interpolation is successively performed for the next neighboring pixel. Descriptions thereof will be omitted for convenience of description in order to avoid duplication of description.

이상에서 상세히 설명한 바와 같이, 본 발명에 의한 움직임 적응 시공간 디인터레이싱 방법은 격행 주사 방식의 입력 영상의 시간적으로 연속적인 여러 개의 필드 데이터에서 현재 보간할 화소를 포함한 일정 크기의 창 내의 화소 값들을 검출하고 상기 필드간의 화소 값 차이를 계산, 비교하여 움직임 값을 검출하고, 상기 움직임 값이 일정 문턱값을 초과하는 지 여부를 판별한다. 상기 움직임 값이 상기 문턱값 이하이면, 움직임이 없는 것으로 간주하고 시간축 필터링을 실시한다. 상기 움직임 값이 상기 문턱값을 초과하면, 움직임이 있는 것으로 간주하고 공간축 필터링을 실시한다. 즉, 상기 격행 주사 방식의 입력 영상의 특정 필드에 있어서, 현재 보간할 화소를 포함한 일정 크기의 창 내의 화소 값들을 검출하고 이들 화소 값들의 수직, 수평, 대각선 방향의 차이를 계산, 비교함으로써 현재 보간할 화소가 수평 경계선인 지 아닌 지를 판별한다. 이때, 수평 경계선이 아닌 것으로 판별되면, 상기 보간할 화소를 기존의 ELA법에 의해 보간한다. 수평 경계선인 것으로 판별되면, 수평 경계선을 고려하여 상기 보간할 화소를 수평 보간한다. 즉, 상기 보간할 화소가 수평 경계선의 시작점인 것으로 판별되면, 상기 보간할 화소 값을 상기 보간할 화소와 가장 가까운 상, 하 라인의 화소의 화소 값의 평균값으로 결정한다. 상기 보간할 화소가 수평 경계선의 시작점이 아니고 연속되는 수평 경계선에 해당하는 것으로 판별되면, 상기 보간할 화소 이전의 화소의 화소 값을 반영하여 ELA 법에 의해 보간한다.As described in detail above, the motion-adaptive space-time deinterlacing method according to the present invention detects pixel values in a window having a predetermined size including pixels to be interpolated from several temporally continuous field data of an input image of a conventional scanning method. The motion value is detected by comparing and comparing the pixel value difference between the fields, and it is determined whether the motion value exceeds a certain threshold. If the motion value is less than or equal to the threshold value, it is assumed that there is no motion and time axis filtering is performed. If the motion value exceeds the threshold, the motion is assumed to be present and spatial axis filtering is performed. That is, in a specific field of the input image of the conventional scanning method, current interpolation is performed by detecting pixel values in a window of a predetermined size including a pixel to be interpolated currently, and calculating and comparing the difference in the vertical, horizontal, and diagonal directions of the pixel values. It is determined whether or not the pixel to be made is a horizontal boundary line. At this time, if it is determined that it is not a horizontal boundary line, the pixel to be interpolated is interpolated by the existing ELA method. If it is determined that the image is a horizontal boundary line, the pixel to be interpolated is horizontally interpolated in consideration of the horizontal boundary line. That is, when it is determined that the pixel to be interpolated is a starting point of a horizontal boundary line, the pixel value to be interpolated is determined as an average value of pixel values of pixels of the upper and lower lines closest to the pixel to be interpolated. If it is determined that the pixel to be interpolated is not the starting point of the horizontal boundary but corresponds to a continuous horizontal boundary, the pixel value of the pixel before the pixel to be interpolated is interpolated by the ELA method.

따라서, 본 발명의 공간축 필터링은 이엘에이 방법으로 보간하였을 때 나타나는 수평경계선의 흐려짐 현상을 개선하므로 대화면 PDP와 같은 디스플레이장치에서 수평 경계선을 선명하게 나타낼 수 있다. 그 결과, 화질 열화가 개선될 수 있다.Therefore, the spatial axis filtering according to the present invention improves the blurring of the horizontal boundary lines generated when the EL method is interpolated, so that the horizontal boundary lines can be clearly displayed in a display device such as a large screen PDP. As a result, image quality deterioration can be improved.

한편, 본 발명은 도시된 도면과 상세한 설명에 기술된 내용에 한정하지 않으며 본 발명의 사상을 벗어나지 않는 범위 내에서 다양한 형태의 변형도 가능함은 이 분야에 통상의 지식을 가진 자에게는 자명한 사실이다.On the other hand, the present invention is not limited to the contents described in the drawings and detailed description, it is obvious to those skilled in the art that various modifications can be made without departing from the spirit of the invention. .

Claims (11)

격행 주사 방식의 입력 영상의 시간적으로 연속적인 복수개의 필드 데이터에서 현재 보간할 화소를 포함한 일정 크기의 창 내의 화소 값들을 검출하고 상기 필드간의 화소 값 차이를 계산, 비교하여 움직임 값을 검출하는 단계;Detecting a motion value by detecting pixel values in a window of a predetermined size including pixels to be interpolated from a plurality of temporally continuous field data of an input image of a parallel scan method, and calculating and comparing pixel value differences between the fields; 상기 움직임 값이 소정의 문턱값을 초과하는 지 여부를 판별하는 단계;Determining whether the motion value exceeds a predetermined threshold; 상기 움직임 값이 상기 문턱값을 초과하는, 움직임이 있는 것으로 간주되는 경우이면, 상기 보간할 화소의 화소 값을 공간축 정보에 가중치를 두고 보간하는 공간축 필터링을 실시하는 단계; 및Performing spatial axis filtering to interpolate the pixel value of the pixel to be interpolated with weights to spatial axis information if the motion value is considered to be motion exceeding the threshold value; And 상기 움직임 값이 상기 문턱값 이하인, 움직임이 없는 것으로 간주되는 경우이면, 상기 보간할 화소의 화소 값을 시간축 정보에 가중치를 두고 보간하는 시간축 필터링을 실시하는 단계를 포함하는 움직임 적응 시공간 디인터레이싱 방법.And performing time-base filtering to interpolate the pixel value of the pixel to be interpolated with a weight on time-axis information, when the motion value is considered to be no motion, which is less than or equal to the threshold value. 제 1 항에 있어서, 상기 문턱값으로 8 과 16 중 어느 하나를 선택하여 사용하는 것을 특징으로 하는 움직임 적응 시공간 디인터레이싱 방법.2. The method of claim 1, wherein one of 8 and 16 is selected and used as the threshold value. 제 1 항에 있어서, 상기 움직임 값이 상기 문턱값을 초과하는 지 여부를 판별하고 나서 후처리 필터링을 실시하는 단계를 포함하는 것을 특징으로 하는 움직임 적응 시공간 디인터레이싱 방법.2. The method of claim 1, comprising determining whether the motion value exceeds the threshold and then performing post-processing filtering. 제 1 항에 있어서, 상기 공간축 필터링 단계는The method of claim 1, wherein the spatial axis filtering step 상기 격행 주사 방식의 입력 영상에 대한 소정의 필드 데이터에서 현재 보간할 화소를 중심으로 한 일정 크기의 창 내의 화소 값을 검출하고, 수평, 수직, 대각선 방향의 화소 값 차이를 구하여 상기 보간할 화소가 수평 경계선인지 아닌 지를 판별하는 단계;The pixel values to be interpolated are detected by detecting pixel values in a window of a predetermined size centering on the pixels to be interpolated from predetermined field data of the input image of the interlocking scan method, and obtaining a pixel value difference in horizontal, vertical, and diagonal directions. Determining whether or not it is a horizontal boundary line; 상기 보간할 화소가 상기 수평 경계선인 것으로 판별되면, 상기 보간할 화소를 수평 보간하는 단계; 및If it is determined that the pixel to be interpolated is the horizontal boundary line, horizontal interpolating the pixel to be interpolated; And 상기 보간할 화소가 상기 수평 경계선이 아닌 것으로 판별되면, 상기 보간할 화소를 이엘에이(ELA) 법에 의해 보간하는 단계를 포함하는 것을 특징으로 하는 움직임 적응 시공간 디인터레이싱 방법.And if the pixels to be interpolated are not the horizontal boundary lines, interpolating the pixels to be interpolated by ELA. 제 4 항에 있어서, 상기 보간할 화소가 상기 수평 경계선인지 아닌 지를 판별하는 단계는The method of claim 4, wherein the determining whether the pixel to be interpolated is the horizontal boundary line is as follows. 상기 보간할 화소를 중심으로 한 3X3 창에서 상기 보간할 화소에 대한 수직, 대각선, 수평 경계선 방향의 화소 값 차이를 각각 계산하는 단계; 및Calculating pixel value differences in the vertical, diagonal, and horizontal boundary directions with respect to the pixel to be interpolated in a 3 × 3 window centering the pixels to be interpolated; And 상기 화소 값 차이 중에서 상기 수평 경계선 방향의 화소 값 차이가 최소인지 아닌 지를 판별함으로써 상기 보간할 화소가 상기 수평 경계선인지 아닌 지를 판별하는 단계를 포함하는 것을 특징으로 하는 움직임 적응 시공간 디인터레이싱 방법.And determining whether or not the pixel to be interpolated is the horizontal boundary line by determining whether the pixel value difference in the horizontal boundary line direction is the minimum among the pixel value differences. 제 5 항에 있어서, 상기 수평 경계선 방향의 화소 값 차이가 최소로 판별되면, 상기 수평 경계선이 배경 영역인 지 아닌 지를 판별하는 단계를 포함하는 것을 특징으로 하는 움직임 적응 시공간 디인터레이싱 방법.The motion adaptive space-time deinterlacing method of claim 5, further comprising: determining whether the horizontal boundary line is a background region when the pixel value difference in the horizontal boundary direction is determined to be minimum. 제 5항에 있어서, 상기 수평 경계선 방향의 화소 값 차이가 최소가 아닌 것으로 판별되면, 상기 보간할 화소를 상기 이엘에이법에 의해 보간하는 것을 특징으로 하는 움직임 적응 시공간 디인터레이싱 방법.The motion adaptive space-time deinterlacing method according to claim 5, wherein when it is determined that the difference in pixel values in the horizontal boundary direction is not the minimum, the pixel to be interpolated is interpolated by the EL method. 제 6항에 있어서, 상기 수평 경계선이 상기 배경 영역이 아닌 것으로 판별되면, 상기 경계선이 텍스처 영역인 지 아닌 지를 판별하는 단계 포함하는 것을 특징으로 하는 움직임 적응 시공간 디인터레이싱 방법.The method of claim 6, further comprising: determining whether the boundary line is a texture area or not when the horizontal boundary line is not the background area. 제 6 항에 있어서, 상기 수평 경계선이 상기 배경 영역인 것으로 판별되면, 상기 보간할 화소를 상기 이엘에이법에 의해 보간하는 것을 특징으로 하는 움직임 적응 시공간 디인터레이싱 방법.The motion adaptive space-time deinterlacing method according to claim 6, wherein when the horizontal boundary line is determined to be the background area, the pixel to be interpolated is interpolated by the EL method. 제 8 항에 있어서, 상기 경계선이 상기 텍스처 영역이 아닌 것으로 판별되면, 상기 보간할 화소를 수평 보간하고, 상기 경계선이 상기 텍스처 영역인 것으로 판별되면, 상기 이엘에이법에 의해 보간하는 것을 특징으로 하는 움직임 적응 시공간 디인터레이싱 방법.10. The method of claim 8, wherein if it is determined that the boundary line is not the texture area, horizontal interpolation of the pixel to be interpolated is performed. Motion adaptive space-time deinterlacing method. 제 4 항또는 제 10 항에 있어서, 상기 수평 보간의 단계는11. The method of claim 4 or 10, wherein the step of horizontal interpolation 상기 보간할 화소가 상기 수평 경계선의 시작점인 지 아닌 지를 판별하는 단계;Determining whether the pixel to be interpolated is a starting point of the horizontal boundary line; 상기 수평 경계선의 시작점으로 판별되면, 상기 보간할 화소의 화소 값을 라인 평균으로 결정하는 단계; 및Determining the pixel value of the pixel to be interpolated as a line average when it is determined as a starting point of the horizontal boundary line; And 상기 수평 경계선의 시작점으로 판별되지 않고 연속되는 수평 경계선에 해당하는 것으로 판별되면, 상기 보간할 화소의 화소 값을 수평 방향의 화소를 고려하여 보간하는 단계를 포함하는 것을 특징으로 하는 움직임 적응 시공간 디인터레이싱 방법.And determining that the pixel value of the pixel to be interpolated is interpolated in consideration of pixels in a horizontal direction, if it is determined that the image corresponds to a continuous horizontal boundary line without being determined as a starting point of the horizontal boundary line. .
KR1020020020900A 2002-04-17 2002-04-17 Motion Adaptive Spatial-Temporal Deinterlacing Method KR100913890B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020020020900A KR100913890B1 (en) 2002-04-17 2002-04-17 Motion Adaptive Spatial-Temporal Deinterlacing Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020020020900A KR100913890B1 (en) 2002-04-17 2002-04-17 Motion Adaptive Spatial-Temporal Deinterlacing Method

Publications (2)

Publication Number Publication Date
KR20030082249A true KR20030082249A (en) 2003-10-22
KR100913890B1 KR100913890B1 (en) 2009-09-02

Family

ID=32379283

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020020020900A KR100913890B1 (en) 2002-04-17 2002-04-17 Motion Adaptive Spatial-Temporal Deinterlacing Method

Country Status (1)

Country Link
KR (1) KR100913890B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100588902B1 (en) * 2004-05-12 2006-06-09 주식회사 대우일렉트로닉스 Video deinterlace apparatus and method
KR100839316B1 (en) 2007-01-05 2008-06-17 주식회사 대우일렉트로닉스 Device and method for controlling dynamic sharpness of television image
KR100909032B1 (en) * 2007-08-22 2009-07-23 주식회사 윈포넷 Motion adaptive deinterlacing method and apparatus
KR100950226B1 (en) * 2008-07-07 2010-03-29 한양대학교 산학협력단 Apparatus for video interpolation, method thereof and computer recordable medium storing the method
US7733420B2 (en) 2004-12-28 2010-06-08 Samsung Electronics Co., Ltd. Judder detection apparatus, de-interlacing apparatus using the same, and de-interlacing method
KR100967521B1 (en) * 2008-02-21 2010-07-07 한양대학교 산학협력단 Equipment and method for de-interlacing using directional correlations
KR200451921Y1 (en) * 2008-06-19 2011-01-19 김기완 Support for bed isolating water vein
CN113852830A (en) * 2021-09-23 2021-12-28 杭州国芯科技股份有限公司 Median filtering video de-interlacing method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0176568B1 (en) * 1996-01-27 1999-05-01 김광호 Device and method for conversion interlaced to progressive scanning
KR100618792B1 (en) * 1999-11-04 2006-09-06 삼성전자주식회사 Apparatus and method for deinteracing using four successive interlaced fields
KR100631496B1 (en) * 2000-01-12 2006-10-09 엘지전자 주식회사 Deinterlacing apparatus

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100588902B1 (en) * 2004-05-12 2006-06-09 주식회사 대우일렉트로닉스 Video deinterlace apparatus and method
US7733420B2 (en) 2004-12-28 2010-06-08 Samsung Electronics Co., Ltd. Judder detection apparatus, de-interlacing apparatus using the same, and de-interlacing method
KR100839316B1 (en) 2007-01-05 2008-06-17 주식회사 대우일렉트로닉스 Device and method for controlling dynamic sharpness of television image
KR100909032B1 (en) * 2007-08-22 2009-07-23 주식회사 윈포넷 Motion adaptive deinterlacing method and apparatus
KR100967521B1 (en) * 2008-02-21 2010-07-07 한양대학교 산학협력단 Equipment and method for de-interlacing using directional correlations
KR200451921Y1 (en) * 2008-06-19 2011-01-19 김기완 Support for bed isolating water vein
KR100950226B1 (en) * 2008-07-07 2010-03-29 한양대학교 산학협력단 Apparatus for video interpolation, method thereof and computer recordable medium storing the method
CN113852830A (en) * 2021-09-23 2021-12-28 杭州国芯科技股份有限公司 Median filtering video de-interlacing method
CN113852830B (en) * 2021-09-23 2023-12-29 杭州国芯科技股份有限公司 Median filtering video de-interlacing method

Also Published As

Publication number Publication date
KR100913890B1 (en) 2009-09-02

Similar Documents

Publication Publication Date Title
KR100393066B1 (en) Apparatus and method for adaptive motion compensated de-interlacing video data using adaptive compensated olation and method thereof
KR100272582B1 (en) Scan converter
US7667773B2 (en) Apparatus and method of motion-compensation adaptive deinterlacing
US5784115A (en) System and method for motion compensated de-interlacing of video frames
JP3836159B2 (en) A system to convert interlaced video to progressive video using edge correlation
JP4563603B2 (en) Format conversion apparatus and method using bi-directional motion vectors
KR100914619B1 (en) Spatio-temporal adaptive video de-interlacing
KR20060076176A (en) A method of temporal noise reduction in video sequence ans system therefore
KR20040009967A (en) Apparatus and method for deinterlacing
JP2009533928A (en) Method for determining estimated motion vector in image signal, computer program, computer program product, and display device
KR20080033094A (en) Interpolation method for a motion compensated image and device for the implementation of said method
JP2005176381A (en) Adaptive motion compensated interpolating method and apparatus
KR100913890B1 (en) Motion Adaptive Spatial-Temporal Deinterlacing Method
KR100422575B1 (en) An Efficient Spatial and Temporal Interpolation system for De-interlacing and its method
JP2009521863A (en) Method and apparatus for progressive scanning of interlaced video
KR20070030223A (en) Pixel interpolation
CN111294545B (en) Image data interpolation method and device, storage medium and terminal
Skarabot et al. Image sequence processing for videowall visualization
US8233085B1 (en) Method and system for interpolating a pixel value of a pixel located at an on-screen display
KR100961456B1 (en) Method of motion estimation by using adaptive expanded block based on frame-difference
JP2008193730A (en) Image display device and method, and image processing device and method
KR20070035800A (en) Removing apparatus and method for video noise using the slope of adjacent pixel
KR101010961B1 (en) Method for spatial deinterlacing using block based region clasification
KR101204210B1 (en) Methods of deinterlacing using geometric duality and image processing device using the same
KR101144435B1 (en) Methods of edge-based deinterlacing using weight and image processing devices using the same

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130719

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140715

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee