KR20010068516A - Deinterlacing method and apparatus - Google Patents

Deinterlacing method and apparatus Download PDF

Info

Publication number
KR20010068516A
KR20010068516A KR1020000000465A KR20000000465A KR20010068516A KR 20010068516 A KR20010068516 A KR 20010068516A KR 1020000000465 A KR1020000000465 A KR 1020000000465A KR 20000000465 A KR20000000465 A KR 20000000465A KR 20010068516 A KR20010068516 A KR 20010068516A
Authority
KR
South Korea
Prior art keywords
pixel
interpolated
field
value
interpolation
Prior art date
Application number
KR1020000000465A
Other languages
Korean (ko)
Other versions
KR100360882B1 (en
Inventor
신창용
한동일
Original Assignee
구자홍
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구자홍, 엘지전자 주식회사 filed Critical 구자홍
Priority to KR1020000000465A priority Critical patent/KR100360882B1/en
Priority to US09/754,358 priority patent/US6731342B2/en
Publication of KR20010068516A publication Critical patent/KR20010068516A/en
Application granted granted Critical
Publication of KR100360882B1 publication Critical patent/KR100360882B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/0142Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes the interpolation being edge adaptive
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/012Conversion between an interlaced and a progressive signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Television Systems (AREA)

Abstract

PURPOSE: A deinterlacing method and a device thereof are provided to improve image quality after interpolation by performing proper interpolation according to a moving degree and an edge direction of a field to interpolate presently. CONSTITUTION: A field recording unit(100) records four field data of present field data continuous in time, former two field data and latter field data. A moving determination unit(200) produces a BD(Brightness Difference) and a BPPD(Brightness Profile Pattern Difference) inter each field data of the field recording unit(100), and performs mapping of the BD and the BPPD with an established value if the BD and the BPPD is over a threshold value, and produces a moving degree value with reference to the BD and the BPPD. A median filter unit(600) removes a noise component included in the moving degree value to group a region in which the moving degree value exists. A moving extension unit(700) receives the output value of the median filter unit(600) and extends the moving degree value to neighboring pixels. A spacial interpolation unit(300) receives a pixel value of field data of a region to perform interpolation presently and a neighboring pixel value within field from the field recording unit(100), and produces an edge direction included in pixel values around the pixel to interpolate and produces an interpolation value within field according to the direction. A timing interpolation unit(400) averages the pixel value of the former field and the pixel value of the latter field to produce a field average value. A soft switch unit(500) mixes the interpolation value within field considering the edge direction of the spacial interpolation unit(300) with the field average value of the timing interpolation unit(400) in reference to the BD and the BPPD of the moving extension unit(700). A vertical line transform unit(800) receives the present field data of the field recording unit(100) and transforms a vertical line number to suit for display in reference to the interpolation line data of the soft switch unit(500).

Description

디인터레이싱 방법 및 장치{DEINTERLACING METHOD AND APPARATUS}Deinterlacing method and apparatus {DEINTERLACING METHOD AND APPARATUS}

본 발명은 움직임 적응 보간 기술에 관한 것으로 특히, 디인터레이싱 방법 및 장치에 관한 것이다.The present invention relates to a motion adaptive interpolation technique, and more particularly, to a deinterlacing method and apparatus.

디인터레이싱 방법이란 영상 처리 방법에 있어서, 격행 주사(interlaced scanning) 방식의 영상 데이터를 순행 주사(progressive scanning) 방식의 영상 데이터로 변환하는 기법이다.The deinterlacing method is a technique for converting interlaced scanning image data into progressive scanning image data in an image processing method.

격행 주사 방식의 영상 데이터는 한 프레임(frame)의 화면을 도1에 도시된 바와 같이, 홀수 필드(odd field)와 짝수 필드(even field)의 두 필드의 화면으로 구현하는 것이다.In the progressive scan method, the image data of one frame is implemented as two fields of an odd field and an even field, as shown in FIG. 1.

그런데, 디스플레이 장치에 따라서는 격행 주사 방식의 영상 데이터를 처리하지 않고 컴퓨터 모니터등에서 사용되는 순행 주사 방식의 영상 데이터로 처리하여 화면을 구현한다.However, depending on the display device, the screen is implemented by processing the image data of the forward scanning method used in a computer monitor without processing the image data of the conventional scanning method.

이때, 격행 주사 방식의 영상 신호가 순행 주사 방식의 영상 데이터를 처리하는 디스플레이 장치에서 정상적으로 처리되려면 그러한 디스플레이 장치의 내부에 격행 주사 방식의 영상 신호를 순행 주사 방식의 영상 신호로 변환시키는 별도의 시스템이 설치되어야 한다.In this case, in order for the progressive scanning video signal to be normally processed in the display device processing the progressive scanning video data, a separate system for converting the traveling scanning video signal into the progressive scanning video signal is provided in the display device. It must be installed.

격행 주사 방식의 영상 신호를 순행 주사 방식의 영상 신호로 변환하는 방법은 도2a 내지 도2c에 도시된 바와 같이 여러 방법으로 구현될 수 있다.A method of converting an image signal of a progressive scan method into an image signal of a forward scanning method may be implemented in various ways as shown in FIGS. 2A to 2C.

우선, 도2a와 같은 라인 반복(line repetition) 방법은 현재 필드(field)의 라인(line) 정보를 단순하게 반복시켜 한 프레임(frame)을 구현하는 것이다.First, a line repetition method as shown in FIG. 2A implements a frame by simply repeating line information of a current field.

또한, 도2b에 도시된 바와 같은 움직임 보상이 없는 필드간 보간법(inter-field interpolation without motion-compensation)은 현재 필드의 라인사이에 직전 필드의 라인을 단순히 끼움으로써 한 프레임을 구현하는 것이다.In addition, inter-field interpolation without motion-compensation as shown in FIG. 2B implements one frame by simply sandwiching the immediately preceding line between the lines of the current field.

마지막으로, 도2c에 도시된 바와 같은 필드내 보간법(intra-field interpolation)은 하나의 필드에서 두 라인사이의 영역에 그 두 라인의 데이터를 이분한 데이터를 삽입함으로써 새로운 한 필드를 구현하는 것이다.Finally, intra-field interpolation, as shown in FIG. 2C, implements a new field by inserting the data of the two lines in the field between two lines in one field.

그러나, 라인 반복 방법은 단순한 하드웨어로 구현할 수 있지만, 보간후 화질이 떨어지는 단점이 있다.However, although the line repetition method can be implemented with simple hardware, the image quality is poor after interpolation.

또한, 움직임 보상이 없는 필드간 보간법 역시 단순한 하드웨어로 구현할 수 있지만, 움직임이 있는 영상을 보간하는 경우에는 오류가 발생하거나 화면이 열화되어 화질이 떨어지는 단점이 있다.In addition, inter-field interpolation without motion compensation can be implemented by simple hardware. However, when interpolating an image with motion, an error occurs or the screen is deteriorated, thereby degrading image quality.

그리고, 필드내 보간법은 라인 반복 방법보다 화질이 깨끗해지고 움직임 보상이 없는 필드간 보간법보다 오류 발생이 낮지만, 정지 영상을 보간하는 경우 화면이 열화되어 화질이 떨어지는 단점이 있다.Intra-field interpolation has a lower image quality than the line repetition method and lower error than inter-field interpolation without motion compensation. However, when interpolating a still image, the image deteriorates and the image quality deteriorates.

즉, 상기와 같은 도2a 내지 도2c의 보간 방법들은 모두 보간후 화질이 떨어지는 단점이 있다.That is, the above interpolation methods of FIGS. 2A to 2C all have disadvantages of degrading image quality after interpolation.

따라서, 이전 화면의 필드 데이터와 장차 구현될 화면의 필드 데이터를 이용하여 현재 화면을 보간하는 움직임 보상 보간 방법이 제시되었다.Accordingly, a motion compensation interpolation method for interpolating a current screen using field data of a previous screen and field data of a screen to be implemented in the future has been proposed.

이러한 움직임 보상 보간 방법은 현재 필드 데이터를 기준으로 시간적으로 연속적인 필드 데이터를 이용하여 화면중에 움직임 벡터를 추정하고 그 움직임 벡터를 참조하여 현재 프레임 화면을 보간하는 것이다.The motion compensation interpolation method estimates a motion vector in a screen using temporally continuous field data based on current field data and interpolates a current frame screen with reference to the motion vector.

그런데, 움직임 보상 보간 방법은 보간후 화질은 향상되지만, 상당히 복잡한 하드웨어로 구성된다.By the way, the motion compensation interpolation method is composed of quite complicated hardware although the image quality is improved after interpolation.

따라서, 상기 움직임 보상 보간 방법의 문제점을 해소하기 위하여 움직임의 정도를 추정하여 움직임에 따라 프레임을 보간하는 움직임 적응 보간 방법이 제시되었다.Accordingly, in order to solve the problem of the motion compensation interpolation method, a motion adaptive interpolation method of estimating the degree of motion and interpolating a frame according to the motion has been proposed.

이러한 움직임 적응 보간 방법은 움직임 보상 보간 방법에 비하여 비교적 단순한 하드웨어로 구현되고 보간후 화질도 전반적으로 향상되는 장점이 있다.The motion adaptive interpolation method is implemented in relatively simple hardware compared to the motion compensation interpolation method, and the image quality after the interpolation is generally improved.

움직임 적응 보간 방법의 일례로는 미국 특허 제5,027,201호에 제시된 Bernard 방식과 미국 특허 제5,159,451호에 제시된 Faroudja 방식등이 있다.Examples of motion adaptive interpolation methods include the Bernard method shown in US Pat. No. 5,027,201 and the Faroudja method shown in US Pat. No. 5,159,451.

그러나, 종래의 움직임 적응 보간 방법은 움직임 보상 보간 방법에 비하여 비교적 단순한 하드웨어로 구현되고 보간후 화질도 전반적으로 향상되는 장점이 있지만, 움직임이 큰 에지(edge)등에서는 단순한 수직 방향 보간으로 인하여 계단형 잡음이 발생하며 또한, 다수의 필드 메모리(field memory)를 사용하고 처리 과정이 복잡하여 구현 회로의 제조 비용이 상승하는 문제점이 있다.However, the conventional motion adaptive interpolation method has the advantage of being implemented with relatively simple hardware and improving the overall image quality after interpolation compared with the motion compensation interpolation method. Noise is generated and the manufacturing cost of the implementation circuit is increased due to the use of a plurality of field memories and complicated processing.

따라서, 본 발명은 종래의 문제점을 개선하기 위하여 현재 보간하고자 하는 필드의 움직임 정도 및 에지 방향에 따라 적절한 보간을 수행하여 보간후 화질을 개선하도록 창안한 디인터레이싱 방법 및 장치를 제공함에 목적이 있다.Accordingly, an object of the present invention is to provide a deinterlacing method and apparatus for improving image quality after interpolation by performing appropriate interpolation according to the degree of movement and edge direction of a field to be interpolated in order to improve the conventional problem.

또한, 본 발명은 회로를 단순화하여 구현하려는 회로의 제조 비용을 감소시키도록 함에 다른 목적이 있다.In addition, another object of the present invention is to reduce the manufacturing cost of a circuit to be implemented by simplifying the circuit.

도1은 일반적인 인터레이싱 방법에 따른 화면의 예시도.1 is an exemplary diagram of a screen according to a general interlacing method.

도2는 종래의 라인 보간을 필드 생성을 보인 예시도로서,2 is a diagram illustrating field generation in the conventional line interpolation.

도2a는 종래의 라인 반복 방법을 보인 예시도이고,Figure 2a is an exemplary view showing a conventional line repetition method,

도2b는 종래의 움직임 보상없는 필드간 보간법을 보인 예시도이며,2B is an exemplary diagram showing a conventional interfield interpolation method without motion compensation;

도2c는 종래의 필드내 보간법을 보인 예시도이다.2C is an exemplary diagram showing a conventional intrafield interpolation method.

도3은 본 발명의 실시예를 위한 디인터레이싱 장치의 블럭도.3 is a block diagram of a deinterlacing apparatus for an embodiment of the present invention.

도4는 에지 부분의 매핑을 위한 영역 분할을 보인 예시도.4 is an exemplary diagram showing region division for mapping of an edge portion.

도5는 에지 방향과 경사도 방향의 관계를 보인 예시도.5 is an exemplary view showing a relationship between an edge direction and a slope direction.

도6은 화소값의 방향 변화량을 구하기 위한 소벨 마스크의 예시도로서,6 is an exemplary diagram of a Sobel mask for obtaining a direction change amount of a pixel value;

도6a는 3x3 크기의 영상 영역을 보인 예시도이고,6A is an exemplary view showing an image area having a size of 3x3.

도6b는 화소값의 y축 방향 변화량을 구하기 위한 소벨 마스크의 예시도이며,6B is an exemplary diagram of a Sobel mask for obtaining an amount of change in the y-axis direction of a pixel value.

도6c는 화소값의 x축 방향 변화량을 구하기 위한 소벨 마스크의 예시도이다.6C is an illustration of a Sobel mask for obtaining an amount of change in the x-axis direction of a pixel value.

도7은 광각 에지 검출을 위한 서브샘플링 방법을 보인 예시도.7 illustrates an example subsampling method for wide-angle edge detection.

도8은 필드 영상 영역과 2차원 가우시안 필터를 보인 예시도로서,8 is an exemplary view showing a field image region and a two-dimensional Gaussian filter.

도8a는 보간에 사용될 화소와 주변 화소를 보인 예시도.8A is an exemplary view showing a pixel to be used for interpolation and surrounding pixels.

도8b는 잡음 성분 제거를 위한 2차원 가우시안 필터의 예시도.8B is an illustration of a two-dimensional Gaussian filter for noise component removal.

도9는 경사도 및 계층적 규칙을 기반으로 한 에지 방향 검출 방법을 보인 예시도.9 is an exemplary view showing an edge direction detection method based on gradients and hierarchical rules.

도10은 보간 방향 검출을 위한 구간 매칭 방법을 보인 예시도.10 is an exemplary view showing an interval matching method for interpolation direction detection.

도11은 본 발명에서 구간 매칭 방법을 위한 관측 영역 분할을 보인 예시도.11 is an exemplary view showing observation region division for the interval matching method in the present invention.

도12는 메디안 필터링되는 화소들과 필드 데이터를 보인 예시도.12 is an exemplary view showing pixel and field data that are median filtered.

* 도면의 주요부분에 대한 부호 설명 *Explanation of symbols on the main parts of the drawings

100 : 필터 저장부 200 : 움직임 검출부100: filter storage unit 200: motion detection unit

300 : 공간적 보간부 400 : 시간적 보간부300: spatial interpolator 400: temporal interpolator

500 : 소프트 스위치부 600 : 메디안 필터부500: soft switch unit 600: median filter unit

700 : 움직임 확정부 800 : 수직라인 변환부700: motion determination unit 800: vertical line conversion unit

본 발명은 상기의 목적을 달성하기 위하여 격행 주사 방식의 영상에 해당하는 m개의 필드 데이터에서 보간할 화소를 포함하는 일정 영역의 화소를 검출하는 단계와, 상기 일정 영역에 대해 보간할 화소의 변화 방향을 검출하는 단계와, 상기에서 검출된 보간할 화소의 변화 방향을 참조하여 보간값을 산출하는 단계를 수행하여 현재 필드 데이터를 보간하는 디인터레이싱 방법에 있어서, 상기에서 일정 영역에 대해 보간할 화소가 수평 또는 수직 에지상에 존재하지 않는 경우 보간할 화소를 중심으로 임의의 영역내의 주변 화소에 대해 서브샘플링(sub-sampling)하는 단계와, 상기에서 서브샘플링된 화소 영역에서 보간할 화소의 변화 방향을 검출하는 단계와, 상기에서 검출된 보간할 화소의 변화 방향을 기준으로 영역을 분할하는 단계와, 상기에서 분할된 영역에 대한 보간할 화소의 변화 방향 에러를 구하여 그 에러 방향에 따른 보간값을 산출하는 단계를 수행함을 특징으로 한다According to an aspect of the present invention, there is provided a method of detecting a pixel of a predetermined region including a pixel to be interpolated from m field data corresponding to a perforated scanning image, and a change direction of a pixel to be interpolated with respect to the predetermined region. In the deinterlacing method of interpolating the current field data by performing a step of detecting and calculating an interpolation value with reference to the detected change direction of the pixel to be interpolated, the pixel to be interpolated with respect to a predetermined area is horizontal. Or sub-sampling with respect to neighboring pixels in an arbitrary area around the pixel to be interpolated when not present on the vertical edge, and detecting a change direction of the pixel to be interpolated in the subsampled pixel area. Dividing the region based on the detected change direction of the pixel to be interpolated; Calculating an interpolation value according to the error direction by obtaining a change direction error of a pixel to be interpolated with respect to an area.

또한, 본 발명은 상기 단계를 수행하기 위하여 보간할 임의의 필드 데이터를 기준으로 그 필드 데이터를 포함하는 이전, 이후의 연속적인 다수의 필드 데이터로부터 밝기 및 밝기 윤곽 패턴의 차이를 검출하여 움직임 정보를 산출하고 그 움직임 정보와 보간할 화소의 에지 방향을 참조하여 선형 보간된 값을 산출하도록 움직임 결정부, 시간적 보간부, 공간적 보간부를 구비하는 디인터레이싱 장치에 있어서, 상기 공간적 보간부는 현재 보간할 영역의 필드 데이터의 화소값과 필드내 주변 화소값을 입력으로 보간할 화소 주변의 화소값들에 포함되어 있는 에지(edge) 방향을 검출하였을 때 에지 방향이 수평 또는 수직 에지에 존재하지 않는 경우 경사도(gradient)에 의해 에지 방향 검출을 시도하고 이때의 에지 방향이이면 광각의 에지 여부를 결정하기 위해 보간할 화소를 기준으로 소정 영역을 서브샘플링(sub-sampling)하여 보간할 화소가 서브샘플링된 영역에 대해 수평 또는 수직 에지에 존재하지 않으면 경사도(gradient)에 의한 에지 방향을 검출하여 그 검출된 방향을 기준으로 임의로 설정한 관측 영역을 다수개로 분할하여 각각의 영역의 구간 매칭 에러중 최소 구간 매칭 에러를 나타내는 방향에 따른 필드내 보간값을 산출하도록 구성함을 특징으로 한다.In addition, the present invention detects the difference between the brightness and the brightness contour pattern from a plurality of consecutive field data including the field data on the basis of any field data to be interpolated to perform the above step, and obtains motion information. A deinterlacing apparatus comprising a motion determiner, a temporal interpolator, and a spatial interpolator to calculate a linear interpolated value by calculating the motion information and the edge direction of a pixel to be interpolated. Gradient when the edge direction does not exist on the horizontal or vertical edge when detecting the edge direction included in the pixel value of the field data and the pixel value around the pixel to interpolate the pixel value of the field as an input. Try to detect the edge direction by Backside sub-sampling a predetermined area based on the pixel to be interpolated to determine whether the wide angle is edged. If the pixel to be interpolated does not exist at the horizontal or vertical edge with respect to the subsampled area, It is configured to calculate the interpolation value in the field according to the direction indicating the minimum section matching error among the section matching errors of each region by detecting the edge direction and dividing the observation region arbitrarily set based on the detected direction. It is done.

즉, 본 발명은 보간할 화소가 주변의 일정 영역에 대해 수평 또는 수직 에지상에 존재하지 않는 경우 소정 범위의 주변 화소의 영역 및 보간할 화소와 소정 범위의 주변 화소에 대해 서브 샘플링(sub-sampling)된 영역에 대하여 "경사도(gradient) 및 규칙(rule)을 기반으로 한 에지 방향 검출 방법"을 적용하여 에지 방향을 검출하며 그 에지 방향을 기준으로 분할한 관측 영역에 대해 "구간 매칭 방법"을 적용하여 구간 매칭 에러들을 검출한 후 그 검출된 구간 매칭 에러중 최소의 구간 매칭 에러를 나타내는 방향으로 보간값을 산출하는 것이다.That is, the present invention sub-sampling a region of a peripheral pixel in a predetermined range and a pixel to be interpolated and a peripheral pixel in a predetermined range when the pixel to be interpolated does not exist on a horizontal or vertical edge with respect to a predetermined peripheral region. Apply edge detection method based on gradient and rule to detect edge direction and apply "section matching method" to the observation area divided based on the edge direction. After applying the interval matching errors, the interpolation value is calculated in the direction indicating the minimum interval matching error among the detected interval matching errors.

이하, 본 발명을 도면에 의거 상세히 설명하면 다음과 같다.Hereinafter, the present invention will be described in detail with reference to the drawings.

이하, 본 발명을 도면에 의거 상세히 설명하면 다음과 같다.Hereinafter, the present invention will be described in detail with reference to the drawings.

도3은 본 발명의 실시예를 위한 디인터레이싱 장치의 블록도로서 이에 도시한 바와 같이, 시간적으로 연속적인 현재 필드 데이터, 이전 2장의 필드 데이터 및 다음 필드 데이터의 4장의 필드 데이터를 저장하는 필드 저장부(100)와, 이 필드 저장부(100)에서의 각 필드 데이터간의 밝기 차이(BD : Brightness Difference) 및 밝기 윤곽 패턴 차이(BPPD : Brightness Profile Pattern Difference)를 산출하여 그 밝기 차이(BD)와 밝기 윤곽 패턴 차이(BPPD)가 소정 문턱값 이상이면 기설정된 값으로 매핑하고 그 밝기 차이(BD) 및 밝기 윤곽 패턴차이(BPPD)를 참조하여 움직임 정도값을 산출하는 움직임 결정부(200)와, 상기 움직임 정도값에 포함된 잡음 성분을 제거하여 그 움직임 정도값이 있는 영역을 군집화하는 메디안 필터부(600)와, 이 메디안 필터부(600)의 출력값을 입력으로 움직임 정도값을 주변 화소들로 확산시키는 움직임 확장부(700)와, 상기 필드 저장부(100)로부터 현재 보간을 실시할 영역의 필드 데이터의 화소값과 필드내 주변 화소값을 입력으로 보간할 화소 주변의 화소값들에 포함되어 있는 에지(edge) 방향을 산출하여 그 방향에 따른 필드내 보간값을 산출하는 공간적 보간부(300)와, 현재 보간할 필드 영상에 대하여 이전 필드의 화소값과 이후 필드의 화소값을 평균하여 필드 평균값을 산출하는 시간적 보간부(400)와, 상기 움직임 확장부(700)에서의 밝기 차이 및 밝기 윤곽 패턴차이를 참조하여 상기 공간적 보간부(300)에서의 에지 방향을 고려한 필드내 보간값과 시간적 보간부(400)에서의 필드 평균값을 혼합하는 소프트 스위치부(500)와, 상기 필드 저장부(100)에서의 현재 필드의 데이터를 입력으로 상기 소프트 스위치부(500)에서의 보간 라인 데이터를 참조하여 디스플레이에 적합하도록 수직 라인수를 변환하는 수직 라인 변환부(800)로 구성한다.3 is a block diagram of a de-interlacing apparatus for an embodiment of the present invention, as shown therein, a field storage unit for storing four field data of current field data, two previous field data, and four next field data, which are continuous in time And a brightness difference (BD) and a brightness contour pattern difference (BPPD) between the field data in the field storage unit 100 to calculate the brightness difference BD and the brightness. If the contour pattern difference (BPPD) is greater than or equal to a predetermined threshold, the motion determination unit 200 for mapping to a predetermined value and calculating the movement degree value with reference to the brightness difference (BD) and the brightness contour pattern difference (BPPD), and The median filter unit 600 removes the noise component included in the motion degree value and clusters the region having the motion degree value, and the motion value is inputted using the output value of the median filter part 600. A motion expansion unit 700 for diffusing a value into surrounding pixels, and a pixel value of a field data of a region to be interpolated from the field storage unit 100 and a pixel value of a peripheral pixel in a field to be interpolated. The spatial interpolation unit 300 calculates an edge direction included in the pixel values to calculate an interpolation value in the field according to the direction, and the pixel value of the previous field and the subsequent field with respect to the current field image to be interpolated. The temporal interpolator 400 calculates a field average value by averaging pixel values, and considers an edge direction of the spatial interpolator 300 by referring to a brightness difference and a brightness contour pattern difference in the motion extension unit 700. The soft switch unit 500, which mixes the intra-field interpolation value and the field average value in the temporal interpolation unit 400, and inputs data of the current field in the field storage unit 100 to the soft switch unit 500. The interpolation of the reference line data, and consists of a vertical line conversion unit 800 for converting the number of vertical lines to be suitable for display.

상기 움직임 결정부(200)는 필드 저장부(100)에서의 각 필드 데이터의 밝기 변화및 밝기 윤곽 패턴을 검출하여 현재 필드를 기준으로 이전 필드와 이후 필드간의 밝기 변화 및 밝기 윤곽 패턴을 비교함에 의해 밝기 차이(BD) 및 밝기 윤곽 패턴 차이(BPPD)를 산출하는 BD/BPPD 검출부(210)와, 상기 밝기 차이(BD)와 밝기 윤곽 패턴 차이(BPPD)가 각각의 기설정된 문턱값 이상이면 기설정된 값으로 매핑하고 움직임 정도값을 결정하는 BD/BPPD 합성부(220)로 구성한다.The motion determiner 200 detects the brightness change and the brightness outline pattern of each field data in the field storage unit 100 and compares the brightness change pattern and the brightness outline pattern between the previous field and the subsequent field based on the current field. The BD / BPPD detection unit 210 that calculates the brightness difference BD and the brightness outline pattern difference BPPD, and when the brightness difference BD and the brightness outline pattern difference BPPD are equal to or greater than a predetermined threshold, The BD / BPPD synthesis unit 220 maps the values and determines the movement degree value.

이와같이 구성한 본 발명의 실시예에 대한 동작 및 작용 효과를 설명하면 다음과 같다.Referring to the operation and effect of the embodiment of the present invention configured as described above are as follows.

필드 저장부(100)는 출력 영상을 구현하기 위한 다수개의 필드 데이터중에서 현재 필드 즉, n번째 필드를 기준으로 n번째 필드에 해당하는 영상 데이터와 이전 필드 및 이후 필드 등 시간적으로 연속적인 m개의 필드에 해당하는 영상 데이터를 저장한다.The field storage unit 100 m-fields consecutive in time such as image data corresponding to the nth field, the previous field, and the subsequent field among the plurality of field data for implementing the output image. Stores video data corresponding to

다시 말해서, 필드 저장부(100)는 n번째 필드 데이터를 포함하여 그 이전 및 이후의 필드 데이터를 저장하고 그 저장된 필드 데이터를 움직임 결정부(200), 공간적 보간부(300) 및 시간적 보간부(400)로 제공한다.In other words, the field storage unit 100 stores field data before and after including the n-th field data and stores the stored field data in the motion determiner 200, the spatial interpolator 300, and the temporal interpolator ( 400).

이때, 움직임 결정부(200)는 필드 저장부(100)에 저장된 각 필드 데이터간에 존재하는 특정 라인들의 화소값과 밝기 윤곽 패턴의 차이를 검출하여 동영상의 움직임 정도를 계산한다.At this time, the motion determiner 200 detects the difference between the pixel value of the specific lines existing in the field storage unit 100 and the brightness contour pattern and calculates the degree of motion of the video.

즉, 움직임 결정부(200)는 BD/BPPD 검출부(210)가 필드 저장부(100)에서의 각 필드 데이터의 밝기 변화 및 밝기 윤곽 패턴을 검출하여 현재 필드를 기준으로 이전 필드와 이후 필드간의 밝기 변화 및 밝기 윤곽 패턴을 비교함에 의해 밝기 차이(BD)및 밝기 윤곽 패턴 차이(BPPD)를 산출하고 BD/BPPD 합성부(220)가 상기에서 산출된 밝기 차이(BD)와 밝기 윤곽 패턴 차이(BPPD)를 입력으로 움직임 정도값을 결정한다.That is, the motion determiner 200 detects the brightness change and the brightness outline pattern of each field data in the field storage unit 100 by the BD / BPPD detector 210 to determine the brightness between the previous field and the subsequent field based on the current field. The brightness difference BD and the brightness contour pattern difference BPPD are calculated by comparing the change and the brightness contour pattern, and the BD / BPPD synthesis unit 220 calculates the brightness difference BD and the brightness contour pattern difference BPPD. ) To determine the movement value.

만일, 밝기 차이(BD)와 밝기 윤곽 패턴 차이(BPPD)가 각각의 기설정된 문턱값 이상이면 상기 BD/BPPD 합성부(220)는 그 밝기 차이(BD)와 밝기 윤곽 패턴 차이(BPPD)를 기설정된 값으로 매핑하여 움직임 정도값을 결정한다.If the brightness difference BD and the brightness outline pattern difference BPPD are equal to or greater than a predetermined threshold value, the BD / BPPD synthesizing unit 220 may determine the brightness difference BD and the brightness outline pattern difference BPPD. Mapping to the set value determines the movement value.

여기서, 밝기 차이(BD : Brightness Difference)에 대한 개념은 디지털 티브이등의 영상 처리 분야에서 라인 보간을 실시하기 위해 이미 많이 사용되고 있으며,Here, the concept of brightness difference (BD) is already widely used to perform line interpolation in the field of image processing such as digital TV.

밝기 윤곽 패턴 차이(BPPD : Brightness Profile Pattern Difference)에 대한 개념은 본 출원인이 기출원한 국내특허출원 97-80719호에 제시되어 있다.The concept of Brightness Profile Pattern Difference (BPPD) is presented in Korean Patent Application No. 97-80719 filed by the present applicant.

상기 국내특허출원 97-80719호에서 밝기 차이(BD)와 밝기 윤곽 패턴 차이(BPPD)를 산출하기 위한 밝기 윤곽 패턴의 정량화는 응용에 따라 요구된 임의의 여러 라인에 대해 라인 보간을 실시한다.In Korean Patent Application No. 97-80719, the quantification of the brightness contour pattern for calculating the brightness difference BD and the brightness contour pattern difference BPPD performs line interpolation for any of several lines required according to the application.

예를 들어, 시간적으로 연속적인 n-2, n-1, n, n+1의 4장의 필드 데이터를 가정하여 움직임 결정부(200)에서의 밝기 차이(BD)와 밝기 윤곽 패턴 차이(BPPD)의 산출 과정을 설명하면 다음과 같다.For example, assuming that four field data of n-2, n-1, n, and n + 1 are consecutive in time, the brightness difference BD and the brightness contour pattern difference BPPD in the motion determiner 200 are assumed. The calculation process of is as follows.

먼저, n-2번째 필드 데이터의 화소값을 이용하여 n-2번째 필드 데이터의 밝기 윤곽 패턴을 추출한다.First, the brightness outline pattern of the n-2 th field data is extracted using the pixel value of the n-2 th field data.

즉, n-2번째 필드가 입력된 시각에서의 밝기 윤곽 패턴을 추출한다.That is, the brightness outline pattern is extracted at the time point at which the n-th field is input.

그리고, n번째 필드 데이터의 화소값을 이용하여 n번째 필드 데이터의 밝기 윤곽패턴을 추출한다.Then, the brightness outline pattern of the n-th field data is extracted using the pixel value of the n-th field data.

즉, n번째 필드가 입력되는 시각에서의 밝기 윤곽 패턴을 추출한다.That is, the brightness outline pattern is extracted at the time when the nth field is input.

이 후, 움직임 결정부(200)는 n-2번째 필드의 밝기 윤곽 패턴과 n번째 필드의 밝기 윤곽 패턴을 비교하여 n-2번째 필드와 n번째 필드의 밝기 윤곽 패턴의 차이(BPPD)를 산출하며 또한, n-2번째 필드와 n번째 필드의 밝기 차이(BD)를 산출한다.Thereafter, the motion determiner 200 compares the brightness contour pattern of the n-th field with the brightness contour pattern of the n-th field to calculate a difference BPPD between the brightness contour patterns of the n-2nd field and the n-th field. In addition, the brightness difference (BD) between the n-th field and the n-th field is calculated.

그리고, 움직임 결정부(200)는 상기와 동일한 과정으로 n-1번째 필드와 n+1번째 필드의 밝기 차이와 밝기 윤곽 패턴차이를 산출한다.The motion determiner 200 calculates the brightness difference and the brightness outline pattern difference between the n-1 th field and the n + 1 th field in the same process as described above.

그런데, 방송 채널등으로 전송된 화상은 부호 단계 또는 전송 단계에서 필연적으로 잡음이 섞이게 된다.However, an image transmitted through a broadcast channel or the like inevitably causes noise to be mixed in a coding step or a transmission step.

따라서, 본 발명에서는 움직임 결정부(200) 특히, BD/BPPD 합성부(220)의 출력값을 정확하게 설정하기 위하여 그 BD/BPPD 합성부(220)의 출력값에서 잡음 성분을 제거하고 화상중 움직임이 검출된 영역을 군집화(grouping)하는 메디안 필터부(600)와, 이 메디안 필터부(600)에서 출력값을 입력으로 움직임이 있는 화소와 인접한 다른 화소로 움직임 정도값을 확장시키는 움직임 확장부(700)가 구비된다.Accordingly, in the present invention, in order to accurately set the output value of the motion determiner 200, in particular, the BD / BPPD synthesizer 220, the noise component is removed from the output value of the BD / BPPD synthesizer 220 and motion in the image is detected. The median filter unit 600 for grouping the divided regions, and the motion extension unit 700 for expanding the movement degree value to other pixels adjacent to the moving pixel by inputting the output value from the median filter unit 600. It is provided.

이때, 상기 움직임 확장부(700)가 움직임 정도값을 인접한 화소로 확장시키는 이유는 다음과 같다.In this case, the motion extension unit 700 expands the motion degree value to the adjacent pixel as follows.

일반적으로 동영상의 움직임은 특정 화소에서만 이루어지는 것이 아니라 일정 영역의 화소군들에서 이루어진다.In general, a motion of a video is not performed only in a specific pixel but in a pixel group of a predetermined region.

따라서, 특정 화소에 움직임 정도값이 감지되었다면 그 화소의 잡음 성분에 의한 것이거나 그 특정 화소 및 인접한 주변 화소가 움직임 상태에 있는 것이다.Thus, if a motion degree value is detected for a particular pixel, it may be due to the noise component of that pixel or the particular pixel and adjacent neighboring pixels are in a motion state.

그런데, 메디안 필터부(600)에서 잡음 성분에 해당하는 움직임 정도값이 이미 제거된 상태이므로 이 주변 화소들이 움직임 상태에 있을 가능성이 높다.However, since the motion degree value corresponding to the noise component is already removed in the median filter unit 600, the surrounding pixels are likely to be in the motion state.

따라서, 움직임 확장부(700)는 메디안 필터부(600)에서 출력된 움직임 정도값을 그 움직임 정도값이 감지된 화소의 주변으로 확산시키는 것이다.Therefore, the motion extension unit 700 diffuses the motion degree value output from the median filter unit 600 to the periphery of the pixel where the motion degree value is detected.

한편, 공간적 보간부(300)는 필드 저장부(100)로부터 현재 보간을 실시할 영역의 필드 데이터를 입력으로 라인 보간을 실시할 영역에 해당하는 n번째 필드 데이터의 화소값과 필드내 주변화소들을 검출하고 그때 필드내 화소들의 상관 관계를 이용하여 보간할 화소 주변의 화소값들이 포함되어 있는 에지(edge) 방향을 산출하여 그 에지 방향에 따른 적정한 보간값을 추출한다.Meanwhile, the spatial interpolator 300 inputs the field data of the region to be interpolated from the field storage unit 100 to input pixel values of the n-th field data corresponding to the region to be interpolated and peripheral pixels in the field. Then, the edge direction including the pixel values around the pixel to be interpolated is calculated using the correlation of the pixels in the field, and then an appropriate interpolation value according to the edge direction is extracted.

특히, 본 발명에서는 공간적 보간부(300)는 보간할 화소의 공간적인 일관성과 시간적인 일관성을 유지하기 위하여 보간할 화소로부터 공간적으로 인접한 화소들의 화소값 및 보간할 화소의 현재 필드로부터 시간적으로 인접한 필드의 화소값과 필터링하여 보간할 화소의 보간값을 추출하는 것으로, "경사도(gradient) 및 규칙(rule)에 의한 에지 방향 검출 방법"과 "구간 매칭(region matching) 방법"을 적용한다.In particular, in the present invention, the spatial interpolator 300 maintains the spatial and temporal coherence of the pixels to be interpolated, and the spatial values adjacent to the pixel values of the pixels that are spatially adjacent from the pixels to be interpolated and the current fields of the pixels to be interpolated. By extracting the interpolation value of the pixel to be interpolated by filtering the pixel value of ", " the edge direction detection method using gradient and rule " and " region matching method "

이러한 "경사도 및 규칙에 의한 에지 방향 검출 방법"과 "구간 매칭(region matching) 방법"의 동작 원리등은 본 출원인에 의해 1999년 6월 30일자로 기출원된 국내특허출원 제99-26084호에 상세히 기술되어 있으므로 본 발명에서는 개략적으로 설명하기로 한다.The operation principle of the "edge direction detection method according to the gradient and the rule" and the "region matching method" are described in Korean Patent Application No. 99-26084 filed on June 30, 1999 by the applicant. Since described in detail, the present invention will be described schematically.

먼저, 공간적 보간부(300)는 필드내의 화소들의 상관관계를 이용하여 에지 방향을검출한다.First, the spatial interpolator 300 detects the edge direction by using the correlation of the pixels in the field.

이때, 보간하려는 화소의 에지 방향을 검출하기 위하여 전체 영역을 도4의 예시도에 도시한 바와 같이, 크게,,의 3방향으로 분할하였다고 가정할 때 공간적 보간부(300)는 보간할 화소가 어느 방향의 에지에 속하는가를 판단하기 위해 보간할 화소를 중심으로 상,하,좌,우에 인접하는 화소들에 대해 상관 관계를 구하여 보간할 화소가 수직 또는 수평 에지에 속하는지 여부를 먼저 판단한다.At this time, in order to detect the edge direction of the pixel to be interpolated, as shown in the example of FIG. , , Assuming that the interpolation is performed in three directions, the spatial interpolator 300 correlates the pixels adjacent to the upper, lower, left, and right sides of the pixel to be interpolated to determine in which direction edge the pixel to be interpolated belongs. The relationship is first determined to determine whether the pixel to be interpolated belongs to a vertical or horizontal edge.

예를 들어, i번째 라인의 j번째 화소를 보간하려는 경우라면 아래와 같은 식에 의해 보간하려는 화소와 인접 화소간의 수직 방향에 대한 상관 관계를 구할 수 있다.For example, in the case of interpolating the j-th pixel of the i-th line, a correlation in the vertical direction between the pixel to be interpolated and the adjacent pixel may be obtained by the following equation.

------ (1) ------ (One)

------ (2) ------ (2)

----- (3) ----- (3)

이 후, 공간적 보간부(300)는 아래의 프로그램과 동일한 과정을 수행하여 보간하려는 화소의 에지 방향을 산출한다.Thereafter, the spatial interpolator 300 performs the same process as the following program to calculate the edge direction of the pixel to be interpolated.

여기서, 보간하고자 하는 화소는이고, 이는 n번째 필드의 i행 j열에 있는 화소를 의미한다.Here, the pixel to be interpolated This means the pixel in row i, column j of the nth field.

상기 식(1)-(3)에 사용된에 대해서도 동일한 의미를 적용할 수 있다.Used in the above formulas (1)-(3) The same meaning can be applied to.

즉, 공간적 보간부(300)는 식(1)∼(3)에 의해 구한 로우 패스 필티링된 화소간 차이값(a,b,c)의 최대값(을 산출하여 그 최대값(이 소정문턱값(Threshold)보다 작으면 보간하려는 화소의 에지 방향을로 판단한다.That is, the spatial interpolation unit 300 determines the maximum value of the difference (a, b, c) of the low pass-filled pixels obtained by equations (1) to (3). To calculate its maximum value ( If it is less than this threshold, the edge direction of the pixel to be interpolated Judging by.

또한, 위의 수직 방향 상관관계 검출과 유사한 방법으로 위와 같이 로우 패스 필터링된 화소에 대해 수평 방향 상관관계를 검출하여 그 산출된 값이 수평 방향의 소정의 문턱값보다 작으면 보간하려는 화소의 에지 방향을 또한로 판단한다.Also, in a similar manner to the above vertical correlation detection, the horizontal correlation is detected for the low pass filtered pixels as described above, and when the calculated value is smaller than a predetermined threshold in the horizontal direction, the edge direction of the pixel to be interpolated Also Judging by.

반대로, 로우 패스 필터링된 화소간 차이값(a,b,c)의 최대값(이 소정 문턱값(Threshold)과 같거나 보다 크면 즉, 보간하고자 하는 화소가 수직 혹은 수평 방향으로 낮은 상관관계를 나타내는 영역에 존재하면 공간적 보간부(300)는 "경사도(gradient)에 의한 에지 방향 검출 방법"을 이용하여 에지 방향을 검출하는데, 이 과정을 설명하면 다음과 같다.Conversely, the maximum value of the difference (a, b, c) between the low-pass filtered pixels ( If the pixel is equal to or larger than the predetermined threshold, that is, if the pixel to be interpolated exists in a region having low correlation in the vertical or horizontal direction, the spatial interpolator 300 detects the edge direction by the gradient. Method to detect the edge direction, which will be described below.

보간하고자 하는 화소가 수직 또는 수평 에지에 속하지 않으므로 보간하려는 화소가 속한 에지 방향을 산출하기 위하여 우선, 도6의 예시도에 도시한 바와 같은 3x3 소벨 마스크를 이용하여 화소값의 경사도(gradient)를 구하게 된다.Since the pixel to be interpolated does not belong to the vertical or horizontal edge, in order to calculate the edge direction to which the pixel to be interpolated belongs, first, use the 3x3 Sobel mask as shown in the example of FIG. do.

도6에서 도6a는 3x3 소벨 마스크를 도시한 것이고, 도6b는 화소(x5)에서의 y축 기울기를 구하기 위해 이용하는 3x3 소벨 마스크를 도시한 것이며, 도6c는 화소(x5)에서의 x축 기울기를 구하기 위해 이용하는 3x3 소벨 마스크를 도시한 것이다.6A to 6A illustrate a 3x3 Sobel mask, and FIG. 6B illustrates a 3x3 Sobel mask used to obtain a y-axis slope in the pixel x5, and FIG. 6C illustrates an x-axis slope in the pixel x5. The 3x3 Sobel mask is used to obtain.

이때, 도6에서의 소벨 마스크내의 화소값을 아래의 식(4)(5)에 대입하여 화소값의 경사도를 산출한다.At this time, the inclination of the pixel value is calculated by substituting the pixel value in the Sobel mask in Fig. 6 into the following equation (4) (5).

------- (4) ------- (4)

------- (5) ------- (5)

여기서,는 x축에 대하여 측정된 각도이다.here, Is the angle measured with respect to the x-axis.

따라서, 경사도(gradient)의 방향은 도5 에 도시한 바와 같이, 에지 방향()에 대하여 수직이므로 그 에지 방향()은 아래 식(6)과 같은 연산으로 구할 수 있다.Thus, as shown in Fig. 5, the direction of the gradient is determined by the edge direction ( Perpendicular to the edge direction ) Can be obtained by the following operation (6).

------ (6) ------ (6)

이에 따라, 공간적 보간부(300)는 상기에서 경사도에 의해 검출된 에지 방향이에 속하는지 판단하게 된다.Accordingly, the spatial interpolation unit 300 has the edge direction detected by the inclination in the above. Determine if you belong to.

이때, 상기 연산 결과의 에지 방향이라고 판단하면 보간하려는 화소가 보다 넓은 범위의 에지상에 존재하는가를 판별하기 위해 도7a의 예시도와 같이, 현재 보간하려는 화소를 중심으로 j-n∼j+n열에 대해 서브샘플링하여 도7b의 예시도와 같은 소벨 마스크를 얻는다.At this time, the edge direction of the operation result is In order to determine whether a pixel to be interpolated exists on a wider edge, as shown in the example of FIG. 7A, subsamples the columns jn to j + n based on the pixel to be interpolated. Get the Sobel mask.

여기서, 서브샘플링시 화소의 겹침(aliasing)을 방지하기 위해 저역 통과 필터링을 수행하여 원하는 주파수 대역으로 제한한 후 서브샘플링을 수행할 수 있다.Here, in order to prevent aliasing of pixels during subsampling, low pass filtering may be performed to limit the frequency band to a desired frequency band and then perform subsampling.

이 후, 공간적 보간부(300)는 도7b와 같은 소벨 마스크에 대해 상기 식(1)∼(3)과 같은 연산을 수행하고 그때의 화소간 차이값(a,b,c)의 최대값(을 문턱값(Threshold)과 비교하여 앞에서 언급한 바와 같이 보간하려는 화소가 수평 또는 수직 에지에 존재하는지 판단하게 된다.Subsequently, the spatial interpolation unit 300 performs the same operation as the above formulas (1) to (3) on the Sobel mask as shown in Fig. 7B, and the maximum value of the difference value (a, b, c) between pixels at that time ( Is compared with a threshold to determine whether the pixel to be interpolated exists at the horizontal or vertical edge as mentioned above.

이에 따라, 서브샘플링된 화소에 대한 판단 결과 보간하려는 화소가 수평 또는 수직 에지에 존재하면 공간적 보간부(300)는 보간하려는 화소의 에지 방향을으로판단한다.Accordingly, when the pixel to be interpolated is present at the horizontal or vertical edge as a result of the determination on the subsampled pixel, the spatial interpolator 300 adjusts the edge direction of the pixel to be interpolated. Judging by

반대로, 보간하려는 화소가 수평 또는 수직 에지에 존재하지 않으면 공간적 보간부(300)는 상기 식(4)∼(6)과 같은 연산을 수행하여 에지 방향을 산출하게 된다.On the contrary, if the pixel to be interpolated does not exist at the horizontal or vertical edge, the spatial interpolator 300 calculates the edge direction by performing the same operation as in Equations (4) to (6).

그리고, 상기에서 경사도에 의한 에지 방향을 검출할 때 주어진 화소에서 사용되는 보간하고자 하는 라인의 초기 추정 화소값은 도8의 예시도와 같이 단순히 수직 방향으로 선형보간한 값이나 이 값에 2차원 가우시안 필터를 적용한 값을 사용한다.The initial estimated pixel value of the line to be interpolated used in a given pixel when detecting the edge direction due to the inclination is simply linearly interpolated in the vertical direction as shown in FIG. 8 or a two-dimensional Gaussian filter. Use the value applied.

즉, 도8a는 격행 주사 필드 영상의 3x3 영상 영역을 나타내고, 도8b는 잡음 성분 제거를 위한 2차원 가우시안 필터의 예를 나타낸 것으로, 도8a와 같은 영상 영역에서 수직 방향으로 선형 보간한 x에서의 초기 추정 화소값은이 되며, 수직 방향으로 선형 보간하여 도8b와 같은 2차원 가우시안 필터를 통과시킨 후의 x에서의 초기 추정 화소값은가 된다.That is, FIG. 8A shows a 3x3 image region of a progressive scan field image, and FIG. 8B shows an example of a two-dimensional Gaussian filter for removing noise components. In FIG. 8A, x is linearly interpolated in the vertical direction in FIG. 8A. The initial estimated pixel value The initial estimated pixel value at x after linear interpolation in the vertical direction and passing through the two-dimensional Gaussian filter as shown in FIG. Becomes

따라서, 공간적 보간부(300)는 상기 일련의 과정을 아래와 같은 프로그램에 의해 수행하는 것이다.Therefore, the spatial interpolator 300 performs the series of processes by the following program.

IF(수평 혹은 수직 edge상에 존재) THENIF (on horizontal or vertical edge) THEN

edge 방향 = edge direction =

ELSEELSE

gradient 계산에 의한 edge 방향 검출Edge direction detection by gradient calculation

IF(edge 방향 =) THENIF (edge direction = ) THEN

현재 보간하고자 하는 화소를 중심으로 서브샘플링Subsampling around the pixel you want to interpolate

IF(수평 혹은 수직 edge상에 존재) THENIF (on horizontal or vertical edge) THEN

edge 방향 = edge direction =

ELSEELSE

gradient 계산에 의한 edge 방향 검출Edge direction detection by gradient calculation

ENDIFENDIF

ENDIFENDIF

ENDIFENDIF

즉, 상기의 과정을 간략하게 설명하면, 보간하려는 화소와 주변 화소간의 상관 관계를 검출하여 보간하려는 화소가 수평 또는 수직 에지상에 존재하면 에지 방향은으로 판단한다.That is, if the above process is briefly described, if the pixel to be interpolated detects a correlation between the pixel to be interpolated and the pixel to be interpolated exists on a horizontal or vertical edge, the edge direction is Judging by.

만일, 보간하려는 화소의 에지 방향이이 아니라면 "경사도에 의한 에지 방향 검출 방법"을 적용하여 에지 방향을 산출하고 그때의 에지 방향이인지 판단한다.If the edge direction of the pixel to be interpolated If not, apply the "edge direction detection method by the gradient" to calculate the edge direction, Determine if it is.

이때, 에지 방향이으로 판단되면 현재 보간하고자 하는 화소를 중심으로 서브샘플링을 수행하고 상기 식(1)∼(3)을 이용하여 보간하려는 화소가 수평 또는 수직 에지상에 존재하는지 판단한다.At this time, the edge direction If it is determined, subsampling is performed centering on the pixel to be interpolated, and it is determined whether the pixel to be interpolated exists on a horizontal or vertical edge by using Equations (1) to (3).

이에 따라, 보간하려는 화소가 수평 또는 수직 에지상에 존재하면 최종적으로 보간하려는 화소의 에지 방향을으로 판단한다.Accordingly, when the pixel to be interpolated exists on the horizontal or vertical edge, the edge direction of the pixel to be interpolated is finally changed. Judging by.

반대로, 화소의 서브샘플링후 판단 결과 보간하려는 화소가 수평 또는 수직 에지상에 존재하지 않으면 서브샘플링된 화소에 대해 경사도에 의한 에지 방향 검출 방법을 적용하여 에지 방향을 산출하게 된다.On the contrary, if the pixel to be interpolated is not present on the horizontal or vertical edge after the subsampling of the pixel, the edge direction is calculated by applying the edge direction detection method by the gradient to the subsampled pixel.

이 후, 상기와 같은 과정은 j+1,j+2,j+3,j+4,...의 위치상에 놓이는 화소에 대해 반복 수행되어 각 화소의 방향값들Dir(j+1), Dir(j+2), Dir(j+3), Dir(j+4),...이 지속적으로 산출한다.Subsequently, the above process is repeated for the pixels placed on the positions of j + 1, j + 2, j + 3, j + 4, ..., and the direction values Dir (j + 1) of each pixel are repeated. , Dir (j + 2), Dir (j + 3), Dir (j + 4), ... are continuously calculated.

또한, 공간적 보간부(300)는 상기와 같은 과정으로 보간하려는 화소의 에지 방향을 검출하면 도9에 도시한 바와 같은 "계층적 규칙에 의해 에지 검출 방법"을 이용하여 초기에 잡음 성분에 의해 잘못 검출된 에지 방향을 주변 화소들이 속하는 에지 방향들과 비교, 분석함으로 올바른 에지 방향으로 보정하게 된다.In addition, when the spatial interpolator 300 detects the edge direction of the pixel to be interpolated in the above-described process, the spatial interpolation unit 300 is initially misused by the noise component using the "edge detection method by hierarchical rule" as shown in FIG. The detected edge direction is corrected to the correct edge direction by comparing and analyzing the edge direction to which edge pixels belong to.

우선, 각 화소의 방향값들(Dir(j+1),Dir(j+2),Dir(j+3),Dir(j+4),Dir(j+5))을 참조하여 제1 프로그램 모듈의 연산 과정을 수행함에 의해 원래 방향값을 산출하려던 화소에 수평 방향으로 인접하여 위치한 화소의 방향값들(NewDir(j+3))을 추정한다.First, the first program is described with reference to the direction values Dir (j + 1), Dir (j + 2), Dir (j + 3), Dir (j + 4), and Dir (j + 5) of each pixel. By performing the operation of the module, the direction values NewDir (j + 3) of pixels positioned in the horizontal direction adjacent to the pixel from which the original direction value is to be estimated are estimated.

또한, 위의 j를 j-1로 대치함으로써 인접하여 위치한 회소의 방향값(NewDir(j+2))을 동일한 방식으로 추정한다.Further, by replacing j above with j-1, the direction value (NewDir (j + 2)) of the adjacent locator is estimated in the same manner.

이 후, 상기에서 산출된 방향값들(NewDir(j+2),NewDir(j+3))과 현재 방향값을 구하려는 화소와 이전 화소의 방향값들(OutDir(j),OutDir(j+1))을 이용하여 제2 프로그램 모듈의 연산 과정을 수행함에 의해 이후 인접 화소의 방향값(OutDir(j+2))을 산출한다.Thereafter, the direction values NewDir (j + 2) and NewDir (j + 3) calculated above and the direction values of the pixel and the previous pixel OutDir (j) and OutDir (j + 1) for which the current direction value is to be obtained. The direction value OutDir (j + 2) of adjacent pixels is calculated after performing the calculation process of the second program module using)).

이에 따라, 이후 인접 화소의 방향값(OutDir(j+2))과 현재 방향값을 구하려는 화소 및 이전,이후 화소의 방향값들(OutDir(j-2),OutDir(j-1),OutDir(j),OutDir(j+1))을 이용하여 제3 프로그램 모듈의 연산 과정을 수행함에 의해 현재 보간할 화소의 에지 방향(FinalDir(j))을 올바른 방향으로 보정한다.Accordingly, the direction values (OutDir (j + 2)) of the adjacent pixels and the pixel values for which the current direction value is to be obtained and the direction values of the previous and subsequent pixels (OutDir (j-2), OutDir (j-1), and OutDir ( j), by performing the calculation process of the third program module using OutDir (j + 1)), the edge direction FinalDir (j) of the pixel to be interpolated is corrected in the correct direction.

이 후, 보간하고자 하는 화소에 대해 상기에서 거시적으로 결정된 에지 방향(FinalDir(j))에 대해 보다 세밀한 에지 방향을 검출하여 주변 화소값들을 선형 보간하여 보간값을 산출하도록 "구간 매칭(region matching) 방법"을 적용한다.Subsequently, the region matching is performed to detect a finer edge direction with respect to the edge direction FinalDir (j) determined macroscopically for the pixel to be interpolated and to calculate interpolation by linearly interpolating peripheral pixel values. Method ".

구간 매칭 방법이란 보간할 영역의 에지 부분의 화소값이 에지 방향에 따라 연속적이라는 성질을 이용하여 보간값을 추출하는 방법으로, 이를 개략적으로 설명하면 다음과 같다.The interval matching method is a method of extracting an interpolation value by using a property that pixel values of an edge portion of an area to be interpolated are continuous along the edge direction.

먼저, 보간할 화소가 포함된 임의의 에지 상에 존재하는 이동영역(sliding window)내에 존재하는 화소값을 검출한다.First, a pixel value existing in a sliding window existing on an arbitrary edge including a pixel to be interpolated is detected.

이때, 이동 영역의 크기는 시스템에 따라 임의로 조절할 수 있다.In this case, the size of the moving area may be arbitrarily adjusted according to the system.

그리고, 상하의 이동 영역을 일정한 간격으로 서로 반대 방향으로 시프트시키면서 그 시프트된 양에 해당되는 다양한 에지 방향에 대해 상하 이동 영역내의 서로 상응하는 화소간의 차이를 지속적으로 검출한다.Then, while shifting the up and down moving areas in opposite directions at regular intervals, the difference between pixels corresponding to each other in the up and down moving areas is continuously detected for various edge directions corresponding to the shifted amounts.

동시에 지속적으로 검출된 화소값의 변화량을 참조하여 보간하고자 하는 화소가 포함되어 있는 에지의 방향을 감지한다.At the same time, the direction of the edge including the pixel to be interpolated is detected by referring to the amount of change in the pixel value which is continuously detected.

예를 들어, 도10은 "경사도 및 계층적 규칙을 기반으로 한 에지 방향 검출 방법"에 의해 결정된 거시적 에지 방향(FinalDir(j))이일 경우의 세부 방향 결정을 위한 구간 매칭 방법을 도시한 것이다.For example, FIG. 10 shows the macroscopic edge direction FinalDir (j) determined by the “edge direction detection method based on gradient and hierarchical rule”. A section matching method for determining a detailed direction in one case is illustrated.

따라서, 보간할 i번째 라인을 기준으로 일정한 관측 영역(observation window)내에서 i+1번째 라인과 i-1번째 라인에 소정의 이동 영역(sliding window)을 설정한다.Accordingly, a predetermined sliding window is set in the i + 1th line and the i-1th line in a constant observation window based on the ith line to be interpolated.

그리고, i-1번째 라인의 이동 영역은 왼쪽에서 오른쪽으로 이동시키고 i+1번째 라인의 이동영역은 오른쪽에서 왼쪽으로 이동시킨다.Then, the moving area of the i-1th line moves from left to right and the moving area of the i + 1th line moves from right to left.

그리고, 이동 영역간의 서로 대각선상에 위치한 화소들의 차이값을 검출하여 그 차이를 합산하거나 혹은 상기의 합산값을 소정의 이동 영역내에서 화소당 평균 차이값으로 환산하여 화소값의 변화량을 산출한다.The difference value of the pixels located on the diagonal lines between the moving areas is detected and the difference is summed, or the sum is converted into an average difference value per pixel in the predetermined moving area to calculate the change amount of the pixel value.

여기서, 이동 영역의 이동 간격이 인접한 화소 간격의 절반 단위로 설정된 경우를 예로 하였지만, 보다 정밀하게 하기 위하여 1/4,1/8,...등의 세밀한 간격으로 이동 영역의 이동 간격을 조절할 수 있다.Here, the case in which the movement interval of the movement region is set in half of the adjacent pixel interval is taken as an example. However, for the sake of precision, the movement interval of the movement region can be adjusted at fine intervals such as 1/4, 1/8, ... have.

이때, 관측 영역의 수평적으로 서로 인접한 화소들의 화소값을 선형적으로 보간하고 그 선형적으로 보간된 화소값을 상기 관측 영역의 수평적으로 서로 인접한 화소들 사이의 값으로 설정한다.In this case, the pixel values of pixels horizontally adjacent to each other in the viewing area are linearly interpolated, and the linearly interpolated pixel values are set to values between horizontally adjacent pixels in the viewing area.

이 후, 아래 식(7)에 의해 이동 영역내에 위치한 화소들이 가진 화소값의 차이를 산출하거나 혹은 식(7)의을 이동 영역내에 위치한 화소들의 수로 나눈 화소당 평균 차이를 산출한다.Subsequently, the difference in pixel values of pixels located in the moving area is calculated by Equation 7 below, or The average difference per pixel divided by the number of pixels located in the moving area is calculated.

-------- (7) -------- (7)

여기서, m은 응용에 따라 구하고자 하는 대각선의 방향까지로 정할 수 있다.Here, m may be determined up to the diagonal direction to be obtained according to the application.

예로, m의 범위를 -3에서 +3까지로 정할 수 있고 -3에서 +3사이의 m값의 간격을 이동 영역의 이동 간격에 의해 정의한다.For example, the range of m can be set from -3 to +3, and the interval of m values between -3 and +3 is defined by the moving interval of the moving area.

그 후, 상기 식(7)에 의한 값중에서 최소값을 추출하고 그 최소값에 대한값을추출한다.Then, the minimum value is extracted from the value obtained by the above equation (7) and the Extract the value.

한예로서, m의 범위를 -3에서 +3까지로 정하고 이동 영역의 이동 간격을 반화소로 정의한 경우에 따라 보간값을 산출한다.As an example, if the range of m is -3 to +3 and the moving interval of the moving area is defined as half pixel To calculate the interpolation value.

즉, "구간 매칭 방법"에 의한 보간값을 산출하는 과정을 단계적으로 설명하면 다음과 같다.That is, the process of calculating the interpolation value by the “interval matching method” will be described as follows.

먼저, 이동 영역내에 포함된 각 화소들의 화소값을 수평적으로 서로 인접한 화소끼리 선형적으로 보간한다.First, pixel values of pixels included in the moving area are linearly interpolated between pixels adjacent to each other horizontally.

그리고, 수평적으로 서로 인접한 화소끼리 보간한 화소값을 상기 수평적으로 인접한 화소사이에 삽입하고 이동 영역간의 화소들간의 차이를 산출하여 합산한다.Then, pixel values interpolated between horizontally adjacent pixels are inserted between the horizontally adjacent pixels, and the difference between the pixels between the moving areas is calculated and summed.

그 후, 이 합산값들중 최소값을 산출하고 최소값이 산출된 대각선상에 있는 상하의 이동 영역의 중심에 존재하는 화소값을 선형 보간하여 보간값을 산출한다.Then, the minimum value of these sum values is calculated, and the interpolation value is calculated by linearly interpolating pixel values existing at the center of the up and down moving area on the diagonal on which the minimum value is calculated.

만일, 상기 식(7)에 의해 산출된 값중 최소로 되는이 2개 이상 산출되면 m이 0인 경우를 기준점으로 하여 가장 가까운 지점의 보간값을 우선한다.If the minimum value of the value calculated by the above equation (7) If two or more are calculated, the interpolation value of the nearest point is given priority as a reference point when m is zero.

그리고, m이 0인 경우를 기준점으로 하여 2개의이 동일한 거리의 지점에서 산출되면 2개의이 존재하는 이동 영역의 중심에 위치한 화소값을 필터링하여 보간값을 산출한다.Then, two m is set as a reference point when m is 0. Is computed at this same distance point, two The interpolation value is calculated by filtering the pixel value located at the center of the existing moving area.

그러나, 각 대각선 방향에 따른 이동 영역간의 화소값들의 차이의 합()이 소정 문턱값 이상의 값을 가지게 되면 보간값은이 0인 경우 즉, 수직 방향으로 선형 보간할 때의 값과 동일하게 된다.However, the sum of the difference of pixel values between the moving areas along each diagonal direction ( ) Has a value above the predetermined threshold, the interpolation value is Is 0, i.e., equal to the value when linear interpolation is performed in the vertical direction.

그리고, 본 발명에서 관측 영역의 크기및 그 관측 영역에 포함되는 화소의 개수도 임의로 조절할 수 있다.In the present invention, the size of the viewing area and the number of pixels included in the viewing area may be arbitrarily adjusted.

물론, 관측 영역의 범위내에서 이동 영역의 크기도 임의로 조절할 수 있으며 그 이동 영역에 포함되는 화소의 개수 역시 임의로 조절할 수 있다.Of course, the size of the moving area may be arbitrarily adjusted within the range of the viewing area, and the number of pixels included in the moving area may be arbitrarily adjusted.

그런데, 본 발명에서는 주어진 에지 방향에 따라 세부적으로 "구간 매칭 방법"을 적용할 때 다수개의 영역으로 분할하여 각각의 영역에 대해 "구간 매칭 방법"을 적용한다.However, in the present invention, when applying the "section matching method" in detail according to a given edge direction, the "section matching method" is applied to each area by dividing into a plurality of areas.

이에 따라, 각 영역의 최소 구간 매칭 에러()를 구하고 그 중 최소인 구간 매칭 에러를 나타내는 방향에 따라 현재 보간하고자 하는 화소 위치의 화소값을 보간하게 된다.Accordingly, the minimum section matching error of each region ( ) Is interpolated and the pixel value of the pixel position to be interpolated is interpolated according to the direction indicating the minimum interval matching error.

예를 들어, 도11은 "경사도 및 계층적 규칙을 기반으로 한 에지 방향 검출 방법"에 의해 결정된 거시적 에지 방향(FinalDir(j))이일 경우 크게 두 영역(A,B)으로 분할하여 각각의 영역에 대한 "구간 매칭 방법"을 도시한 것이다.For example, Figure 11 shows the macroscopic edge direction FinalDir (j) determined by " edge direction detection method based on gradient and hierarchical rules " In this case, the "section matching method" for each region is illustrated by dividing it into two regions A and B.

따라서, 도11을 참조하여 현재 보간하고자 하는 화소 위치의 화소값을 보간하는 과정을 설명하면 다음과 같다.Therefore, referring to FIG. 11, a process of interpolating a pixel value of a pixel position to be interpolated at present is as follows.

도11에서 영역(A)는 에지 방향을 기준으로 검출된영역에서 특정 에지 방향까지로 설정하고 영역(B)는방향에서 상기의 특정 에지 방향에서 관측하려는 영역의 끝까지로 설정한다.In Fig. 11, area A is the edge direction. Detected based on From the area up to a certain edge direction and the area (B) Direction to the end of the region to be observed in the particular edge direction.

또한, 위의 경계가 되는 특정 에지 방향은 응용 및 이동 영역의 크기등을 고려하여 임의로 적절하게 선택할 수 있다.In addition, the specific edge direction which becomes the upper boundary can be arbitrarily appropriately selected in consideration of the size of the application and the moving area.

이때, 각각의 영역(A)(B)에 대하여 상기 식(7)과 같은 연산으로 구간 매칭 에러들을 구하고 각각의 영역(A)(B)에 대한 구간 매칭 에러들을 비교하여 각각의 영역(A)(B)에서의 최소 구간 매칭 에러()()를 구하게 된다.In this case, interval matching errors are obtained for each region A and B by the same operation as in Equation (7), and the region matching errors for each region A and B are compared to each region A. Minimum interval matching error in (B) ) ( ).

이 후, 각 영역(A)(B)에 대한 최소의 구간 매칭 에러()()를 비교한다.After that, the minimum interval matching error for each area (A) (B) ( ) ( ).

이때, 구간 매칭 에러()가 구간 매칭 에러()보다 작거나 같으면 현재 보간하고자 하는 화소값은 영역(A)의 최소 구간 매칭 에러()를 나타내는 방향에 따라 보간된 값이 된다.At this time, the interval matching error ( ) Is an interval matching error ( If less than or equal to, the pixel value to be interpolated is the minimum section matching error ( The interpolated value depends on the direction indicated by

반대로, 구간 매칭 에러()가 구간 매칭 에러()보다 크면 영역(B)의 최소 구간 매칭 에러()를 나타내는 방향에 따라 보간된 화소값을 구하여 현재 보간하고자 하는 화소의 바로 상,하에 존재하는 화소값사이에 있는지 판별한다.Conversely, the interval matching error ( ) Is an interval matching error ( Greater than), the minimum interval matching error ( The interpolated pixel value is obtained according to the direction indicated by) to determine whether the pixel value exists between the pixel values existing immediately above and below the pixel to be interpolated.

이에 따라, 최소 구간 매칭 에러()를 나타내는 방향에 따라 보간된 화소값이 현재 보간하고자 하는 화소의 바로 상,하에 존재하는 화소값사이에 있으면 이 화소값이 보간하고자 하는 화소값이 된다.Accordingly, the minimum interval matching error ( If the interpolated pixel value is between the pixel values immediately above and below the pixel to be interpolated, the pixel value becomes the pixel value to be interpolated.

만일, 최소 구간 매칭 에러()를 나타내는 방향에 따라 보간된 화소값이 현재 보간하고자 하는 화소의 바로 상,하에 존재하는 화소값사이에 있지 않으면 현재 보간하고자 하는 화소값은 영역(A)의 최소 구간 매칭 에러()를 나타내는 방향에 따라 보간된 값이 된다.If the minimum interval matching error ( If the interpolated pixel value is not between the pixel values immediately above and below the pixel to be interpolated, the pixel value to be interpolated is the minimum section matching error of the region A. The interpolated value depends on the direction indicated by

즉, 상기의 과정은 아래와 같은 프로그램에 의해 수행한다.That is, the above process is performed by the following program.

IF( ) THENIF ( ) THEN

ELSEELSE

IF(Median{} =) THENIF (Median { } = ) THEN

ELSEELSE

ENDIFENDIF

ENDIFENDIF

여기서,는 n번째 필드의 i행 j열에 있는 화소를 나타내며, 이것이 현재 보간하고자 하는 화소이다.here, Denotes a pixel in row i, column j of the nth field, which is the pixel to be interpolated at present.

또한,는 각각 A영역과 B영역의 최소 구간 매칭 에러를 나타내는 방향을 따라 보간한 값을 나타낸다.Also, Wow Denotes values interpolated along directions indicating minimum section matching errors in regions A and B, respectively.

따라서, 공간적 보간부(300)는 상기 일련의 과정과 같이, 가능한 현재 보간할 화소와 공간적으로 인접한 화소들을 사용하여 보간을 수행하고 상대적으로 멀리 떨어져 있는 화소들을 사용하여 보간하는 경우에는 보간할 화소에 인접해 있는 화소들과의 상관 관계를 검사하여 상관성이 높은 경우에만 이 화소들을 사용하여 보간함으로써 보다 정교하면서도 안정적인 보간을 실행하게 된다.Therefore, the spatial interpolation unit 300 performs interpolation using pixels that are spatially adjacent to the pixel to be interpolated as much as possible, and interpolates pixels to be interpolated when pixels are relatively far apart. By checking the correlation with adjacent pixels and interpolating using these pixels only when the correlation is high, more precise and stable interpolation can be performed.

그리고, 상기에서 공간적 보간부(300)가 보간할 화소값을 결정하기 위해 기울기와 룰을 기반으로 한 방향 검출 방법을 먼저 이용하고 구간 매칭 방법을 나중에 이용하는 이유는 다음과 같다.In addition, the spatial interpolator 300 uses the direction detection method based on the slope and the rule first and then the interval matching method later to determine the pixel value to be interpolated.

구간 매칭 방법은 동작 원리가 간단하나, 하나의 에지 방향을 검출하기 위한 연산 분량이 많아 보간값을 정밀하게 검출하기 어려운 단점이 있다.The interval matching method has a simple operation principle, but has a disadvantage in that it is difficult to accurately detect an interpolation value due to a large amount of calculations for detecting one edge direction.

반면, 기울기와 룰을 기반으로 한 방향 검출 방법은 간단한 연산으로 에지 방향을 쉽게 검출할 수 있는 장점이 있으나, 정밀하게 에지 방향을 검출하는데 어려움이 있다는 단점이 있다.On the other hand, the direction detection method based on the slope and the rule has an advantage that the edge direction can be easily detected by a simple operation, but has a disadvantage in that it is difficult to accurately detect the edge direction.

따라서, 본 발명은 상기 방법들의 장점만을 사용함으로써 에지 방향이 검출된 화소의 선형적인 보간값을 추출할 때에만 "구간 매칭 방법"을 이용하고 실제로 보간할 화소가 속한 에지 방향을 검출할 때에는 "경사도 및 규칙을 기반으로 한 에지 방향 검출 방법"을 사용하는 것이다.Therefore, the present invention uses the "interval matching method" only when extracting the linear interpolation value of the pixel where the edge direction is detected by using only the advantages of the above methods, and the "inclination degree" when detecting the edge direction to which the pixel to be interpolated actually belongs. And an edge direction detection method based on rules ".

이에 따라, 본 발명은 "구간 매칭 방법"만을 적용하는 경우보다는 연산량을 크게 감소시켜 효율적인 에지 검출 방법을 제공하고 "경사도 및 규칙을 기반으로 한 에지 방향 검출 방법"만을 적용한 경우보다는 정밀한 에지 방향 검출이 가능하게 된다.Accordingly, the present invention provides an efficient edge detection method by greatly reducing the amount of computation rather than applying only the "section matching method", and more precise edge direction detection is achieved than when only the "edge direction detection method based on gradient and rule" is applied. It becomes possible.

이 후, 현재 필드내에서 보간할 화소의 주변 화소 특히, 선형 보간에 사용된 대각 방향의 두 화소와, 보간된 위치의 화소 그리고, 이전 필드와 이후 필드의 현재 보간된 위치의 두 화소에 대하여 메디안 필터링을 수행한다.Then, the median for the surrounding pixels of the pixel to be interpolated in the current field, in particular, two pixels in the diagonal direction used for linear interpolation, the pixel at the interpolated position, and the two pixels at the current interpolated position of the previous and subsequent fields. Perform filtering.

예를 들어, 도12는 보간 화소 결정을 위한 시간 및 공간적 필터링에 사용되는 인접화소들을 보인 예시도이다.For example, FIG. 12 is an exemplary diagram showing adjacent pixels used for temporal and spatial filtering for interpolation pixel determination.

이때, 현재 필드(n번째 필드)내에서 보간할 화소의 주변 화소 특히, 선형 보간에 사용된 대각 방향의 두 화소(,)와, 보간된 위치의 화소(그리고, 이전 필드(n-1번째 필드)와 이후 필드(n+1번째 필드)의 현재 보간된 위치의 화소(,)에 대하여 아래 식(8)와 같은 연산으로 메디안 필터링을 수행하여 화소의 잡음 성분을 제거한다.At this time, the peripheral pixels of the pixel to be interpolated in the current field (n-th field), in particular, two pixels in the diagonal direction used for linear interpolation ( , ) And the pixel at the interpolated position ( Then, the pixel at the currently interpolated position of the previous field (n-1th field) and the subsequent field (n + 1th field) , ), Median filtering is performed by the operation as shown in Equation (8) below to remove the noise component of the pixel.

------ (8) ------ (8)

따라서, 상기 식(8)과 같은 메디안 필터링을 수행함으로써 현재 보간하고자 하는 화소를 시간적, 공간적으로 필터링하여 잡음 성분을 제거할 뿐만 아니라 움직임 확장부(700)에 의해 동화로 고려되는 정지화 부분의 시간적 보간 효과를 나타낼 수 있으며, 시간축 방향으로 일관성을 유지하여 안정도를 높일 수 있다.Therefore, by performing the median filtering as shown in Equation (8), not only the noise component is removed by temporally and spatially filtering the pixels to be interpolated at present, but also the temporal interpolation of the still image which is considered as moving image by the motion extension unit 700. The effect can be exhibited and stability can be increased by maintaining consistency in the time axis direction.

그리고, 현재 필드(n번째 필드)에서 더 부드럽고 안정적인 보간값을 산출하기 위하여 상기에서 산출된 에지 방향에 따라 필드내 보간된 화소값에 소정의 가중치를 주어 아래 식(9)와 같은 메디안 필터링을 수행할 수 있다.In order to calculate a smoother and more stable interpolation value in the current field (nth field), median filtering is performed by giving a predetermined weight to the interpolated pixel value according to the edge direction calculated above. can do.

가중치가 감안된 메디안 필터링은 아래 식(9)와 같은 연산으로 수행된다.Median filtering considering weight is performed by the operation as shown in Equation (9) below.

------(9) ------ (9)

그런데, 상기와 같이 메디안 필터링이 모두 수행된 보간 화소()가 현재 보간할 위치와 공간적으로 먼 다른 화소들에 의해 결정된 경우이거나 매우 빠른 움직임상에 존재하는 경우이면 보간 화소값이 인접한 다른 화소들에 비해 두드러지게 다른 값을 나타낼 수 있다.However, as described above, the interpolation pixel in which all the median filtering is performed ( ) Is determined by other pixels that are spatially far from the current interpolation position or when they are present in very fast motion, the interpolation pixel value may represent a significantly different value than other adjacent pixels.

이러한 현상을 방지하기 위하여 본 발명에서 공간적 보간부(300)는 필드내에서 보간할 화소의 위치로부터 수직 방향으로 인접한 화소들을 참조하여 아래와 같은 프로그램에 의해 수직 방향의 메디안 필터링을 수행한다.In order to prevent such a phenomenon, the spatial interpolation unit 300 performs median filtering in the vertical direction by the following program with reference to pixels adjacent in the vertical direction from the position of the pixel to be interpolated in the field.

이러한 수직 방향 메디안 필터링의 동작을 설명하면 다음과 같다.The operation of the vertical median filtering is as follows.

만약, 현재 보간할 화소의 위치로부터 수평적으로 떨어진 거리가 상기 식(7)에 의해 결정되는 m값보다 작다면 상기 식(8) 또는 식(9)에 의해 추정된 보간 화소는 보간값으로 결정된다.If the distance horizontally away from the current position of the pixel to be interpolated is smaller than the m value determined by Equation (7), the interpolation pixel estimated by Equation (8) or (9) is determined as an interpolation value. do.

그러나, 만약 현재 보간할 화소의 위치로부터 수평적으로 떨어진 거리가 상기 식(7)에 의해 결정되는 m값보다 작지 않다면 보간값은 상기 식(8) 또는 (9)에 의해 추정된 보간 화소와 보간될 화소의 수직 방향으로 인접한 화소들의 화소값을 참조하여 메디안 필터링된 값으로 결정된다.However, if the distance horizontally away from the position of the pixel to be interpolated at present is not smaller than the m value determined by Equation (7), the interpolation value is interpolated with the interpolation pixel estimated by Equation (8) or (9). The median filtered value is determined by referring to pixel values of adjacent pixels in a vertical direction of the pixel to be used.

그리고, 시간적 보간부(400)는 현재 보간을 실시할 화소와 동일한 위치에 해당하는 그 이전 필드 데이터의 화소값과 그 이후 필드 데이터의 화소값을 평균하여 필드 평균값을 추출한다.The temporal interpolation unit 400 extracts a field average value by averaging pixel values of previous field data and pixel values of subsequent field data corresponding to the same position as the pixel to be interpolated at present.

예로, n번째 필드 영상을 새로 생성하기 위하여 i번째 라인의 j번째 화소를 보간하여야 한다면 시간적 보간부(400)는 i번째 라인의 j번째 화소의 영상 데이터를 가지고 있는 n-1번째 필드 데이터의 화소값과 n+1번째 필드 데이터의 화소값을 평균하여 필드 평균값을 추출한다.For example, if it is necessary to interpolate the j-th pixel of the i-th line to newly generate the n-th field image, the temporal interpolation unit 400 includes the pixels of the n-1 th field data having the image data of the j-th pixel of the i-th line. The field average value is extracted by averaging the value and the pixel value of the n + 1th field data.

즉, 시간적 보간부(400)에서의 필드 평균값은 아래 식(10)에 의해 산출된다.That is, the field average value in the temporal interpolation unit 400 is calculated by the following equation (10).

------ (10) ------ (10)

이때, 소프트 스위치부(500)는 움직임 결정부(200)에서 산출된 밝기 차이(BD)와 밝기 윤곽 패턴 차이(BPPD)를 입력받아 움직임 확장부(700)에서 출력된 움직임 정도값을 참조하여 공간적 보간부(300)에서 출력된 에지 방향을 고려한 필드내 보간값과 시간적 보간부(400)에서 출력된 필드 평균값을 혼합하여 출력한다.In this case, the soft switch unit 500 receives the brightness difference BD and the brightness contour pattern difference BPPD calculated by the motion determiner 200 and spatially refers to the motion degree value output from the motion expansion unit 700. The interpolation value in consideration of the edge direction output from the interpolation unit 300 and the field average value output from the temporal interpolation unit 400 are mixed and output.

이러한 소프트 스위치부(500)는 아래 식(11)과 같은 연산값을 출력한다.The soft switch unit 500 outputs an operation value as shown in Equation (11) below.

----- (11) ----- (11)

여기서,는 움직임 확장부(700)에서 출력된 움직임 정도값으로서 '0 이상 1 이내'의 범위의 값이다.here, Is a motion degree value output from the motion expansion unit 700 and is a value in the range of '0 or more and 1 or less'.

이에 따라, 수직라인 변환부(800)는 소프트 스위치부(500)에서 출력된 보간값과 필드 저장부(100)에서 저장된 현재 필드 데이터값들을 참조하여 디스플레이 장치에 맞는 보간 라인을 생성하기 위하여 현재 필드 화면의 수직 라인수를 변환한다.Accordingly, the vertical line converter 800 refers to the interpolation value output from the soft switch unit 500 and the current field data values stored in the field storage unit 100 to generate an interpolation line suitable for the display device. Convert the number of vertical lines on the screen.

만일, 라인 변환이 필요없이 디인터레이싱된 필드 데이터만을 필요로 하는 경우 수직라인 변환부(800)는 필드 저장부(100) 및 소프트 스위치부(500)에서 출력된 값을 그대로 통과시켜 출력한다.If only the deinterlaced field data is needed without line conversion, the vertical line converter 800 passes the values output from the field storage unit 100 and the soft switch unit 500 and outputs the same.

상기에서 상세히 설명한 바와 같이 본 발명은 종래의 디인터레이싱 방법에 비하여 더 정밀한 에지 방향 검출 및 보간을 실시함으로써 화질 성능이 우수해지는 효과가 있다.As described in detail above, the present invention has an effect of improving image quality performance by performing more precise edge direction detection and interpolation than the conventional deinterlacing method.

Claims (10)

m개의 필드 데이터에서 보간할 화소를 포함하는 일정 영역의 화소를 검출하는 단계와, 상기 일정 영역의 화소간 상관 관계를 산출하여 보간할 화소의 변화 방향을 검출하는 단계와, 상기에서 검출된 보간할 화소의 변화 방향을 참조하여 보간값을 산출하는 단계를 수행하여 현재 필드 데이터를 보간하는 디인터레이싱 방법에 있어서, 상기 일정 영역에 대해 보간할 화소가 수평 또는 수직 에지상에 존재하지 않는 경우 보간할 화소를 중심으로 임의의 영역내의 주변 화소에 대해 서브샘플링(sub-sampling)하는 제1 단계와, 상기에서 서브샘플링된 화소 영역에서 보간할 화소의 변화 방향을 검출하는 제2 단계와, 상기에서 검출된 보간할 화소의 변화 방향을 참조하여 보간값을 산출하는 제3 단계를 수행하는 것을 특징으로 하는 디인터레이싱 방법.detecting pixels in a predetermined area including pixels to be interpolated from m field data, calculating a correlation between the pixels in the predetermined area, and detecting a change direction of the pixels to be interpolated; A deinterlacing method for interpolating current field data by performing an operation of calculating an interpolation value with reference to a change direction of a pixel, wherein the pixel to be interpolated is selected if there is no pixel to be interpolated for the predetermined area on a horizontal or vertical edge. A first step of sub-sampling the peripheral pixels in an arbitrary area around the center, a second step of detecting a change direction of a pixel to be interpolated in the subsampled pixel area, and the detected interpolation And a third step of calculating an interpolation value with reference to a change direction of a pixel to be performed. 제1항에 있어서, 보간할 화소를 중심으로 주변 일정 영역에 대해 서브샘플링하는 제1 단계는 보간할 화소와 주변 화소의 상관 관계를 구하는 제1 과정과, 상기 상관 관계를 참조하여 보간할 화소가 수직 또는 수평 에지상에 존재하는지 판단하는 제2 과정과, 상기에서 보간할 화소가 수직 또는 수평 에지상에 존재하지 않으면 에지 부분의 경사도를 산출하는 제3 과정과, 상기 경사도를 참조하여 보간할 화소의 변화 방향을 판별하는 제4 과정과, 상기에서 화소의 변화 방향이이면 현재 보간할 화소를 기준으로 상하측 라인의 일정 영역 화소에 대해 서브샘플링하는 제5 과정으로 이루어진 것을 특징으로 하는 디인터레이싱 방법.The method of claim 1, wherein the first step of subsampling a predetermined area around the pixel to be interpolated comprises: a first process of obtaining a correlation between the pixel to be interpolated and a neighboring pixel; A second process of determining whether it exists on a vertical or horizontal edge, a third process of calculating an inclination of an edge portion if the pixel to be interpolated does not exist on a vertical or horizontal edge, and a pixel to interpolate with reference to the inclination The fourth process of determining the change direction of the pixel and the change direction of the pixel And a fifth process of subsampling the predetermined area pixels of the upper and lower lines based on the pixel to be interpolated. 제2항에 있어서, 경사도를 산출하는 제3 과정은 수직 방향으로 선형 보간한 값에 대해 2차원 가우시안 필터링을 미리 수행하는 것을 특징으로 하는 디인터레이싱 방법.The deinterlacing method of claim 2, wherein the third step of calculating the gradient comprises previously performing two-dimensional Gaussian filtering on values linearly interpolated in the vertical direction. 제2항에 있어서, 서브 샘플링하는 제5 과정은 서브샘플링전에 주파수 대역을 제한하기 위한 저역 필터링을 미리 수행하는 것을 특징으로 하는 디인터레이싱 방법.The method of claim 2, wherein the fifth step of subsampling comprises performing low-pass filtering to limit a frequency band before subsampling. 제1항에 있어서, 제2 단계는 서브샘플링된 영역에서 보간할 화소와 주변 화소의 상관 관계를 구하는 제1 과정과, 상기 상관 관계를 참조하여 보간할 화소가 수직 또는 수평 에지상에 존재하는지 판단하는 제2 과정과, 상기에서 보간할 화소가 수직 또는 수평 에지상에 존재하면 에지 방향을로 판단하는 제3 과정과, 상기에서 보간할 화소가 수직 또는 수평 에지상에 존재하지 않으면 에지 부분의 경사도를 산출하는 제4 과정과, 상기 경사도를 참조하여 보간할 화소의 변화 방향을 판별하는 제5 과정으로 이루어진 것을 특징으로 하는 디인터레이싱 방법.2. The method of claim 1, wherein the second step is a first process of obtaining a correlation between pixels to be interpolated and neighboring pixels in a subsampled region, and determining whether a pixel to be interpolated exists on a vertical or horizontal edge by referring to the correlation. A second process of performing an edge direction if the pixel to be interpolated exists on a vertical or horizontal edge A third step of determining a, a fourth step of calculating an inclination of an edge portion when the pixel to be interpolated does not exist on a vertical or horizontal edge, and a step of determining a change direction of a pixel to be interpolated with reference to the inclination Deinterlacing method characterized in that consisting of five processes. 제1항에 있어서, 에지 방향에 따른 보간값을 산출하는 제3 단계는 제2 단계에서 검출된 보간할 화소의 변화 방향을 기준으로 제1,제2 영역을 분할하는 제1 과정과, 상기에서 분할된 영역에 대한 보간할 화소의 변화 방향 에러를 구하여 그 에러 방향에 따른 보간값을 산출하는 제2 과정으로 이루어진 것을 특징으로 하는 디인터레이싱 방법.The method of claim 1, wherein the third step of calculating the interpolation value according to the edge direction comprises: a first process of dividing the first and second regions based on the change direction of the pixel to be interpolated detected in the second step; And a second process of obtaining a change direction error of a pixel to be interpolated for the divided region and calculating an interpolation value according to the error direction. 제6항에 있어서, 제1 영역은 에지 방향을 기준으로 경사도에 의해 검출된 에지 방향까지로 설정하고 제2 영역은 검출된 에지 방향에서 관측하려는 영역의 끝까지로 설정하는 것을 특징으로 하는 디인터레이싱 방법.The method of claim 6, wherein the first area is in the edge direction Deinterlacing method characterized in that it is set to the edge direction detected by the slope based on the second region to the end of the region to be observed in the detected edge direction. 제6항에 있어서, 제2 과정은 제1,제2 영역의 구간 매칭 에러를 구하여 비교하는 과정과, 제1 영역의 구간 매칭 에러가 제2 영역의 구간 매칭 에러와 같거나 보다 작으면 제1 영역의 최소 구간 매칭 에러를 나타내는 방향으로 선형 보간한 값을 산출하는 과정과, 제1 영역의 구간 매칭 에러가 제2 영역의 구간 매칭 에러보다 크면 제2 영역의 최소 구간 매칭 에러를 나타내는 방향으로 선형 보간하여 그 보간값이 현재 보간하려는 화소의 상,하에 존재하는 화소값 사이에 있는지 비교하는 과정과, 상기에서 제2 영역의 최소 구간 매칭 에러를 나타내는 방향으로 선형 보간한 화소값이 현재 보간하려는 화소의 상,하에 존재하는 화소값사이에 있는 경우 그 제2 영역의 최소 구간 매칭 에러를 나타내는 방향으로 선형 보간한 값을 산출하는 과정과, 상기에서 제2 영역의 최소 구간 매칭 에러를 나타내는 방향으로 선형 보간한 화소값이 현재 보간하려는 화소의 상,하에 존재하는 화소값사이에 있지 않은 경우 제1 영역의 최소 구간 매칭 에러를 나타내는 방향으로 선형 보간한 값을 산출하는 과정으로 이루어지는 것을 특징으로 하는 디인터레이싱 방법.The method of claim 6, wherein the second process includes obtaining and comparing interval matching errors of the first and second regions, and if the interval matching error of the first region is equal to or smaller than the interval matching error of the second region, Calculating linearly interpolated values in the direction indicating the minimum section matching error of the region; and if the section matching error of the first region is greater than the section matching error of the second region, Interpolating and comparing the interpolation values between pixel values existing above and below the pixel to be interpolated; and pixel values linearly interpolated in the direction indicating the minimum section matching error of the second region. Calculating linearly interpolated values in a direction indicating a minimum section matching error of the second region when the pixel values exist between the upper and lower pixel values of the second region; If the pixel value linearly interpolated in the direction indicating the minimum interval matching error of is not between the pixel values existing above and below the pixel to be interpolated, the linearly interpolated value is calculated in the direction indicating the minimum interval matching error of the first region. Deinterlacing method comprising the process of. 보간할 임의의 필드 데이터와 그 주변 필드 데이터를 입력으로 밝기 및 밝기 윤곽 패턴의 차이를 검출하여 영상의 움직임 정도를 계산하는 움직임 결정부와, 현재 보간할 필드 영상에 대해 이전 필드의 화소값과 이후 필드의 화소값을 평균하여 필드 평균값을 산출하는 시간적 보간부와, 상기 필드 저장부로부터 현재 보간을 실시한 영역의 필드 데이터의 화소값과 필드내 주변 화소값을 입력으로 보간할 화소 주변의 화소값들에 포함되어 있는 에지(edge) 방향을 산출하여 그 방향에 따라 최소 구간 매칭 에러를 나타내는 방향에 따른 필드내 보간값을 산출하는 공간적 보간부와, 상기 움직임 확장부에서의 밝기 차이 및 밝기 윤곽 패턴차이에 따라 상기 공간적 보간부에서의 필드내 보간값과 시간적 보간부에서의 필드 평균값을 혼합하여 수직라인 변환부로 출력하는 소프트 스위치부를 구비하는 것을 특징으로 하는 디인터레이싱 장치.A motion determiner that detects the difference between brightness and brightness contour pattern by inputting arbitrary field data to be interpolated and its surrounding field data and calculates the degree of motion of the image; and A temporal interpolation unit that calculates a field average value by averaging pixel values of a field, and pixel values around pixels to interpolate pixel values of field data of a region currently interpolated from the field storage unit and peripheral pixel values in a field as inputs. A spatial interpolation unit for calculating an edge direction included in the interpolation unit and calculating an interpolation value in a field according to a direction indicating a minimum section matching error according to the direction, and a brightness difference and a brightness contour pattern difference in the motion extension unit; Vertical line transformation by mixing the intra-field interpolation value in the spatial interpolation unit and the field average value in the temporal interpolation unit according to Softswitch de-interlacing apparatus comprising: a unit configured to output. 제9항에 있어서, 공간적 보간부는 필드 저장부로부터 현재 보간할 영역의 필드 데이터의 화소값과 필드내 주변 화소값을 입력으로 보간할 화소 주변의 화소값들에 포함되어 있는 에지(edge) 방향을 검출하였을 때 에지 방향이 수평 또는 수직 에지에 존재하지 않는 경우 보간할 화소를 기준으로 소정 영역을 서브샘플링(sub-sampling)하여 보간할 화소가 서브샘플링된 영역에 대해 수평 또는 수직 에지에 존재하지 않으면 경사도(gradient)에 의한 에지 방향을 검출하여 그 검출된 방향을 기준으로 임의로 설정한 관측 영역을 다수개로 분할하여 각각의 영역에 대한 최소구간 매칭 에러를 검출한 후 그 검출된 최소 구간 매칭 에러중 에지 방향에 가장 근접하는 최소 구간 매칭 에러를 나타내는 방향에 따른 필드내 보간값을 산출하도록 구성함을 특징으로 하는 디인터레이싱 장치.10. The method of claim 9, wherein the spatial interpolation unit inputs an edge direction included in the pixel values of the field data of the area to be interpolated from the field storage unit and the pixel values around the pixel to be interpolated by inputting peripheral pixel values in the field. When detected, the edge direction does not exist at the horizontal or vertical edge. If the pixel to be interpolated is not present at the horizontal or vertical edge with respect to the subsampled region by sub-sampling a predetermined region based on the pixel to be interpolated. Detects the edge direction by gradient, divides randomly set observation area based on the detected direction, and detects the minimum section matching error for each region, and then detects the edge of the detected minimum section matching error. direction And calculating an interpolation value in the field according to the direction indicating the minimum interval matching error closest to the.
KR1020000000465A 2000-01-06 2000-01-06 Deinterlacing method and apparatus KR100360882B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020000000465A KR100360882B1 (en) 2000-01-06 2000-01-06 Deinterlacing method and apparatus
US09/754,358 US6731342B2 (en) 2000-01-06 2001-01-05 Deinterlacing apparatus and method using edge direction detection and pixel interplation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020000000465A KR100360882B1 (en) 2000-01-06 2000-01-06 Deinterlacing method and apparatus

Publications (2)

Publication Number Publication Date
KR20010068516A true KR20010068516A (en) 2001-07-23
KR100360882B1 KR100360882B1 (en) 2002-11-13

Family

ID=19636712

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020000000465A KR100360882B1 (en) 2000-01-06 2000-01-06 Deinterlacing method and apparatus

Country Status (1)

Country Link
KR (1) KR100360882B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100423504B1 (en) * 2001-09-24 2004-03-18 삼성전자주식회사 Line interpolation apparatus and method for image signal
US7324160B2 (en) 2003-11-22 2008-01-29 Samsung Electronics Co., Ltd. De-interlacing apparatus with a noise reduction/removal device
CN113852830A (en) * 2021-09-23 2021-12-28 杭州国芯科技股份有限公司 Median filtering video de-interlacing method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3258999B2 (en) * 1992-07-03 2002-02-18 三菱電機株式会社 Scanning line converter

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100423504B1 (en) * 2001-09-24 2004-03-18 삼성전자주식회사 Line interpolation apparatus and method for image signal
US7324160B2 (en) 2003-11-22 2008-01-29 Samsung Electronics Co., Ltd. De-interlacing apparatus with a noise reduction/removal device
CN113852830A (en) * 2021-09-23 2021-12-28 杭州国芯科技股份有限公司 Median filtering video de-interlacing method
CN113852830B (en) * 2021-09-23 2023-12-29 杭州国芯科技股份有限公司 Median filtering video de-interlacing method

Also Published As

Publication number Publication date
KR100360882B1 (en) 2002-11-13

Similar Documents

Publication Publication Date Title
US6731342B2 (en) Deinterlacing apparatus and method using edge direction detection and pixel interplation
KR100631496B1 (en) Deinterlacing apparatus
EP0677958B1 (en) Motion adaptive scan conversion using directional edge interpolation
KR100482898B1 (en) Method, device, and video display device including the device for estimating motion vectors
US6219464B1 (en) Source data interpolation method and apparatus
KR100335862B1 (en) System for conversion of interlaced video to progressive video using edge correlation
US5784115A (en) System and method for motion compensated de-interlacing of video frames
JP4563603B2 (en) Format conversion apparatus and method using bi-directional motion vectors
KR100657280B1 (en) Method and apparatus for image deinterlacing using neural networks
US7667778B2 (en) Image processing apparatus and method, and recording medium and program used therewith
US7738556B2 (en) Apparatus and method for estimating motion vector with gradient method
US6630961B1 (en) Deinterlacing device and method
KR20040009967A (en) Apparatus and method for deinterlacing
US7907209B2 (en) Content adaptive de-interlacing algorithm
KR20040054758A (en) improved spatial resolution of video images
JPH04229795A (en) Video system converter correcting movement
US7035481B2 (en) Apparatus and method for line interpolating of image signal
KR100422575B1 (en) An Efficient Spatial and Temporal Interpolation system for De-interlacing and its method
JP2008511202A (en) Edge adaptive image enlargement enhancement system and method
EP1599042A2 (en) Image processing device and image processing method
KR100631497B1 (en) Deinterlacing method and apparatus
KR100323662B1 (en) Deinterlacing method and apparatus
KR20010068516A (en) Deinterlacing method and apparatus
KR100323664B1 (en) Deinterlacing apparatus
KR100323663B1 (en) Deinterlacing method and apparatus

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20060911

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee