KR20010073262A - Deinterlacing method and apparatus - Google Patents

Deinterlacing method and apparatus Download PDF

Info

Publication number
KR20010073262A
KR20010073262A KR1020000001497A KR20000001497A KR20010073262A KR 20010073262 A KR20010073262 A KR 20010073262A KR 1020000001497 A KR1020000001497 A KR 1020000001497A KR 20000001497 A KR20000001497 A KR 20000001497A KR 20010073262 A KR20010073262 A KR 20010073262A
Authority
KR
South Korea
Prior art keywords
region
pixel
field
interpolated
matching error
Prior art date
Application number
KR1020000001497A
Other languages
Korean (ko)
Other versions
KR100631497B1 (en
Inventor
신창용
한동일
Original Assignee
구자홍
엘지전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구자홍, 엘지전자주식회사 filed Critical 구자홍
Priority to KR1020000001497A priority Critical patent/KR100631497B1/en
Priority to US09/754,358 priority patent/US6731342B2/en
Publication of KR20010073262A publication Critical patent/KR20010073262A/en
Application granted granted Critical
Publication of KR100631497B1 publication Critical patent/KR100631497B1/en

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G9/00Bed-pans, urinals or other sanitary devices for bed-ridden persons; Cleaning devices therefor, e.g. combined with toilet-urinals
    • A61G9/02Cleaning devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G7/00Beds specially adapted for nursing; Devices for lifting patients or disabled persons
    • A61G7/0005Means for bathing bedridden persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2200/00Information related to the kind of patient or his position
    • A61G2200/30Specific positions of the patient
    • A61G2200/32Specific positions of the patient lying

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Epidemiology (AREA)
  • Nursing (AREA)
  • Television Systems (AREA)

Abstract

PURPOSE: A deinterlacing method and device are provided to improve image quality after interpolation by interpolating according to the motion amount and an edge direction of a field to be currently interpolated. CONSTITUTION: Temporally serial current field data, data of previous 2 fields and data of next 4 fields are stored in a field memory(100). A motion decision part(200) calculates the BD(brightness difference) and BPPD(brightness profile pattern difference) between respective field data, and calculates motion values in referring to the BD and the BPPD. A median filter part(600) removes noise components included in the motion values to group the areas in the motion values are contained. A motion expanding part(700) receives the output values of the median filter part(600) to expand the motion values to periphery pixels. A spatial interpolation part(300) calculates the directions of edges included in periphery pixel values of a pixel to be interpolated and calculates interpolation values within a field according to the directions. A temporal interpolation part(400) calculates an average field value of pixel values in a previous field and a next field of a field to be currently interpolated. A soft switch part(500) mixes the interpolation values within a field according to the edge directions and the average field value. A vertical line converting part(800) converts the number of vertical lines for display.

Description

디인터레이싱 방법 및 장치{DEINTERLACING METHOD AND APPARATUS}Deinterlacing method and apparatus {DEINTERLACING METHOD AND APPARATUS}

본 발명은 움직임 적응 보간 기술에 관한 것으로 특히, 디인터레이싱 방법 및 장치에 관한 것이다.The present invention relates to a motion adaptive interpolation technique, and more particularly, to a deinterlacing method and apparatus.

디인터레이싱 방법이란 영상 처리 방법에 있어서, 격행 주사(interlaced scanning) 방식의 영상 데이터를 순행 주사(progressive scanning) 방식의 영상 데이터로 변환하는 기법이다.The deinterlacing method is a technique for converting interlaced scanning image data into progressive scanning image data in an image processing method.

격행 주사 방식의 영상 데이터는 한 프레임(frame)의 화면을 도1에 도시된 바와 같이, 홀수 필드(odd field)와 짝수 필드(even field)의 두 필드의 화면으로 구현하는 것이다.In the progressive scan method, the image data of one frame is implemented as two fields of an odd field and an even field, as shown in FIG. 1.

그런데, 디스플레이 장치에 따라서는 격행 주사 방식의 영상 데이터를 처리하지 않고 컴퓨터 모니터등에서 사용되는 순행 주사 방식의 영상 데이터로 처리하여 화면을 구현한다.However, depending on the display device, the screen is implemented by processing the image data of the forward scanning method used in a computer monitor without processing the image data of the conventional scanning method.

이때, 격행 주사 방식의 영상 신호가 순행 주사 방식의 영상 데이터를 처리하는 디스플레이 장치에서 정상적으로 처리되려면 그러한 디스플레이 장치의 내부에 격행 주사 방식의 영상 신호를 순행 주사 방식의 영상 신호로 변환시키는 별도의 시스템이 설치되어야 한다.In this case, in order for the progressive scanning video signal to be normally processed in the display device processing the progressive scanning video data, a separate system for converting the traveling scanning video signal into the progressive scanning video signal is provided in the display device. It must be installed.

격행 주사 방식의 영상 신호를 순행 주사 방식의 영상 신호로 변환하는 방법은 도2a 내지 도2c에 도시된 바와 같이 여러 방법으로 구현될 수 있다.A method of converting an image signal of a progressive scan method into an image signal of a forward scanning method may be implemented in various ways as shown in FIGS. 2A to 2C.

우선, 도2a와 같은 라인 반복(line repetition) 방법은 현재 필드(field)의 라인(line) 정보를 단순하게 반복시켜 한 프레임(frame)을 구현하는 것이다.First, a line repetition method as shown in FIG. 2A implements a frame by simply repeating line information of a current field.

또한, 도2b에 도시된 바와 같은 움직임 보상이 없는 필드간 보간법(inter-field interpolation without motion-compensation)은 현재 필드의 라인사이에 직전 필드의 라인을 단순히 끼움으로써 한 프레임을 구현하는 것이다.In addition, inter-field interpolation without motion-compensation as shown in FIG. 2B implements one frame by simply sandwiching the immediately preceding line between the lines of the current field.

마지막으로, 도2c에 도시된 바와 같은 필드내 보간법(intra-field interpolation)은 하나의 필드에서 두 라인사이의 영역에 그 두 라인의 데이터를 이분한 데이터를 삽입함으로써 새로운 한 필드를 구현하는 것이다.Finally, intra-field interpolation, as shown in FIG. 2C, implements a new field by inserting the data of the two lines in the field between two lines in one field.

그러나, 라인 반복 방법은 단순한 하드웨어로 구현할 수 있지만, 보간후 화질이 떨어지는 단점이 있다.However, although the line repetition method can be implemented with simple hardware, the image quality is poor after interpolation.

또한, 움직임 보상이 없는 필드간 보간법 역시 단순한 하드웨어로 구현할 수 있지만, 움직임이 있는 영상을 보간하는 경우에는 오류가 발생하거나 화면이 열화되어 화질이 떨어지는 단점이 있다.In addition, inter-field interpolation without motion compensation can be implemented by simple hardware. However, when interpolating an image with motion, an error occurs or the screen is deteriorated, thereby degrading image quality.

그리고, 필드내 보간법은 라인 반복 방법보다 화질이 깨끗해지고 움직임 보상이 없는 필드간 보간법보다 오류 발생이 낮지만, 정지 영상을 보간하는 경우 화면이 열화되어 화질이 떨어지는 단점이 있다.Intra-field interpolation has a lower image quality than the line repetition method and lower error than inter-field interpolation without motion compensation. However, when interpolating a still image, the image deteriorates and the image quality deteriorates.

즉, 상기와 같은 도2a 내지 도2c의 보간 방법들은 모두 보간후 화질이 떨어지는 단점이 있다.That is, the above interpolation methods of FIGS. 2A to 2C all have disadvantages of degrading image quality after interpolation.

따라서, 이전 화면의 필드 데이터와 장차 구현될 화면의 필드 데이터를 이용하여 현재 화면을 보간하는 움직임 보상 보간 방법이 제시되었다.Accordingly, a motion compensation interpolation method for interpolating a current screen using field data of a previous screen and field data of a screen to be implemented in the future has been proposed.

이러한 움직임 보상 보간 방법은 현재 필드 데이터를 기준으로 시간적으로 연속적인 필드 데이터를 이용하여 화면을 여러 개의 블럭으로 분할하여 각각의 블럭에 대해 움직임 벡터를 구하고, 그 움직임 벡터를 참조하여 현재 프레임 화면을 보간하는 것이다.The motion compensation interpolation method divides the screen into several blocks using temporally continuous field data based on the current field data, obtains a motion vector for each block, and interpolates the current frame screen with reference to the motion vector. It is.

그런데, 움직임 보상 보간 방법은 보간후 화질은 향상되지만, 상당히 복잡한 하드웨어로 구성된다.By the way, the motion compensation interpolation method is composed of quite complicated hardware although the image quality is improved after interpolation.

따라서, 상기 움직임 보상 보간 방법의 문제점을 해결하기 위하여 움직임의 정도를 추정하여 움직임에 따라 프레임을 보간하는 움직임 적응 보간 방법이 제시되었다.Accordingly, in order to solve the problem of the motion compensation interpolation method, a motion adaptive interpolation method of estimating the degree of motion and interpolating a frame according to the motion has been proposed.

이러한 움직임 적응 보간 방법은 움직임 보상 보간 방법에 비하여 비교적 단순한 하드웨어로 구현되고 보간후 화질도 전반적으로 향상되는 장점이 있다.The motion adaptive interpolation method is implemented in relatively simple hardware compared to the motion compensation interpolation method, and the image quality after the interpolation is generally improved.

움직임 적응 보간 방법의 일례로는 미국 특허 제5,027,201호에 제시된 Bernard 방식과 동국 특허 제5,159,451호에 제시된 Faroundja 방식등이 있다.Examples of the motion adaptive interpolation method include the Bernard method disclosed in US Pat. No. 5,027,201 and the Faroundja method presented in Dongkuk Patent No. 5,159,451.

그러나, 종래의 움직임 적응 보간 방법은 움직임 보상 보간 방법에 비하여 비교적 단순한 하드웨어로 구현되고 보간후 화질도 전반적으로 향상되는 장점이 있지만, 움직임이 큰 에지(edge)등에서는 단순한 수직 방향 보간으로 인하여 계단형 잡음이 발생하며 또한, 다수의 필드 메모리(field memory)를 사용하고 처리 과정이 복잡하여 구현 회로의 제조 비용이 상승하는 문제점이 있다.However, the conventional motion adaptive interpolation method has the advantage of being implemented with relatively simple hardware and improving the overall image quality after interpolation compared with the motion compensation interpolation method. Noise is generated and the manufacturing cost of the implementation circuit is increased due to the use of a plurality of field memories and complicated processing.

따라서, 본 발명은 종래의 문제점을 개선하기 위하여 현재 보간하고자 하는 필드의 움직임 정도 및 에지 방향에 따라 적절한 보간을 수행하여 보간후 화질을 개선하도록 창안한 디인터레이싱 방법 및 장치를 제공함에 목적이 있다.Accordingly, an object of the present invention is to provide a deinterlacing method and apparatus for improving image quality after interpolation by performing appropriate interpolation according to the degree of movement and edge direction of a field to be interpolated in order to improve the conventional problem.

또한, 본 발명은 회로를 단순화하여 구현하려는 회로의 제조 비용을 감소시키도록 함에 다른 목적이 있다.In addition, another object of the present invention is to reduce the manufacturing cost of a circuit to be implemented by simplifying the circuit.

도1은 일반적인 인터레이싱 방법에 따른 화면의 예시도.1 is an exemplary diagram of a screen according to a general interlacing method.

도2는 종래의 라인 보간을 필드 생성을 보인 예시도로서,2 is a diagram illustrating field generation in the conventional line interpolation.

도2a는 종래의 라인 반복 방법을 보인 예시도이고,Figure 2a is an exemplary view showing a conventional line repetition method,

도2b는 종래의 움직임 보상없는 필드간 보간법을 보인 예시도이며,2B is an exemplary diagram showing a conventional interfield interpolation method without motion compensation;

도2c는 종래의 필드내 보간법을 보인 예시도이다.2C is an exemplary diagram showing a conventional intrafield interpolation method.

도3은 본 발명의 실시예를 위한 디인터레이싱 장치의 블럭도.3 is a block diagram of a deinterlacing apparatus for an embodiment of the present invention.

도4는 에지 부분의 매핑을 위한 영역 분할을 보인 예시도.4 is an exemplary diagram showing region division for mapping of an edge portion.

도5은 보간 방향 검출을 위한 구간 매칭 방법을 보인 예시도.5 is an exemplary view showing an interval matching method for interpolation direction detection.

도6는 본 발명에서 구간 매칭 방법을 위한 관측 영역 분할을 보인 예시도.6 is an exemplary view showing observation region division for the interval matching method in the present invention.

도7은 메디안 필터링에 사용되는 화소들과 필드 데이터를 보인 예시도.7 is an exemplary view showing pixels and field data used for median filtering.

* 도면의 주요부분에 대한 부호 설명 *Explanation of symbols on the main parts of the drawings

100 : 필터 저장부 200 : 움직임 검출부100: filter storage unit 200: motion detection unit

300 : 공간적 보간부 400 : 시간적 보간부300: spatial interpolator 400: temporal interpolator

500 : 소프트 스위치부 600 : 메디안 필터부500: soft switch unit 600: median filter unit

700 : 움직임 확정부 800 : 수직라인 변환부700: motion determination unit 800: vertical line conversion unit

본 발명은 상기의 목적을 달성하기 위하여 화상의 밝기 차이와 밝기 윤곽 패턴 차이를 검출하여 움직임 정도를 검출하고 그 움직임 정도를 참조하여 화상을 보간하는 디인터레이싱 방법에 있어서, 격행 주사 방식의 영상에 해당하는 m개의 필드 데이터에서 보간할 화소를 포함하는 일정 영역의 화소를 검출하는 단계와, 상기 일정 영역에 대해 보간할 화소의 변화 방향을 검출하는 단계와, 상기에서 일정 영역에 대해 보간할 화소가 수평 또는 수직 에지상에 존재하지 않는 경우 관측 영역과 이동 영역을 설정하고 그 관측 영역을 다수개로 분할하는 단계와, 상기에서 분할된 다수개의 각 영역에서의 최소 구간 매칭 에러를 산출하는 단계와, 상기에서 산출된 다수개 영역의 각 최소 구간 매칭 에러중 수직 에지 방향에 근접한 구간 매칭 에러를 나타내는 방향으로 보간값을 산출하는 단계를 수행함을 특징으로 한다.The present invention provides a deinterlacing method for detecting a degree of motion by detecting a difference in brightness and a difference in brightness contour pattern and interpolating the image with reference to the degree of movement, in order to achieve the above object, which corresponds to an image of a bipolar scan method. detecting pixels of a predetermined area including pixels to be interpolated from m field data, detecting a change direction of pixels to be interpolated with respect to the predetermined area, and wherein the pixels to be interpolated with respect to the predetermined area are horizontal or Setting an observation region and a movement region if not present on the vertical edge, dividing the observation region into a plurality, calculating a minimum section matching error in each of the divided plurality of regions, and calculating the above Represents a section matching error close to the vertical edge direction among the minimum section matching errors of the plurality of regions. Characterized by carrying out the step of calculating an interpolated value in fragrance.

또한, 본 발명은 상기와 같은 단계를 수행하기 위하여 보간할 임의의 필드 데이터를 기준으로 그 필드 데이터를 포함하는 이전, 이후의 연속적인 다수의 필드 데이터를 저장하는 필드 저장부와, 상기 필드 저장부에 저장된 각 필드 데이터간에 존재하는 화소값과 밝기 윤곽 패턴의 차이를 검출하여 영상의 움직임 정도를 계산하는 움직임 결정부와, 상기 움직임 결정부에서 계산된 움직임 정도값에 대해 잡음 성분을 제거하고 움직임을 군집화하는 메디안 필터부와, 상기에서 보간할 화소의움직임 정도값을 그 보간할 화소에 인접한 주변 화소로 확산하는 움직임 확장부와, 현재 보간할 필드 영상에 대하여 이전 필드의 화소값과 이후 필드의 화소값을 평균하여 필드 평균값을 산출하는 시간적 보간부와, 상기 필드 저장부로부터 현재 보간할 영역의 필드 데이터의 화소값과 필드내 주변 화소값을 입력으로 보간할 화소 주변의 화소값들에 포함되어 있는 에지(edge) 방향을 산출하고 에지 방향이 수평 또는 수직 에지에 존재하지 않는 경우 임의로 설정한 관측 영역을 다수개로 분할하여 각각의 영역의 구간 매칭 에러중 최소 구간 매칭 에러를 나타내는 방향에 따른 필드내 보간값을 산출하는 공간적 보간부와, 상기 움직임 확장부에서의 밝기 차이 및 밝기 윤곽 패턴차이를 참조하여 상기 공간적 보간부에서의 에지 방향을 고려한 필드내 보간값과 시간적 보간부(400)에서의 필드 평균값을 혼합하는 소프트 스위치부와, 상기 필드 저장부에서의 현재 필드의 데이터를 입력으로 상기 소프트 스위치부에서의 보간 라인 데이터를 참조하여 디스플레이에 적합하도록 수직 라인수를 변환하는 수직 라인 변환부로 구성한다.In addition, the present invention provides a field storage unit for storing a plurality of previous and subsequent continuous field data including the field data on the basis of any field data to be interpolated to perform the above steps, and the field storage unit A motion determiner that detects a difference between the pixel value and the brightness contour pattern between each field data stored in the image, and calculates a motion degree of the image; and removes a noise component from the motion degree value calculated by the motion determiner. A median filter unit for clustering, a motion expansion unit for diffusing the motion degree values of the pixels to be interpolated to neighboring pixels adjacent to the pixels to be interpolated, pixel values of a previous field and pixels of a subsequent field with respect to a current field image to be interpolated A temporal interpolation unit that averages values to calculate a field average value, and a field of an area to be interpolated from the field storage unit at present Calculate the edge direction included in the pixel values around the pixel to interpolate the pixel value of data and the peripheral pixel value in the field as input, and set the observation area arbitrarily set when the edge direction does not exist on the horizontal or vertical edge The interpolation unit calculates the interpolation value according to the direction indicating the minimum section matching error among the section matching errors of each region by dividing a number into a plurality, and the brightness difference and the brightness contour pattern difference in the motion extension section. A soft switch unit for mixing the interpolation value in the field in consideration of the edge direction in the spatial interpolation unit and the field average value in the temporal interpolation unit 400, and the soft switch unit as input of data of the current field in the field storage unit. A vertical line converter that converts the number of vertical lines to fit the display by referring to interpolation line data from The Castle.

즉, 본 발명은 보간할 화소가 주변의 일정 영역에 대해 수평 또는 수직 에지상에 존재하지 않는 경우 임의로 설정한 관측 영역을 다수개로 분할하고 각각의 영역에 대해 "구간 매칭 방법"을 적용하여 구간 매칭 에러를 검출한 후 그 검출된 구간 매칭 에러중 최소의 구간 매칭 에러를 나타내는 방향으로 보간값을 산출하는 것이다.That is, when the pixel to be interpolated does not exist on a horizontal or vertical edge with respect to the surrounding area, the region matching is performed by dividing a randomly set observation area into a plurality of sections and applying a “section matching method” to each area. After detecting the error, the interpolation value is calculated in a direction indicating the minimum interval matching error among the detected interval matching errors.

이하, 본 발명을 도면에 의거 상세히 설명하면 다음과 같다.Hereinafter, the present invention will be described in detail with reference to the drawings.

도3은 본 발명의 실시예를 위한 디인터레이싱 장치의 블록도로서 이에 도시한 바와 같이, 시간적으로 연속적인 현재 필드 데이터, 이전 2장의 필드 데이터 및 다음 필드 데이터의 4장의 필드 데이터를 저장하는 필드 저장부(100)와, 이 필드 저장부(100)에서의 각 필드 데이터간의 밝기 차이(BD : Brightness Difference) 및 밝기 윤곽 패턴 차이(BPPD : Brightness Profile Pattern Difference)를 산출하여 그 밝기 차이(BD)와 밝기 윤곽 패턴 차이(BPPD)가 소정 문턱값 이상이면 기설정된 값으로 매핑하고 그 밝기 차이(BD) 및 밝기 윤곽 패턴차이(BPPD)를 참조하여 움직임 정도값을 산출하는 움직임 결정부(200)와, 상기 움직임 정도값에 포함된 잡음 성분을 제거하여 그 움직임 정도값이 있는 영역을 군집화하는 메디안 필터부(600)와, 이 메디안 필터부(600)의 출력값을 입력으로 움직임 정도값을 주변 화소들로 확산시키는 움직임 확장부(700)와, 상기 필드 저장부(100)로부터 현재 보간을 실시한 영역의 필드 데이터의 화소값과 필드내 주변 화소값을 입력으로 보간할 화소 주변의 화소값들에 포함되어 있는 에지(edge) 방향을 산출하여 그 방향에 따른 필드내 보간값을 산출하는 공간적 보간부(300)와, 현재 보간할 필드 영상에 대하여 이전 필드의 화소값과 이후 필드의 화소값을 평균하여 필드 평균값을 산출하는 시간적 보간부(400)와, 상기 움직임 확장부(700)에서의 밝기 차이 및 밝기 윤곽 패턴차이를 참조하여 상기 공간적 보간부(300)에서의 에지 방향을 고려한 필드내 보간값과 시간적 보간부(400)에서의 필드 평균값을 혼합하는 소프트 스위치부(500)와, 상기 필드 저장부(100)에서의 현재 필드의 데이터를 입력으로 상기 소프트 스위치부(500)에서의 보간 라인 데이터를 참조하여 디스플레이에 적합하도록 수직 라인수를 변환하는 수직 라인 변환부(800)로 구성한다.3 is a block diagram of a de-interlacing apparatus for an embodiment of the present invention, as shown therein, a field storage unit for storing four field data of current field data, two previous field data, and four next field data, which are continuous in time And a brightness difference (BD) and a brightness contour pattern difference (BPPD) between the field data in the field storage unit 100 to calculate the brightness difference BD and the brightness. If the contour pattern difference (BPPD) is greater than or equal to a predetermined threshold, the motion determination unit 200 for mapping to a predetermined value and calculating the movement degree value with reference to the brightness difference (BD) and the brightness contour pattern difference (BPPD), and The median filter unit 600 removes the noise component included in the motion degree value and clusters the region having the motion degree value, and the motion value is inputted using the output value of the median filter part 600. A motion expansion unit 700 for diffusing a value into surrounding pixels, and a pixel around a pixel to interpolate the pixel value of the field data of the region currently interpolated from the field storage unit 100 and the peripheral pixel value in the field as input. The spatial interpolation unit 300 calculates an edge direction included in the values to calculate an interpolation value in the field according to the direction, and the pixel value of the previous field and the pixel of the subsequent field with respect to the current field image to be interpolated. A field considering an edge direction in the spatial interpolator 300 by referring to a temporal interpolator 400 that calculates a field average value by averaging values, and a difference in brightness and a difference in brightness contour pattern of the motion expander 700. The soft switch unit 500 mixing the interpolation value and the field average value in the temporal interpolation unit 400 and the data of the current field in the field storage unit 100 are input to the soft switch unit 500. The interpolation of the reference line data, and consists of a vertical line conversion unit 800 for converting the number of vertical lines to be suitable for display.

상기 움직임 결정부(200)는 필드 저장부(100)에서의 각 필드 데이터의 밝기 변화및 밝기 윤곽 패턴을 검출하여 현재 필드를 기준으로 이전 필드와 이후 필드간의 밝기 변화 및 밝기 윤곽 패턴을 비교함에 의해 밝기 차이(BD) 및 밝기 윤곽 패턴 차이(BPPD)를 산출하는 BD/BPPD 검출부(210)와, 상기 밝기 차이(BD)와 밝기 윤곽 패턴 차이(BPPD)가 각각의 기설정된 문턱값 이상이면 기설정된 값으로 매핑하고 움직임 정도값을 결정하는 BD/BPPD 합성부(220)로 구성한다.The motion determiner 200 detects the brightness change and the brightness outline pattern of each field data in the field storage unit 100 and compares the brightness change pattern and the brightness outline pattern between the previous field and the subsequent field based on the current field. The BD / BPPD detection unit 210 that calculates the brightness difference BD and the brightness outline pattern difference BPPD, and when the brightness difference BD and the brightness outline pattern difference BPPD are equal to or greater than a predetermined threshold, The BD / BPPD synthesis unit 220 maps the values and determines the movement degree value.

이와같이 구성한 본 발명의 실시예에 대한 동작 및 작용 효과를 설명하면 다음과 같다.Referring to the operation and effect of the embodiment of the present invention configured as described above are as follows.

필드 저장부(100)는 출력 영상을 구현하기 위한 다수개의 필드 데이터중에서 현재 필드 즉, n번째 필드를 기준으로 n번째 필드에 해당하는 영상 데이터와 이전 필드 및 이후 필드 등 시간적으로 연속적인 m개의 필드에 해당하는 영상 데이터를 저장한다.The field storage unit 100 m-fields consecutive in time such as image data corresponding to the nth field, the previous field, and the subsequent field among the plurality of field data for implementing the output image. Stores video data corresponding to

다시 말해서, 필드 저장부(100)는 n번째 필드 데이터를 포함하여 그 이전 및 이후의 필드 데이터를 저장하고 그 저장된 필드 데이터를 움직임 결정부(200), 공간적 보간부(300) 및 시간적 보간부(400)로 제공한다.In other words, the field storage unit 100 stores field data before and after including the n-th field data and stores the stored field data in the motion determiner 200, the spatial interpolator 300, and the temporal interpolator ( 400).

이때, 움직임 결정부(200)는 필드 저장부(100)에 저장된 각 필드 데이터간에 존재하는 특정 라인들의 화소값과 밝기 윤곽 패턴의 차이를 검출하여 동영상의 움직임 정도를 계산한다.At this time, the motion determiner 200 detects the difference between the pixel value of the specific lines existing in the field storage unit 100 and the brightness contour pattern and calculates the degree of motion of the video.

즉, 움직임 결정부(200)는 BD/BPPD 검출부(210)가 필드 저장부(100)에서의 각 필드 데이터의 밝기 변화 및 밝기 윤곽 패턴을 검출하여 현재 필드를 기준으로 이전 필드와 이후 필드간의 밝기 변화 및 밝기 윤곽 패턴을 비교함에 의해 밝기 차이(BD)및 밝기 윤곽 패턴 차이(BPPD)를 산출하고 BD/BPPD 합성부(220)가 상기에서 산출된 밝기 차이(BD)와 밝기 윤곽 패턴 차이(BPPD)를 입력으로 움직임 정도값을 결정한다.That is, the motion determiner 200 detects the brightness change and the brightness outline pattern of each field data in the field storage unit 100 by the BD / BPPD detector 210 to determine the brightness between the previous field and the subsequent field based on the current field. The brightness difference BD and the brightness contour pattern difference BPPD are calculated by comparing the change and the brightness contour pattern, and the BD / BPPD synthesis unit 220 calculates the brightness difference BD and the brightness contour pattern difference BPPD. ) To determine the movement value.

만일, 밝기 차이(BD)와 밝기 윤곽 패턴 차이(BPPD)가 각각의 기설정된 문턱값 이상이면 상기 BD/BPPD 합성부(220)는 그 밝기 차이(BD)와 밝기 윤곽 패턴 차이(BPPD)를 기설정된 값으로 매핑하여 움직임 정도값을 결정한다.If the brightness difference BD and the brightness outline pattern difference BPPD are equal to or greater than a predetermined threshold value, the BD / BPPD synthesizing unit 220 may determine the brightness difference BD and the brightness outline pattern difference BPPD. Mapping to the set value determines the movement value.

여기서, 밝기 차이(BD : Brightness Difference)에 대한 개념은 디지털 티브이등의 영상 처리 분야에서 라인 보간을 실시하기 위해 이미 많이 사용되고 있으며,Here, the concept of brightness difference (BD) is already widely used to perform line interpolation in the field of image processing such as digital TV.

밝기 윤곽 패턴 차이(BPPD : Brightness Profile Pattern Difference)에 대한 개념은 본 출원인이 기출원한 국내특허출원 97-80719호에 제시되어 있다.The concept of Brightness Profile Pattern Difference (BPPD) is presented in Korean Patent Application No. 97-80719 filed by the present applicant.

상기 국내특허출원 97-80719호에서 밝기 차이(BD)와 밝기 윤곽 패턴 차이(BPPD)를 산출하기 위한 밝기 윤곽 패턴의 정량화는 임의의 여러 라인에 대해 수행할 수 있다.In the Korean Patent Application No. 97-80719, the quantification of the brightness contour pattern for calculating the brightness difference BD and the brightness contour pattern difference BPPD may be performed on any of several lines.

예를 들어, 시간적으로 연속적인 n-2, n-1, n, n+1의 4장의 필드 데이터를 가정하여 움직임 결정부(200)에서의 밝기 차이(BD)와 밝기 윤곽 패턴 차이(BPPD)의 산출 과정을 설명하면 다음과 같다.For example, assuming that four field data of n-2, n-1, n, and n + 1 are consecutive in time, the brightness difference BD and the brightness contour pattern difference BPPD in the motion determiner 200 are assumed. The calculation process of is as follows.

먼저, n-2번째 필드 데이터의 화소값을 이용하여 n-2번째 필드 데이터의 밝기 윤곽 패턴을 추출한다.First, the brightness outline pattern of the n-2 th field data is extracted using the pixel value of the n-2 th field data.

즉, n-2번째 필드가 입력된 시각에서의 밝기 윤곽 패턴을 추출한다.That is, the brightness outline pattern is extracted at the time point at which the n-th field is input.

그리고, n번째 필드 데이터의 화소값을 이용하여 n번째 필드 데이터의 밝기 윤곽패턴을 추출한다.Then, the brightness outline pattern of the n-th field data is extracted using the pixel value of the n-th field data.

즉, n번째 필드가 입력되는 시각에서의 밝기 윤곽 패턴을 추출한다.That is, the brightness outline pattern is extracted at the time when the nth field is input.

이 후, 움직임 결정부(200)는 n-2번째 필드의 밝기 윤곽 패턴과 n번째 필드의 밝기 윤곽 패턴을 비교하여 n-2번째 필드와 n번째 필드의 밝기 윤곽 패턴의 차이(BPPD)를 산출하며 또한, n-2번째 필드와 n번째 필드의 밝기 차이(BD)를 산출한다.Thereafter, the motion determiner 200 compares the brightness contour pattern of the n-th field with the brightness contour pattern of the n-th field to calculate a difference BPPD between the brightness contour patterns of the n-2nd field and the n-th field. In addition, the brightness difference (BD) between the n-th field and the n-th field is calculated.

그리고, 움직임 결정부(200)는 상기와 동일한 과정으로 n-1번째 필드와 n+1번째 필드의 밝기 차이와 밝기 윤곽 패턴차이를 산출한다.The motion determiner 200 calculates the brightness difference and the brightness outline pattern difference between the n-1 th field and the n + 1 th field in the same process as described above.

그런데, 방송 채널등으로 전송된 화상은 부호 단계 또는 전송 단계에서 필연적으로 잡음이 섞이게 된다.However, an image transmitted through a broadcast channel or the like inevitably causes noise to be mixed in a coding step or a transmission step.

따라서, 본 발명에서는 움직임 결정부(200) 특히, BD/BPPD 합성부(220)의 출력값을 정확하게 설정하기 위하여 그 BD/BPPD 합성부(220)의 출력값에서 잡음 성분을 제거하고 화상중 움직임이 검출된 영역을 군집화(grouping)하는 메디안 필터부(600)와, 이 메디안 필터부(600)에서 출력값을 입력으로 움직임이 있는 화소와 인접한 다른 화소로 움직임 정도값을 확장시키는 움직임 확장부(700)가 구비된다.Accordingly, in the present invention, in order to accurately set the output value of the motion determiner 200, in particular, the BD / BPPD synthesizer 220, the noise component is removed from the output value of the BD / BPPD synthesizer 220 and motion in the image is detected. The median filter unit 600 for grouping the divided regions, and the motion extension unit 700 for expanding the movement degree value to other pixels adjacent to the moving pixel by inputting the output value from the median filter unit 600. It is provided.

이때, 상기 움직임 확장부(700)가 움직임 정도값을 인접한 화소로 확장시키는 이유는 다음과 같다.In this case, the motion extension unit 700 expands the motion degree value to the adjacent pixel as follows.

일반적으로 동영상의 움직임은 특정 화소에서만 이루어지는 것이 아니라 일정 영역의 화소군들에서 이루어진다.In general, a motion of a video is not performed only in a specific pixel but in a pixel group of a predetermined region.

따라서, 특정 화소에 움직임 정도값이 감지되었다면 그 화소의 잡음 성분에 의한 것이거나 그 특정 화소 및 인접한 주변 화소가 움직임 상태에 있는 것이다.Thus, if a motion degree value is detected for a particular pixel, it may be due to the noise component of that pixel or the particular pixel and adjacent neighboring pixels are in a motion state.

그런데, 메디안 필터부(600)에서 잡음 성분에 해당하는 움직임 정도값이 이미 제거된 상태이므로 이 주변 화소들이 움직임 상태에 있을 가능성이 높다.However, since the motion degree value corresponding to the noise component is already removed in the median filter unit 600, the surrounding pixels are likely to be in the motion state.

따라서, 움직임 확장부(700)는 메디안 필터부(600)에서 출력된 움직임 정도값을 그 움직임 정도값이 감지된 화소의 주변으로 확산시키는 것이다.Therefore, the motion extension unit 700 diffuses the motion degree value output from the median filter unit 600 to the periphery of the pixel where the motion degree value is detected.

한편, 공간적 보간부(300)는 필드 저장부(100)로부터 현재 보간을 실시할 영역의 필드 데이터를 입력으로 라인 보간을 실시할 영역에 해당하는 n번째 필드 데이터의 화소값과 필드내 주변화소들을 검출하고 그때 필드내 화소들의 상관 관계를 이용하여 보간할 화소 주변의 화소값들이 포함되어 있는 에지(edge) 방향을 산출하여 그 에지 방향에 따른 적정한 보간값을 추출한다.Meanwhile, the spatial interpolator 300 inputs the field data of the region to be interpolated from the field storage unit 100 to input pixel values of the n-th field data corresponding to the region to be interpolated and peripheral pixels in the field. Then, the edge direction including the pixel values around the pixel to be interpolated is calculated using the correlation of the pixels in the field, and then an appropriate interpolation value according to the edge direction is extracted.

특히, 본 발명에서는 공간적 보간부(300)는 보간할 화소의 공간적인 일관성과 시간적인 일관성을 유지하기 위하여 보간할 화소로부터 공간적으로 인접한 화소들의 화소값 및 보간할 화소의 현재 필드로부터 시간적으로 인접한 필드의 화소값과 필터링하여 보간할 화소의 보간값을 추출하는 것으로, "구간 매칭(region matching) 방법"을 적용한다.In particular, in the present invention, the spatial interpolator 300 maintains the spatial and temporal coherence of the pixels to be interpolated, and the spatial values adjacent to the pixel values of the pixels that are spatially adjacent from the pixels to be interpolated and the current fields of the pixels to be interpolated. A region matching method is applied by extracting an interpolation value of a pixel to be interpolated by filtering with a pixel value of.

"구간 매칭(region matching) 방법"이란 보간할 영역의 에지 부분의 화소값이 에지 방향에 따라 연속적이라는 성질을 이용하여 보간값을 추출하는 것으로, 그 동작 원리는 본 출원인에 의해 1999년 6월 30일자로 기출원된 국내특허출원 제99-26084호에 상세히 기술되어 있다."Region matching method" means extracting an interpolation value using the property that the pixel values of the edge portion of the region to be interpolated are continuous along the edge direction. It is described in detail in Korean Patent Application No. 99-26084 filed earlier.

"구간 매칭 방법"의 동작 과정을 개략적으로 설명하면 다음과 같다.An operation process of the “section matching method” will be described as follows.

먼저, 일정 범위의 관측 영역(observation window)을 설정하고 보간할 화소를 중심으로 보간 라인의 이전 및 이후 라인상의 서로 대칭인 위치에 이동 영역(sliding window)을 설정한다.First, a range of observation windows is set and a sliding window is set at symmetrical positions on the lines before and after the interpolation line with respect to the pixels to be interpolated.

이때, 이동 영역의 크기는 시스템 및 그 응용에 따라 임의로 조절할 수 있다.At this time, the size of the moving area can be arbitrarily adjusted according to the system and its application.

이 후, 보간할 화소가 포함된 임의의 에지상에 존재하는 이동영역내에 존재하는 화소값을 검출한다.Thereafter, the pixel value existing in the moving area existing on any edge including the pixel to be interpolated is detected.

그리고, 상하의 이동 영역을 일정한 간격으로 서로 반대 방향으로 시프트시키면서 그 시프트된 양에 해당되는 에지 방향에 대해 상하 이동 영역내의 서로 상응하는 화소간의 차이를 지속적으로 검출한다.Then, while shifting the up and down moving areas in opposite directions at regular intervals, the difference between pixels corresponding to each other in the up and down moving areas is continuously detected in the edge direction corresponding to the shifted amount.

동시에 지속적으로 검출된 화소값의 변화량을 참조하여 보간하고자 하는 화소가 포함되어 있는 에지의 방향을 감지한다.At the same time, the direction of the edge including the pixel to be interpolated is detected by referring to the amount of change in the pixel value which is continuously detected.

그러나, 보간화소가 현재 보간할 위치와 공간적으로 멀리 떨어진 필드내 화소들에 의해 결정되거나 또는 상당히 빠른 움직임상에 존재하는 경우 보간 화소값이 필드내 인접 화소들에 비해 상당히 다른 값으로 나타날수 있다.However, when the interpolation pixel is determined by the pixels in the field that are spatially far from the current interpolation position or is present in a fairly fast motion, the interpolation pixel value may appear to be quite different than the adjacent pixels in the field.

따라서, 본 발명에서는 상기의 현상을 방지하기 위해 보간 화소가 필드내에서 수직 방향으로 인접한 화소들과 필터링되도록 하며, 이 과정을 상세히 설명하면 다음과 같다.Therefore, in the present invention, the interpolation pixel is filtered with the pixels adjacent to each other in the vertical direction in the field to prevent the above phenomenon.

먼저, 공간적 보간부(300)는 필드내의 화소들의 상관관계를 이용하여 에지 방향을 검출한다.First, the spatial interpolator 300 detects the edge direction by using the correlation of the pixels in the field.

이때, 보간하려는 화소의 에지 방향을 검출하기 위하여 전체 영역을 도4의 예시도에 도시한 바와 같이, 크게,,의 3방향으로 분할하였다고 가정할 때공간적 보간부(300)는 보간할 화소가 어느 방향의 에지에 속하는가를 판단하기 위해 보간할 화소를 중심으로 상,하,좌,우에 인접하는 화소들에 대해 상관 관계를 구하여 보간할 화소가 수직 또는 수평 에지에 속하는지 여부를 판단한다.At this time, in order to detect the edge direction of the pixel to be interpolated, as shown in the example of FIG. , , Assuming that the pixel is interpolated in three directions, the spatial interpolator 300 correlates the pixels adjacent to the top, bottom, left, and right sides of the pixel to be interpolated to determine in which direction edge the pixel to be interpolated belongs. The relationship is determined to determine whether the pixel to be interpolated belongs to a vertical or horizontal edge.

예를 들어, i번째 라인의 j번째 화소를 보간하려는 경우라면 아래와 같은 식에 의해 보간하려는 화소와 인접 화소간의 수직 방향에 대한 상관 관계를 구할 수 있다.For example, in the case of interpolating the j-th pixel of the i-th line, a correlation in the vertical direction between the pixel to be interpolated and the adjacent pixel may be obtained by the following equation.

---- (1) ---- (One)

----- (2) ----- (2)

----- (3) ----- (3)

이 후, 공간적 보간부(300)는 아래의 프로그램과 동일한 과정을 수행하여 보간하려는 화소의 에지 방향을 산출한다.Thereafter, the spatial interpolator 300 performs the same process as the following program to calculate the edge direction of the pixel to be interpolated.

여기서, 보간하고자 하는 화소는이고, 이는 n번째 필드의 i행 j열에 있는 화소를 의미한다.Here, the pixel to be interpolated This means the pixel in row i, column j of the nth field.

상기 식(1)-(3)에 사용된에 대해서도 동일한 의미를 적용할 수 있다.Used in the above formulas (1)-(3) The same meaning can be applied to.

즉, 공간적 보간부(300)는 식(1)∼(3)에 의해 구한 화소간 차이값(a,b,c)의 최대값(을 산출하여 그 최대값(이 소정 문턱값(Threshold)보다 작으면 보간하려는 화소의 에지 방향을로 판단한다.That is, the spatial interpolation unit 300 has the maximum value of the difference value (a, b, c) between pixels obtained by equations (1) to (3) ( To calculate its maximum value ( If this value is smaller than the predetermined threshold, the edge direction of the pixel to be interpolated is changed. Judging by.

또한, 수평 방향의 상관관계 검출 역시 로우 패스 필터링된 화소간의 차이가 수직방향이 아닌 수평 방향으로 적분된다는 것을 제외하고 위의 수직 방향 상관관계 검출과 유사한 방법으로 수행될 수 있다.In addition, the horizontal correlation detection may also be performed in a similar manner to the vertical correlation detection except that the difference between the low pass filtered pixels is integrated in the horizontal direction instead of the vertical direction.

반대로, 화소간 차이값(a,b,c)의 최대값(이 소정 문턱값(Threshold)과 같거나 보다 크면 공간적 보간부(300)는 "구간 매칭 방법"을 이용하여 에지 방향을 검출하는데, 이 과정을 설명하면 다음과 같다.On the contrary, the maximum value of the difference (a, b, c) between pixels ( If it is equal to or larger than the predetermined threshold, the spatial interpolator 300 detects the edge direction by using the “section matching method”. This process will be described below.

예를 들어, 도5는 "구간 매칭 방법"에 의한 에지 방향 결정을 위한 예시도이다.For example, Fig. 5 is an exemplary diagram for edge direction determination by " section matching method ".

여기서, 관측 영역은 수평 방향으로 15화소로 정하고 이동 영역은 1x7 화소 영역으로 설정하였다.Here, the observation area was set to 15 pixels in the horizontal direction and the moving area was set to a 1x7 pixel area.

따라서, 도5를 참조하여 본 발명에서의 구간 매칭 방법을 설명하면, 보간할 i번째 라인을 기준으로 일정한 관측 영역(observation window)내에서 i+1번째 라인과 i-1번째 라인에 소정의 이동 영역(sliding window)을 설정한다.Therefore, referring to FIG. 5, the interval matching method according to the present invention will be described. A predetermined movement is made between the i + 1th line and the i-1th line within a certain observation window based on the ith line to be interpolated. Set the sliding window.

이 후, i-1번째 라인의 이동 영역은 왼쪽에서 오른쪽으로 이동시키고 i+1번째 라인의 이동영역은 오른쪽에서 왼쪽으로 이동시킨다.After that, the moving area of the i-1th line moves from the left to the right, and the moving area of the i + 1th line moves from the right to the left.

이때, 이동 영역은 1/4화소 단위로 이동시키는 것을 가정하였다.At this time, it is assumed that the moving area is moved in units of 1/4 pixels.

이에 따라, 각각의 이동 변위에서 이동 영역간의 서로 대각선상에 위치한 화소들의 차이값을 검출하고 그 차이값을 아래 식(4)과 같이 연산하여 화소값의 구간 매칭 에러()를 산출한다.Accordingly, at each movement displacement, the difference value of pixels located diagonally between the movement areas is detected, and the difference value is calculated as in Equation (4) below to determine the interval matching error of the pixel value ( ) Is calculated.

---- (4) ---- (4)

여기서, d는 에지 방향을 나타낸다.Here, d represents the edge direction.

따라서, 에지 방향(d)과 관찰 영역()의 관계는 아래 식(5)과 같이 나타낼 수 있고 에지 방향(d)와 이동 간격()의 관계는 아래 식(6)와 같이 나타낼 수 있다.Thus, the edge direction d and the viewing area ( ) Can be expressed as below Equation (5), and the edge direction (d) and the moving distance ( ) Can be expressed as in Equation (6) below.

예로, 이동 영역의 화소 블록이 1/4 화소 단위로 움직이면 이동 간격()은 1/4가 된다.For example, if the pixel block of the moving area moves in units of 1/4 pixels, the moving interval ( ) Is 1/4.

----- (5) ----- (5)

------ (6) ------ (6)

만일, 검출하고자 하는 에지의 범위가 넓으면 관측 영역을 확장하며, 에지 방향의 검출 및 보간 정밀도를 높이려고 하면 이동 영역인 화소 블록의 이동 단위를 작게 한다.If the range of the edge to be detected is wide, the observation area is expanded, and if the edge area is to be detected and the interpolation accuracy is increased, the unit of movement of the pixel block as the movement area is reduced.

즉, 응용에 따라 관측 영역 및 이동 영역의 크기를 임의로 조정할 수 있다. 물론, 관측 영역 및 이동 영역에 포함되는 화소의 개수도 임의로 조절할 수 있다.That is, the size of the observation area and the moving area can be arbitrarily adjusted according to the application. Of course, the number of pixels included in the viewing area and the moving area may be arbitrarily adjusted.

그런데, 본 발명에서는 주어진 에지 방향에 따라 세부적으로 "구간 매칭 방법"을 적용할 때 관측 영역을 다수개로 분할하여 각각의 영역에 대해 "구간 매칭 방법"을 적용한다.However, in the present invention, when applying the "section matching method" in detail according to a given edge direction, the observation region is divided into a plurality and the "section matching method" is applied to each region.

이때, 관측 영역을 다수개로 분할하여 각각의 영역에 대해 "구간 매칭 방법"을 적용한다.In this case, the observation area is divided into a plurality of sections, and a "section matching method" is applied to each region.

이에 따라, 각 영역의 최소 구간 매칭 에러()를 구하고 그 중 최소인 구간 매칭 에러를 나타내는 방향에 따라 현재 보간하고자 하는 화소 위치의 화소값을 보간하게 된다.Accordingly, the minimum section matching error of each region ( ) Is interpolated and the pixel value of the pixel position to be interpolated is interpolated according to the direction indicating the minimum interval matching error.

예를 들어, 도6과 같이 크게 두 영역(A,B)으로 분할한 경우 현재 보간하고자 하는 화소 위치의 화소값을 보간하는 과정을 설명하면 다음과 같다.For example, as shown in FIG. 6, a process of interpolating a pixel value of a pixel position to be interpolated when it is divided into two regions A and B is as follows.

도6에서 영역(A)는 에지 방향기준으로 좌우 방향으로 이동 영역의 크기를 고려하여 적절한 정도의 경계까지로 설정하며 영역(B)는 영역(A)의 경계부터 좌우의 관측 영역의 끝까지로 설정한다.In Fig. 6, area A is the edge direction. In consideration of the size of the moving area in the left and right direction as a reference, it is set to the boundary of an appropriate degree, and the area B is set from the boundary of the area A to the end of the left and right observation area.

이때, 각각의 영역(A)(B)에 대하여 상기 식(4)와 같은 연산으로 구간 매칭 에러들을 구하고 각각의 영역(A)(B)에 대한 구간 매칭 에러들을 비교하여 각각의 영역(A)(B)에서의 최소 구간 매칭 에러()()를 구하게 된다.In this case, interval matching errors are obtained for each region (A) and (B) using the same operation as in Equation (4), and the region matching errors for each region (A) and (B) are compared to each region (A). Minimum interval matching error in (B) ) ( ).

이 후, 각 영역(A)(B)에 대한 최소의 구간 매칭 에러()()를 비교한다.After that, the minimum interval matching error for each area (A) (B) ( ) ( ).

이때, 구간 매칭 에러()가 구간 매칭 에러()보다 작거나 같으면 현재 보간하고자 하는 화소값은 영역(A)의 최소 구간 매칭 에러()를 나타내는 방향에 따라 보간된 값이 된다.At this time, the interval matching error ( ) Is an interval matching error ( If less than or equal to, the pixel value to be interpolated is the minimum section matching error ( The interpolated value depends on the direction indicated by

반대로, 구간 매칭 에러()가 구간 매칭 에러()보다 크면 영역(B)의 최소 구간 매칭 에러()를 나타내는 방향에 따라 보간된 화소값을 구하여 현재 보간하고자 하는 화소의 바로 상,하에 존재하는 화소값사이에 있는지 판별한다.Conversely, the interval matching error ( ) Is an interval matching error ( Greater than), the minimum interval matching error ( The interpolated pixel value is obtained according to the direction indicated by) to determine whether the pixel value exists between the pixel values existing immediately above and below the pixel to be interpolated.

이에 따라, 최소 구간 매칭 에러()를 나타내는 방향에 따라 보간된 화소값이 현재 보간하고자 하는 화소의 바로 상,하에 존재하는 화소값사이에 있으면 이 화소값이 보간하고자 하는 화소값이 된다.Accordingly, the minimum interval matching error ( If the interpolated pixel value is between the pixel values immediately above and below the pixel to be interpolated, the pixel value becomes the pixel value to be interpolated.

만일, 최소 구간 매칭 에러()를 나타내는 방향에 따라 보간된 화소값이 현재 보간하고자 하는 화소의 바로 상,하에 존재하는 화소값사이에 있지 않으면 현재 보간하고자 하는 화소값은 영역(A)의 최소 구간 매칭 에러()를 나타내는 방향에 따라 보간된 값이 된다.If the minimum interval matching error ( If the interpolated pixel value is not between the pixel values immediately above and below the pixel to be interpolated, the pixel value to be interpolated is the minimum section matching error of the region A. The interpolated value depends on the direction indicated by

즉, 상기의 과정은 아래와 같은 프로그램에 의해 수행한다.That is, the above process is performed by the following program.

IF( ) THENIF ( ) THEN

ELSEELSE

IF(Median{} =) THENIF (Median { } = ) THEN

ELSEELSE

ENDIFENDIF

ENDIFENDIF

여기서,는 n번째 필드의 i행 j열에 있는 화소를 나타내며, 이것이 현재 보간하고자 하는 화소이다.here, Denotes a pixel in row i, column j of the nth field, which is the pixel to be interpolated at present.

그리고,는 각각 A영역과 B영역의 최소 구간 매칭 에러를 나타내는 방향을 따라 보간한 값을 나타낸다.And, Wow Denotes values interpolated along directions indicating minimum section matching errors in regions A and B, respectively.

또한, 각 영역(A)(B)에서 보간 화소를 구함에 있어서 상기와 같이 최소 구간 매칭 에러를 나타내는 방향을 따라 선형 보간한 화소값을 이용할 수도 있지만, 다소 안정적인 보간을 수행하기 위해 다음과 같이 보간된 화소값을 이용할 수 있다.In addition, although the pixel values linearly interpolated along the direction indicating the minimum interval matching error may be used to obtain the interpolation pixels in the respective regions (A) and (B), the interpolation is performed as follows in order to perform a more stable interpolation. Used pixel values.

이 과정은 아래와 같은 프로그램에 의해 수행된다.This process is performed by the following program.

IF () THENIF ( ) THEN

ELSEELSE

ENDIFENDIF

IF () THENIF ( ) THEN

, 즉,를 구할 필요가 없다. , In other words, There is no need to save.

ELSEELSE

ENDIFENDIF

여기서,는 d=0 즉, 수직 방향으로의 구간 매칭 에러를 나타내고,는 A영역에서 최소 구간 매칭 에러를 나타내는 방향에 따라 선형 보간한 화소값이며,는 B영역에서 최소 구간 매칭 에러를 나타내는 방향에 따라 선형 보간한 화소값이다.here, Denotes d = 0, that is, interval matching error in the vertical direction, Is a pixel value linearly interpolated according to the direction indicating the minimum section matching error in region A, Is a pixel value linearly interpolated along a direction indicating a minimum section matching error in region B. FIG.

즉, 수직 방향으로의 구간 매칭 에러()값이 '0'에 근사값이면 보간값()을 구하고 수직 방향으로의 구간 매칭 에러()가 '0'에 근사값이 아니면 가중치를 부여하여 영역(A)의 최소 구간 매칭 에러()를 나타내는 방향에 따라 보간값(을 구한다.That is, the interval matching error in the vertical direction ( If the value is approximate to '0', the interpolation value ( ) And the interval matching error in the vertical direction ( ) Is weighted if it is not an approximation to '0', so that the minimum interval matching error ( The interpolation value ( Obtain

그리고, 영역(B)의 최소 구간 매칭 에러()값이 수직 방향으로의 구간 매칭 에러()보다 큰지 비교하게 된다.Then, the minimum section matching error of the region B ( Interval matching error in the vertical direction Is greater than).

이에 따라, 영역(B)의 최소 구간 매칭 에러()값이 수직 방향의 구간 매칭 에러()보다 크다면가 되어 보간값()을 구할 필요가 없다.Accordingly, the minimum section matching error of the region B ( Value is the vertical section matching error ( Is greater than Becomes an interpolation value ( There is no need to save).

반대로, 영역(B)의 최소 구간 매칭 에러()값이 수직 방향의 구간 매칭 에러()보다 작으면 영역(B)의 최소 구간 매칭 에러()를 나타내는 방향에 따라 보간값(을 구한다.In contrast, the minimum interval matching error of the region B ( Value is the vertical section matching error ( Less than), the minimum interval matching error ( The interpolation value ( Obtain

따라서, 공간적 보간부(300)는 상기 일련의 과정과 같이, 가능한 현재 보간할 화소와 공간적으로 인접한 화소들을 사용하여 보간을 수행하고 상대적으로 멀리 떨어져 있는 화소들을 사용하여 보간하는 경우에는 보간할 화소에 인접해 있는 화소들과의 상관 관계를 검사하여 상관성이 높은 경우에만 이 화소들을 사용하여 보간함으로써보다 정교하면서도 안정적인 보간을 실행하게 된다.Therefore, the spatial interpolation unit 300 performs interpolation using pixels that are spatially adjacent to the pixel to be interpolated as much as possible, and interpolates pixels to be interpolated when pixels are relatively far apart. By examining the correlation with adjacent pixels and interpolating using these pixels only when the correlation is high, more precise and stable interpolation is performed.

이 후, 현재 필드내에서 보간할 화소의 주변 화소 특히, 선형 보간에 사용된 대각 방향의 두 화소와, 보간된 위치의 화소 그리고, 이전 필드와 이후 필드의 보간된 위치의 두 화소에 대하여 메디안 필터링을 수행한다.Then, the median filtering is performed on the surrounding pixels of the pixel to be interpolated in the current field, in particular, two pixels in the diagonal direction used for linear interpolation, pixels at the interpolated position, and two pixels at the interpolated positions of the previous and subsequent fields. Do this.

예를 들어, 도7은 보간 화소 결정을 위한 시간 및 공간적 필터링에 사용되는 인접 화소들을 보인 예시도이다.For example, FIG. 7 is an exemplary diagram showing adjacent pixels used for temporal and spatial filtering for interpolation pixel determination.

이때, 현재 필드(n번째 필드)내에서 보간할 화소의 주변 화소 특히, 선형 보간에 사용된 대각 방향의 두 화소(,)와, 보간된 위치의 화소(그리고, 이전 필드(n-1번째 필드)와 이후 필드(n+1번째 필드)의 보간된 위치의 화소(,)에 대하여 아래 식(7)과 같은 연산으로 메디안 필터링을 수행하여 화소의 잡음 성분을 제거한다.At this time, the peripheral pixels of the pixel to be interpolated in the current field (n-th field), in particular, two pixels in the diagonal direction used for linear interpolation ( , ) And the pixel at the interpolated position ( Then, the pixel of the interpolated position of the previous field (n-1th field) and the subsequent field (n + 1th field) ( , ), Median filtering is performed by the operation as shown in Equation (7) below to remove the noise component of the pixel.

----- (7) ----- (7)

따라서, 상기 식(7)과 같은 메디안 필터링을 수행함으로써 현재 보간하고자 하는 화소를 시간적, 공간적으로 필터링하여 잡음 성분을 제거할 뿐만 아니라 움직임 확장부(700)에 의해 동화로 고려되는 정지화 부분의 시간적 보간 효과를 나타낼 수 있으며, 시간축 방향으로 일관성을 유지하여 안정도를 높일 수 있다.Therefore, by performing the median filtering as shown in Equation (7), not only the noise component is removed by temporally and spatially filtering the pixels to be interpolated at present, but also the temporal interpolation of the still image which is considered as moving image by the motion extension unit 700. The effect can be exhibited and stability can be increased by maintaining consistency in the time axis direction.

그리고, 현재 필드(n번째 필드)에서 더 부드럽고 안정적인 보간값을 산출하기 위하여 상기에서 산출된 에지 방향에 따라 필드내 보간된 화소값에 소정의 가중치를 주어 아래 식(8)과 같은 메디안 필터링을 수행할 수 있다.In order to calculate a smoother and more stable interpolation value in the current field (n-th field), median filtering is performed by giving a predetermined weight to the interpolated pixel values according to the edge direction calculated above. can do.

가중치가 감안된 메디안 필터링은 아래 식(8)과 같은 연산으로 수행된다.Median filtering considering weight is performed by the operation as shown in Equation (8) below.

------(8) ------(8)

그런데, 상기와 같이 메디안 필터링이 모두 수행된 보간 화소()가 현재 보간할 위치와 공간적으로 먼 다른 화소들에 의해 결정된 경우이거나 매우 빠른 움직임상에 존재하는 경우이면 보간 화소값이 인접한 다른 화소들에 비해 두드러지게 다른 값을 나타낼 수 있다.However, as described above, the interpolation pixel in which all the median filtering is performed ( ) Is determined by other pixels that are spatially far from the current interpolation position or when they are present in very fast motion, the interpolation pixel value may represent a significantly different value than other adjacent pixels.

이러한 현상을 방지하기 위하여 본 발명에서 공간적 보간부(300)는 필드내에서 보간할 화소의 위치로부터 수직 방향으로 인접한 화소들을 참조하여 아래와 같은 프로그램에 의해 수직 방향의 메디안 필터링을 수행한다.In order to prevent such a phenomenon, the spatial interpolation unit 300 performs median filtering in the vertical direction by the following program with reference to pixels adjacent in the vertical direction from the position of the pixel to be interpolated in the field.

이러한 수직 방향 메디안 필터링의 동작을 설명하면 다음과 같다.The operation of the vertical median filtering is as follows.

만약, 현재 보간할 화소의 위치로부터 수평적으로 떨어진 거리가 상기에서 결정되는 m값보다 작다면 상기 식(7) 또는 (8)에 의해 추정된 보간 화소가 보간값으로 결정된다.If the distance horizontally away from the current position of the pixel to be interpolated is smaller than the m value determined above, the interpolation pixel estimated by Equation (7) or (8) is determined as the interpolation value.

그러나, 만약 현재 보간할 화소의 위치로부터 수평적으로 떨어진 거리가 상기에서 결정되는 m값보다 작지 않다면 보간값은 상기 식(7) 또는 (8)에 의해 추정된 보간화소와 보간될 화소의 수직 방향으로 인접한 화소들의 화소값을 참조하여 메디안 필터링된 값으로 결정된다.However, if the distance horizontally away from the current position of the pixel to be interpolated is not smaller than the m value determined above, the interpolation value is the vertical direction of the pixel to be interpolated with the interpolation pixel estimated by Equation (7) or (8). The median filtered value is determined by referring to pixel values of adjacent pixels.

이는 추정된 보간 화소()가 현재 보간할 위치와 공간적으로 멀리 떨어진 필드내 화소들에 의해 결정되거나 상당히 빠른 움직임상에 존재할 때 이 보간 화소값이 필드내 인접 화소들에 비해 상당히 다른 값으로 부스팅(boosting)되는 것을 방지하기 위해 이 보간 화소가 필드내에서 수직 방향으로 인접한 화소들과 메디안 필터링을 수행하는 것이다.This means that the estimated interpolation pixel ( ) Is determined by the pixels in the field that are spatially far from the current position to interpolate or are present in a fairly fast motion to prevent this interpolating pixel value from boosting to a significantly different value than adjacent pixels in the field. This interpolation pixel performs median filtering with adjacent pixels in the field in the vertical direction.

그리고, 시간적 보간부(400)는 현재 보간을 실시할 화소와 동일한 위치에 해당하는 그 이전 필드 데이터의 화소값과 그 이후 필드 데이터의 화소값을 평균하여 필드 평균값을 추출한다.The temporal interpolation unit 400 extracts a field average value by averaging pixel values of previous field data and pixel values of subsequent field data corresponding to the same position as the pixel to be interpolated at present.

예로, n번째 필드 영상을 새로 생성하기 위하여 i번째 라인의 j번째 화소를 보간하여야 한다면 시간적 보간부(400)는 i번째 라인의 j번째 화소의 영상 데이터를 가지고 있는 n-1번째 필드 데이터의 화소값과 n+1번째 필드 데이터의 화소값을 평균하여 필드 평균값을 추출한다.For example, if it is necessary to interpolate the j-th pixel of the i-th line to newly generate the n-th field image, the temporal interpolation unit 400 includes the pixels of the n-1 th field data having the image data of the j-th pixel of the i-th line. The field average value is extracted by averaging the value and the pixel value of the n + 1th field data.

즉, 시간적 보간부(400)에서의 필드 평균값은 아래 식(9)에 의해 산출된다.That is, the field average value in the temporal interpolation unit 400 is calculated by the following equation (9).

------ (9) ------ (9)

이때, 소프트 스위치부(500)는 움직임 결정부(200)에서 산출된 밝기 차이(BD)와 밝기 윤곽 패턴 차이(BPPD)를 입력받아 움직임 확장부(700)에서 출력된 움직임 정도값을 참조하여 공간적 보간부(300)에서 출력된 에지 방향을 고려한 필드내 보간값과 시간적 보간부(400)에서 출력된 필드 평균값을 혼합하여 출력한다.In this case, the soft switch unit 500 receives the brightness difference BD and the brightness contour pattern difference BPPD calculated by the motion determiner 200 and spatially refers to the motion degree value output from the motion expansion unit 700. The interpolation value in consideration of the edge direction output from the interpolation unit 300 and the field average value output from the temporal interpolation unit 400 are mixed and output.

이러한 소프트 스위치부(500)는 아래 식(10)과 같은 연산값을 출력한다.The soft switch unit 500 outputs an operation value as shown in Equation (10) below.

----- (10) ----- (10)

여기서,는 움직임 확장부(700)에서 출력된 움직임 정도값으로서 '0 이상 1 이내'의 범위의 값이다.here, Is a motion degree value output from the motion expansion unit 700 and is a value in the range of '0 or more and 1 or less'.

이에 따라, 수직라인 변환부(800)는 소프트 스위치부(500)에서 출력된 보간값과 필드 저장부(100)에서 저장된 현재 필드 데이터값들을 참조하여 디스플레이 장치에 맞는 보간 라인을 생성하기 위하여 현재 필드 화면의 수직 라인수를 변환한다.Accordingly, the vertical line converter 800 refers to the interpolation value output from the soft switch unit 500 and the current field data values stored in the field storage unit 100 to generate an interpolation line suitable for the display device. Convert the number of vertical lines on the screen.

만일, 라인 변환이 필요없이 디인터레이싱된 프레임 데이터만을 필요로 하는 경우 수직라인 변환부(800)는 필드 저장부(100) 및 소프트 스위치부(500)에서 출력된 값을 그대로 통과시켜 출력한다.If only the deinterlaced frame data is needed without line conversion, the vertical line converter 800 passes the values output from the field storage unit 100 and the soft switch unit 500 and outputs the same.

상기에서 상세히 설명한 바와 같이 본 발명은 종래의 디인터레이싱 방법에 비하여 더 정밀한 에지 방향 검출 및 보간을 실시함으로써 화질 성능이 우수해지는 효과가 있다.As described in detail above, the present invention has an effect of improving image quality performance by performing more precise edge direction detection and interpolation than the conventional deinterlacing method.

Claims (9)

화상의 밝기 차이와 밝기 윤곽 패턴 차이를 검출하여 움직임 정도를 검출하고 그 움직임 정도를 참조하여 화상을 보간하는 디인터레이싱 방법에 있어서, 격행 주사 방식의 영상에 해당하는 m개의 필드 데이터에서 보간할 화소를 포함하는 일정 영역의 화소를 검출하는 제1 단계와, 상기 일정 영역의 화소간 상관 관계를 산출하여 보간할 화소의 변화 방향을 검출하는 제2 단계와, 상기에서 일정 영역에 대해 보간할 화소가 수평 또는 수직 에지상에 존재하지 않는 경우 관측 영역을 분할하여 각 영역에 대한 구간 매칭 에러를 산출하는 제3 단계와, 상기에서 추출된 각 영역의 구간 매칭 에러중 최소 구간 매칭 에러를 나타내는 방향으로 보간값을 산출하는 제4 단계를 수행함을 특징으로 하는 디인터레이싱 방법.A deinterlacing method of detecting a difference in brightness and a difference in brightness contour pattern to detect a degree of motion, and interpolating the image with reference to the degree of motion, the pixel comprising: pixels to be interpolated in m field data corresponding to a progressive scan method image; A first step of detecting a pixel of the predetermined region; a second step of detecting a change direction of the pixel to be interpolated by calculating correlation between the pixels of the predetermined region; and wherein the pixel to be interpolated with respect to the predetermined region is horizontal or A third step of calculating the interval matching error for each region by dividing the observation region when the image is not present on the vertical edge; and interpolating the interpolation value in a direction indicating the minimum interval matching error among the region matching errors extracted from the regions. A deinterlacing method, characterized in that performing a fourth step of calculating. 제1항에 있어서, 제3 단계는 화소의 변화 방향이를 기준으로 좌우로 관측 영역을 설정하고 이동 영역을 설정하는 제1 과정과, 상기에서 설정된 관측 영역을 제1,제2 영역으로 분할하는 제2 과정과, 상기에서 분할된 각각의 영역에 대해 구간 매칭 에러를 산출하는 제3 과정과, 상기에서 산출된 각 영역에 대해 최소 구간 매칭 에러를 산출하는 제4 과정으로 이루어지는 것을 특징으로 하는 디인터레이싱 방법.The method of claim 1, wherein the third step is to change the direction of change of the pixel. A first process of setting the viewing area to the left and right and the moving area based on the second step, the second process of dividing the set observation area into the first and second areas, and the section for each of the divided areas And a fourth step of calculating a matching error, and a fourth step of calculating a minimum interval matching error for each of the calculated areas. 제2항에 있어서, 제2 과정에서 제1,제2 영역은 에지 방향를 기준으로 분할하며, 제1 영역은 에지 방향기준으로 좌우 방향으로 이동 영역을 포함할 수 있는 정도의 경계까지로 설정하고, 제2 영역은 제1 분할 영역의 경계로부터 관측 영역의 좌우 끝까지로 설정하는 것을 특징으로 하는 디인터레이싱 방법.The method of claim 2, wherein in the second process, the first and second regions have an edge direction. The first region is divided by the edge direction. The de-interlacing method of claim 1, wherein the deinterlacing method is set up to a boundary that can include the moving area in the left and right direction, and the second area is set from the boundary of the first divided area to the left and right ends of the viewing area. 제1항에 있어서, 제4 단계는 제1,제2 영역의 구간 매칭 에러를 비교하는 제1 과정과, 제1 영역의 구간 매칭 에러가 제2 영역의 구간 매칭 에러와 같거나 보다 작으면 제1 영역의 최소 구간 매칭 에러를 나타내는 방향으로 선형 보간한 값을 산출하는 제2 과정과, 제1 영역의 구간 매칭 에러가 제2 영역의 구간 매칭 에러보다 크면 제2 영역의 최소 구간 매칭 에러를 나타내는 방향으로 선형 보간하여 그 보간값이 현재 보간하려는 화소의 상,하에 존재하는 화소값 사이에 있는지 비교하는 제3 과정과, 상기에서 제2 영역의 최소 구간 매칭 에러를 나타내는 방향으로 선형 보간한 화소값이 현재 보간하려는 화소의 상,하에 존재하는 화소값사이에 있는 경우 그 제2 영역의 최소 구간 매칭 에러를 나타내는 방향으로 선형 보간한 값을 산출하는 제4 과정으로 이루어지는 것을 특징으로 하는 디인터레이싱 방법.The method of claim 1, wherein the fourth step comprises: a first process of comparing interval matching errors of the first and second regions; and if the interval matching error of the first region is equal to or smaller than the interval matching error of the second region. A second process of calculating a linear interpolated value in a direction indicating a minimum section matching error in one region; and a section matching error in the second region when the section matching error in the first region is greater than the section matching error in the second region. The linear interpolation in the direction and comparing the interpolation value between the pixel values existing above and below the pixel to be interpolated; and the pixel value linearly interpolated in the direction indicating the minimum section matching error of the second region. In the fourth process of calculating the linear interpolated value in the direction indicating the minimum section matching error of the second area when the pixel value exists between the pixel values existing above and below the pixel to be interpolated. De-interlacing method, characterized in that the. 제4항에 있어서, 제2 영역의 최소 구간 매칭 에러를 나타내는 방향으로 선형 보간한 화소값이 현재 보간하려는 화소의 상,하에 존재하는 화소값사이에 있지 않은 경우 제1 영역의 최소 구간 매칭 에러를 나타내는 방향으로 선형 보간한 값을 산출하는 과정을 더 포함하는 것을 특징으로 하는 디인터레이싱 방법.The minimum interval matching error of the first region when the pixel value linearly interpolated in the direction indicating the minimum interval matching error of the second region is not between the pixel values existing above and below the pixel to be interpolated. Deinterlacing method further comprising the step of calculating a linear interpolated value in the indicated direction. 제2항에 있어서, 제4 단계는 제1,제2 영역의 구간 매칭 에러를 비교하는 제1 과정과, 제1 영역의 구간 매칭 에러가 제2 영역의 구간 매칭 에러와 같거나 보다 작으면 제1 영역의 최소 구간 매칭 에러를 나타내는 방향으로 선형 보간한 값을 산출하는 제2 과정과, 제1 영역의 구간 매칭 에러가 제2 영역의 구간 매칭 에러보다 크면 제2 영역의 최소 구간 매칭 에러가 수직 방향으로의 구간 매칭 에러보다 큰지 비교하는 제3 과정과, 상기에서 제2 영역의 최소 구간 매칭 에러가 수직 방향으로의 구간 매칭 에러보다 크면 가중치를 고려하여 상기 제2 영역의 최소 구간 매칭 에러를 나타내는 방향으로 선형 보간한 값을 산출하는 제4 과정으로 이루어지는 것을 특징으로 하는 디인터레이싱 방법.3. The method of claim 2, wherein the fourth step comprises: a first process of comparing interval matching errors of the first and second regions; and if the interval matching error of the first region is equal to or smaller than the interval matching error of the second region. Calculating a linear interpolated value in a direction indicating the minimum section matching error of the first region; and if the section matching error of the first region is greater than the section matching error of the second region, the minimum section matching error of the second region is vertical. A third step of comparing whether the interval is greater than the interval matching error in the direction; and if the minimum interval matching error of the second region is larger than the interval matching error in the vertical direction, the minimum interval matching error of the second region is considered in consideration of a weight. And a fourth process of calculating linearly interpolated values in the direction. 제6항에 있어서, 제2 영역의 최소 구간 매칭 에러가 수직 방향으로의 구간 매칭 에러와 같거나 보다 작으면 제1 영역의 최소 구간 매칭 에러를 나타내는 방향으로 선형 보간한 값을 산출하는 과정을 더 포함하는 것을 특징으로 하는 디인터레이싱 방법.The method of claim 6, further comprising: calculating linearly interpolated values in the direction indicating the minimum section matching error of the first region when the minimum section matching error of the second region is equal to or smaller than the section matching error in the vertical direction. Deinterlacing method comprising a. 보간할 임의의 필드 데이터와 그 주변 필드 데이터를 입력으로 밝기 및 밝기 윤곽 패턴의 차이를 검출하여 영상의 움직임 정도를 계산하는 움직임 결정부와, 현재 보간할 필드 영상에 대해 이전 필드의 화소값과 이후 필드의 화소값을 평균하여 필드 평균값을 산출하는 시간적 보간부와, 상기 필드 저장부로부터 현재 보간을 실시한 영역의 필드 데이터의 화소값과 필드내 주변 화소값을 입력으로 보간할 화소 주변의 화소값들에 포함되어 있는 에지(edge) 방향을 검출하여 그 검출된 방향을 기준으로 임의로 설정한 관측 영역을 다수개로 분할하여 각각의 영역의 구간 매칭 에러중 최소 구간 매칭 에러를 나타내는 방향에 따른 필드내 보간값을 산출하는 공간적 보간부와, 상기 움직임 확장부에서의 밝기 차이 및 밝기 윤곽 패턴차이에 따라 상기 공간적 보간부에서의 필드내 보간값과 시간적 보간부에서의 필드 평균값을 혼합하여 수직라인 변환부로 출력하는 소프트 스위치부를 구비하여 구성함을 특징으로 하는 디인터레이싱 장치.A motion determiner that detects the difference between brightness and brightness contour pattern by inputting arbitrary field data to be interpolated and its surrounding field data and calculates the degree of motion of the image; and A temporal interpolation unit that calculates a field average value by averaging pixel values of a field, and pixel values around pixels to interpolate pixel values of field data of a region currently interpolated from the field storage unit and peripheral pixel values in a field as inputs. Intra-field interpolation value according to the direction indicating the minimum section matching error among the section matching errors of each section by detecting the edge direction included in the segment and dividing the arbitrarily set observation region into a plurality of sections. The spatial interpolator calculates the spatial interpolation unit and the spatial interpolation unit according to the brightness difference and the brightness contour pattern difference De-interlacing apparatus which is characterized by formed by a mixture of the average value of the field in the interpolation value and the temporal interpolation of fields at the shaft comprising a soft switch for output to the vertical line conversion. 제8항에 있어서, 공간적 보간부는 상기 필드 저장부로부터 현재 보간할 영역의 필드 데이터의 화소값과 필드내 주변 화소값을 입력으로 보간할 화소 주변의 화소값들에 포함되어 있는 에지(edge) 방향을 검출하였을 때 에지 방향이 수평 또는 수직 에지에 존재하지 않는 경우 보간할 화소를 기준으로 소정 영역을 서브샘플링(sub-sampling)하여 보간할 화소가 서브샘플링된 영역에 대해 수평 또는 수직 에지에 존재하지 않으면 경사도(gradient)에 의한 에지 방향을 검출하여 그 검출된 방향을 기준으로 임의로 설정한 관측 영역을 다수개로 분할하여 각각의 영역의 구간 매칭 에러중 최소 구간 매칭 에러를 나타내는 방향에 따른 필드내 보간값을 산출하도록 구성함을 특징으로 하는 디인터레이싱 장치.10. The edge direction of claim 8, wherein the spatial interpolation unit comprises an edge direction included in the pixel values of the field data of the region to be interpolated from the field storage unit and the pixel values around the pixel to interpolate the peripheral pixel values in the field. When the edge direction is not present at the horizontal or vertical edge when the P is detected, the pixel to be interpolated is not present at the horizontal or vertical edge with respect to the subsampled region by subsampling a predetermined region based on the pixel to be interpolated. Otherwise, the interpolation value according to the direction indicating the minimum section matching error among the section matching errors of each region is detected by dividing the observation direction arbitrarily set based on the detected direction by detecting the edge direction due to the gradient. Deinterlacing apparatus, characterized in that configured to calculate.
KR1020000001497A 2000-01-06 2000-01-13 Deinterlacing method and apparatus KR100631497B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020000001497A KR100631497B1 (en) 2000-01-13 2000-01-13 Deinterlacing method and apparatus
US09/754,358 US6731342B2 (en) 2000-01-06 2001-01-05 Deinterlacing apparatus and method using edge direction detection and pixel interplation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020000001497A KR100631497B1 (en) 2000-01-13 2000-01-13 Deinterlacing method and apparatus

Publications (2)

Publication Number Publication Date
KR20010073262A true KR20010073262A (en) 2001-08-01
KR100631497B1 KR100631497B1 (en) 2006-10-09

Family

ID=19638268

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020000001497A KR100631497B1 (en) 2000-01-06 2000-01-13 Deinterlacing method and apparatus

Country Status (1)

Country Link
KR (1) KR100631497B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100403364B1 (en) * 2001-12-14 2003-10-30 매크로영상기술(주) Apparatus and method for deinterlace of video signal
KR100423504B1 (en) * 2001-09-24 2004-03-18 삼성전자주식회사 Line interpolation apparatus and method for image signal
US7190406B2 (en) 2003-10-02 2007-03-13 Samsung Electronics Co., Ltd. Image adaptive deinterlacing method and device based on edge
US7233363B2 (en) 2003-06-18 2007-06-19 Samsung Electronics Co., Ltd. De-interlacing method, apparatus, video decoder and reproducing apparatus thereof
KR100751646B1 (en) * 2000-12-22 2007-08-22 마츠시타 덴끼 산교 가부시키가이샤 Interpolation apparatus, and video signal processing apparatus including the same
KR100979811B1 (en) * 2003-08-12 2010-09-02 삼성전자주식회사 Deinterlacing apparatus and method based on horizontal edge pattern
KR101042623B1 (en) * 2004-11-17 2011-06-20 삼성전자주식회사 Method for deinterlacing in use of field variable partition type and apparatus thereof

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR960012490B1 (en) * 1993-06-04 1996-09-20 엘지전자 주식회사 Video format converting apparatus and method for hdtv

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100751646B1 (en) * 2000-12-22 2007-08-22 마츠시타 덴끼 산교 가부시키가이샤 Interpolation apparatus, and video signal processing apparatus including the same
KR100423504B1 (en) * 2001-09-24 2004-03-18 삼성전자주식회사 Line interpolation apparatus and method for image signal
KR100403364B1 (en) * 2001-12-14 2003-10-30 매크로영상기술(주) Apparatus and method for deinterlace of video signal
US7233363B2 (en) 2003-06-18 2007-06-19 Samsung Electronics Co., Ltd. De-interlacing method, apparatus, video decoder and reproducing apparatus thereof
KR100979811B1 (en) * 2003-08-12 2010-09-02 삼성전자주식회사 Deinterlacing apparatus and method based on horizontal edge pattern
US7190406B2 (en) 2003-10-02 2007-03-13 Samsung Electronics Co., Ltd. Image adaptive deinterlacing method and device based on edge
KR101042623B1 (en) * 2004-11-17 2011-06-20 삼성전자주식회사 Method for deinterlacing in use of field variable partition type and apparatus thereof

Also Published As

Publication number Publication date
KR100631497B1 (en) 2006-10-09

Similar Documents

Publication Publication Date Title
KR100631496B1 (en) Deinterlacing apparatus
US6731342B2 (en) Deinterlacing apparatus and method using edge direction detection and pixel interplation
US7057665B2 (en) Deinterlacing apparatus and method
US6985187B2 (en) Motion-adaptive interpolation apparatus and method thereof
KR101536794B1 (en) Image interpolation with halo reduction
US5929919A (en) Motion-compensated field rate conversion
US6630961B1 (en) Deinterlacing device and method
KR20040009967A (en) Apparatus and method for deinterlacing
KR20000046212A (en) Apparatus for de-interlacing digital image data
JP2005318621A (en) Ticker process in video sequence
CN1123215C (en) Deinterlacing device and method for digital TV receiver
KR100631497B1 (en) Deinterlacing method and apparatus
US7379120B2 (en) Image processing device and image processing method
KR100422575B1 (en) An Efficient Spatial and Temporal Interpolation system for De-interlacing and its method
KR20050025086A (en) Image processing apparatus and image processing method
JP2000050212A (en) Image display device and image display method therefor
KR100323662B1 (en) Deinterlacing method and apparatus
KR100968642B1 (en) Method and interpolation device for calculating a motion vector, display device comprising the interpolation device, and computer program
US20060033839A1 (en) De-interlacing method
JP4433949B2 (en) Image processing apparatus and method
KR100323664B1 (en) Deinterlacing apparatus
KR100360882B1 (en) Deinterlacing method and apparatus
KR100323663B1 (en) Deinterlacing method and apparatus
KR100510670B1 (en) apparatus for de-interlacing
KR100726552B1 (en) Apparatus and method for de-interlacing adaptively field image by using motion

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20100630

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee