KR100505516B1 - Video signal conversion device and method - Google Patents

Video signal conversion device and method Download PDF

Info

Publication number
KR100505516B1
KR100505516B1 KR10-1998-0004445A KR19980004445A KR100505516B1 KR 100505516 B1 KR100505516 B1 KR 100505516B1 KR 19980004445 A KR19980004445 A KR 19980004445A KR 100505516 B1 KR100505516 B1 KR 100505516B1
Authority
KR
South Korea
Prior art keywords
image
data
image signal
signal
frame
Prior art date
Application number
KR10-1998-0004445A
Other languages
Korean (ko)
Other versions
KR19980071354A (en
Inventor
데츠지로 곤도
츠토무 와타나베
도모유키 오츠키
Original Assignee
소니 가부시끼 가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 소니 가부시끼 가이샤 filed Critical 소니 가부시끼 가이샤
Publication of KR19980071354A publication Critical patent/KR19980071354A/en
Application granted granted Critical
Publication of KR100505516B1 publication Critical patent/KR100505516B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4023Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0125Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Television Systems (AREA)

Abstract

제 1 영상 신호를 제 2 영상 신호로 변환하기 위한 영상 신호 변환 장치로서, 그 제 1 및 제 2 영상 신호들은 복수의 다른 프레임(frame)들의 화상들을 포함하는, 영상 신호 변환 장치가 제공된다. 모션 검출기(motion detector)가 제 1 프레임과 제 2 프레임 사이에서 제 1 영상 신호의 모션을 검출하도록 동작가능하고, 처리 회로는 검출된 모션에 대응하는 위치에서의 픽셀(pixel)의 가정에 기초하여 제 2 영상 신호를 생성한다. 그 장치는 에일리어싱 왜곡(aliasing distortion)이 감소되거나 제거된 제 1 영상 신호와 같은 해상도를 갖거나, 또는 수직 및/또는 수평 방향으로 보다 높은 해상도를 갖는 출력 신호를 생성하는데 사용될 수 있다.An image signal conversion apparatus for converting a first image signal into a second image signal, wherein the first and second image signals include images of a plurality of different frames. A motion detector is operable to detect motion of the first image signal between the first frame and the second frame, and the processing circuitry is based on the assumption of the pixel at the position corresponding to the detected motion. Generate a second video signal. The device can be used to produce an output signal having the same resolution as the first image signal with reduced or eliminated aliasing distortion, or higher resolution in the vertical and / or horizontal directions.

Description

영상 신호 변환 장치 및 방법Video signal conversion device and method

본 발명은 일반적으로 영상 처리에 관한 것으로, 특히 영상의 언더샘플링(undersampling)으로 인한 에일리어싱(aliasing) 왜곡을 줄이는 영상 신호 변환 장치 및 방법에 관한 것이다. 본 발명은 또한 저해상도 영상의 픽셀(pixel)수를 증가시킴으로서 고해상도 영상을 발생하는 기술에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention generally relates to image processing, and more particularly, to an apparatus and method for converting image signals that reduce aliasing distortion due to undersampling of an image. The present invention also relates to a technique for generating a high resolution image by increasing the number of pixels of a low resolution image.

현대의 디지탈 영상 기술로, 아날로그 비디오 신호는 음극선관(CRT)이나 다른 디스플레이에서의 순차적인 재생을 위해 디지탈 데이터로 샘플화되어 저장된다. 설계 목적은 가능한 한 높은 해상도와 거의 없는 왜곡으로 이러한 영상을 디스플레이하는 것이다.With modern digital imaging techniques, analog video signals are sampled and stored as digital data for sequential playback on cathode ray tubes (CRTs) or other displays. The design goal is to display these images with the highest possible resolution and little distortion.

텔레비젼 신호들, VTR(video tape recorder)들, 또는 DVD(digital versatile disc) 플레이어들로부터 얻어진 영상들과 같이, CRT상에 디스플레이되는 영상은 수평 방향으로의 전자빔들의 반복적인 주사에 의해 발생된다. 도 25에 도시된 바와 같이, 각 수평 주사는 좌측에서 우측으로 실행되고, 각 주사 이후에는 그 빔들이 가장 좌측으로 거슬러가서 다음의 수평 주사를 시작하도록 수직 방향으로 위치가 재조정된다. CRT의 형광 스크린은 스크린 상의 작은 유닛들로 분포된 각 청색, 녹색, 및 적색 인광(phosphors)을 비추도록 3개의 전자빔이 조사된다. 인광은 전자빔들의 강도에 대응하는 광점들을 만들고, 모든 점의 집합이 영상을 만든다. 그래서, 디스플레이된 영상은 이러한 점들, 즉 픽셀들의 집합으로 간주될 수 있다.Images displayed on CRTs, such as images from television signals, video tape recorders (VTRs), or digital versatile disc (DVD) players, are generated by repeated scanning of electron beams in the horizontal direction. As shown in Fig. 25, each horizontal scan is performed from left to right, and after each scan, the beams are repositioned in the vertical direction so that the beams go back to the leftmost and start the next horizontal scan. The fluorescent screen of the CRT is irradiated with three electron beams to illuminate each blue, green and red phosphors distributed in small units on the screen. Phosphorescence creates light spots that correspond to the intensity of the electron beams, and a collection of all the points produces an image. Thus, the displayed image can be regarded as a collection of these points, ie pixels.

아날로그 신호로부터 유도되는 CRT상에 디스플레이된 영상은 발광 픽셀들의 집합으로 구성되므로, 영상은 픽셀 위치들에서 원래 영상을 샘플링함으로서 얻어진 디지탈 신호로 생각될 수 있다. 그래서, 원래 아날로그 영상이 CRT상의 픽셀들의 수와 같은 점들의 수를 발생하도록 수평 및 수직 방향으로 충분한 샘플링 간격에서 샘플링되면, 영상 데이터의 집합은 디지탈적으로 저장될 수 있다. 순차적으로 재생될 때, 엄격한 아날로그 기록/재생 접근법에서와 거의 같은 해상도의 영상이 구해진다.Since the image displayed on the CRT derived from the analog signal consists of a set of luminescent pixels, the image can be thought of as a digital signal obtained by sampling the original image at pixel locations. Thus, if the original analog image is sampled at sufficient sampling intervals in the horizontal and vertical directions to generate the same number of points as the number of pixels on the CRT, then the set of image data can be stored digitally. When played back sequentially, images of approximately the same resolution as in the strict analog recording / playback approach are obtained.

샘플링 이론(sampling theorem)이란 신호가 그 신호의 최고 주파수 성분의 적어도 두 배의 비율로 샘플링된다고 가정하면 아날로그 신호는 시간상에서 균일한 간격을 둔 이산 샘플의 세트로부터 완전히 재구성될 수 있음을 나타낸다. 원래 영상을 샘플링할 때, 샘플링 이론이 만족되지 않으면, 디스플레이된 영상에는 에일리어싱 왜곡이 발생된다. 에일리어싱 왜곡을 정정하기 위해, 프리필터(prefilter)가 수평(주사선) 방향으로의 언더샘플링을 보상하는데 사용되지만, 이러한 프리필터는 전형적으로 수직 방향에서는 제공되지 않는다. 이와 같이, 수직 방향에서의 에일리어싱 왜곡은 공통적인 문제이다.Sampling theorem indicates that an analog signal can be completely reconstructed from a set of evenly spaced discrete samples in time, assuming that the signal is sampled at a rate of at least twice the highest frequency component of the signal. When sampling the original image, if the sampling theory is not satisfied, aliasing distortion occurs in the displayed image. To correct the aliasing distortion, a prefilter is used to compensate for undersampling in the horizontal (scanning) direction, but such a prefilter is typically not provided in the vertical direction. As such, aliasing distortion in the vertical direction is a common problem.

도 26은 수직 방향으로 디스플레이된 영상의 에일리어싱 왜곡을 설명한다. 각 프레임(frame)들(N, N+1)에는 소정의 열(column)의 4개 픽셀들(P1 내지 P4)이 도시된다. 신호들(SN, SN+1)은 소정의 열에 대해 수직 방향으로 원래 영상의 영상 레벨 변화량을 나타내고, 여기서 진폭 레벨은 도면에서 수평으로 도시된다. 그래서, 예를 들면, 프레임(N)에서는 영상의 휘도가 픽셀(P1)에서 보다 픽셀(P2)에서 더 높다. 이제, 수직 방향에서 원래 영상의 최고 공간 주파수 성분이 픽셀들 사이의 수평 공간의 두 배보다 작은 주기를 가지면, 샘플링 이론이 만족되지 않으므로 에일리어싱 왜곡이 생긴다. 이는 도 26에서 신호(SN, SN+1)의 경우이다. 예를 들면, 프레임(N)의 샘플링 신호에 대한 근사치인 신호(SN')는 원리 신호(SN)와 현저히 다르다. 에일리어싱 왜곡으로, 수직 방향에서 에일리어싱을 제거하는 필터가 사용되는 경우에도, 원래 신호의 고주파수 성분은 재생하는 동안 손실된다. 이러한 에일리어싱 왜곡은 Y/C 분리, 잡음 제거, 질적 개선 등과 같은 신호 처리에서의 감쇄 원인이 된다.26 illustrates aliasing distortion of an image displayed in the vertical direction. Each of the frames N and N + 1 shows four pixels P 1 to P 4 in a predetermined column. Signals S N and S N + 1 represent the amount of change in the image level of the original image in the vertical direction for a given column, where the amplitude level is shown horizontally in the figure. Thus, for example, in frame N, the brightness of the image is higher at pixel P 2 than at pixel P 1 . Now, if the highest spatial frequency component of the original image in the vertical direction has a period less than twice the horizontal space between pixels, aliasing distortion occurs because the sampling theory is not satisfied. This is the case of signals S N and S N + 1 in FIG. 26. For example, the signal S N ′, which is an approximation to the sampling signal of the frame N, is significantly different from the principle signal S N. With aliasing distortion, even when a filter is used that eliminates aliasing in the vertical direction, high frequency components of the original signal are lost during reproduction. This aliasing distortion causes attenuation in signal processing such as Y / C separation, noise cancellation, and qualitative improvement.

논의된 바와 같이 영상의 언더샘플링이 항상 감소된 해상도를 만들지만, 화상 품질에 대한 관찰자의 효과는 장면이 프레임에서 프레임으로 어떻게 변하는가에 의존함을 주목한다. 에일리어싱 왜곡을 포함한 프레임이 도 26의 경우와 같이 프레임에서 프레임으로 상당히 변화되면, 사용자의 견지에서 볼 때 자연스럽지 않게 이동되는 영상이나 흐려짐이 생긴다. 화면이 정지 상태로 유지되면, 에일리어싱 잡음은 크지 않다. 임의의 경우에서 해상도는 항상 언더샘플링에 의해 감쇄되고 표준 텔레비젼 방송의 신호는 프레임 당 제한된 수의 수평 스위프(sweep)만을 위해 의도되므로, 에일리어싱을 제거하고 개선된 품질을 갖는 원래 영상을 재포착하는(recapture) 실질적인 방법이 필요하다.Note that although undersampling of the image always results in a reduced resolution as discussed, the observer's effect on image quality depends on how the scene changes from frame to frame. If the frame including the aliasing distortion is significantly changed from frame to frame as in the case of FIG. 26, an image or blurring that is not naturally seen from the user's point of view occurs. If the picture remains stationary, the aliasing noise is not great. In any case, the resolution is always attenuated by undersampling and the signal of a standard television broadcast is intended only for a limited number of horizontal sweeps per frame, eliminating aliasing and recapturing the original picture with improved quality ( recapture) A practical method is needed.

그러므로, 본 발명의 목적은 언더샘플링된 영상 신호를 감소되거나 제거된 에일리어싱 왜곡을 갖는 출력 영상 신호로 변환하는 방법을 제공하기 위한 것이다.It is therefore an object of the present invention to provide a method for converting an undersampled video signal into an output video signal with reduced or eliminated aliasing distortion.

본 발명의 또 다른 목적은 저해상도 영상으로부터 고해상도 영상을 발생시키기 위한 것이다.Still another object of the present invention is to generate a high resolution image from a low resolution image.

본 발명의 또 다른 목적은 저품질의 입력 영상 신호로부터 발생된 디스플레이가능한 영상의 품질을 개선시키기 위한 것이다.Another object of the present invention is to improve the quality of displayable images generated from low quality input image signals.

본 발명의 여러 다른 목적들 및 이점들은 본 기술 분야에 숙련자들에게 쉽게 명백해질 수 있을 것이며, 특히 새로운 특성들이 첨부 청구항들에서 지시될 것이다.Various other objects and advantages of the present invention will be readily apparent to those skilled in the art, in particular new characteristics being indicated in the appended claims.

본 발명의 실시예에서는 제 1 영상 신호를 제 2 영상 신호로 변환시키기 위한 영상 신호 변환 장치가 제공되고, 그 제 1 및 제 2 영상 신호들은 각각 복수의 다른 프레임들의 화상들을 포함한다. 그 장치는 제 1 프레임과 제 2 프레임 사이의 제 1 영상 신호의 모션을 검출하도록 동작가능한 모션 검출기와, 검출된 모션에 대응하는 위치에서의 픽셀 가정에 기초하여 제 2 영상 신호를 생성하기 위한 처리 회로를 포함한다.In an embodiment of the present invention, an image signal conversion apparatus for converting a first image signal into a second image signal is provided, and the first and second image signals each include images of a plurality of different frames. The apparatus includes a motion detector operable to detect motion of the first image signal between the first frame and the second frame, and processing for generating a second image signal based on pixel assumptions at positions corresponding to the detected motion. It includes a circuit.

그 장치는 감소되거나 제거된 에일리어싱 왜곡을 갖는 제 1 영상 신호와 같은 해상도를 갖는, 또는 수평 및/수직 방향으로 더 높은 해상도를 갖는 출력 신호를 생성하는데 사용된다. 모션 검출기는 바람직하게 제 1 영상 신호의 픽셀 크기보다 미세한 양만큼 제 1 영상 신호의 모션을 검출한다. 처리 회로는 제 1 영상 신호의 화상을 저장하고 제 1 영상 신호의 하나의 화상 내의 데이터 량보다 큰 저장 용량을 갖는 해상도 생성 메모리와, 제 1 영상 신호를 해상도 생성 메모리에 기록하고 메모리로부터 새로운 영상 신호를 판독하는 것을 제어하도록 동작가능한 제어기로 구성된다. 제어기는 제 1 영상 신호의 검출된 모션에 따라 메모리에 제 1 영상 신호를 기록한다.The device is used to produce an output signal having the same resolution as the first video signal with reduced or eliminated aliasing distortion, or higher resolution in the horizontal and / or vertical directions. The motion detector preferably detects motion of the first image signal by an amount finer than the pixel size of the first image signal. The processing circuit stores the image of the first image signal and has a storage capacity having a storage capacity larger than the amount of data in one image of the first image signal, and writes the first image signal to the resolution generation memory and writes a new image signal from the memory. And a controller operable to control reading of. The controller writes the first video signal to the memory in accordance with the detected motion of the first video signal.

또 다른 실시예에서, 영상 변환 장치는 적어도 화상의 제 1 및 제 2 영상 영역들을 정의하는 영역 분할기를 포함하고, 그 모션은 각 영상 영역들에서 검출된다. 이 경우, 제 2 영상 신호의 제 1 및 제 2 영상 영역들은 각각 제 1 영상 신호의 제 1 및 제 2 영상 영역들에서 검출된 모션에 대응하는 위치들에서의 픽셀들의 가정에 기초하여 발생된다. 결합기는 복합 영상을 발생하도록 제 2 신호의 제 1 및 제 2 영상 영역을 결합한다.In another embodiment, the image conversion device comprises a region divider defining at least first and second image regions of the image, the motion of which is detected in each image region. In this case, the first and second image regions of the second image signal are generated based on the assumption of the pixels at the positions corresponding to the motion detected in the first and second image regions of the first image signal, respectively. The combiner combines the first and second image regions of the second signal to generate a composite image.

한 응용에서는 제 1 영상 신호가 수평 및 수직 방향에서 모두 표준 선명 신호 또는 표준 선명(SD; standard definition) 신호 해상도의 두 배를 갖는 제 2 영상 신호로서 상위 선명 또는 고선명(HD; high definition) 영상 신호로 변환되는 SD 영상 신호가 된다. 일부 프레임에서는 고선명(HD) 신호의 픽셀이 또한 적응성 처리 기술에 의해 발생될 수 있다.In one application, the first image signal is a high definition or high definition (HD) image signal as a second image signal having twice the resolution of a standard definition signal or a standard definition signal in both the horizontal and vertical directions. SD video signal is converted into. In some frames, pixels of high definition (HD) signals may also be generated by adaptive processing techniques.

도 1을 참고로, 본 발명에 따른 텔레비젼 수신기(10)의 간략화된 블록도가 도시된다. 수신기(10)는 입력 텔레비젼 신호를 디지탈 신호로 변환하고, 해상도를 증진시키는 동안 에일리어싱 왜곡에 대해 디지탈 신호를 정정하고, 또한 디스플레이를 위해 왜곡 정정된 디지탈 신호를 다시 아날로그 신호로 변환한다.1, a simplified block diagram of a television receiver 10 according to the present invention is shown. The receiver 10 converts the input television signal into a digital signal, corrects the digital signal for aliasing distortion while enhancing the resolution, and also converts the distortion corrected digital signal back to an analog signal for display.

수신기(10)는 안테나 또는 전송선을 통해 수신되는 선택된 대역의 입력 텔레비젼 방송 신호를 복조하는 동조기(1)를 포함한다. 복조된 신호는 텔레비젼 신호의 고주파수 성분을 필터 처리하도록 에일리어싱 왜곡 프리필터로 동작하는 저역 통과 필터(LPF)(2)에 인가된다. 필터 처리된 LPF(2)의 출력 신호는 아날로그 대 디지탈(A/D) 변환기(3)로 인가되고, 거기서 샘플링되어 디지탈화된다. 이어서, 디지탈화된 신호는 디지탈화된 텔레비젼 신호의 수직 방향에서 에일리어싱 왜곡을 줄이거나 기본적으로 제거하는 왜곡 정정기(4)에 제공된다. Y/C 분리기(5)와 같은 영상 처리 회로는 왜곡 정정기(4)와 D/A 변환기(6) 사이(또는 다른 방법으로 동조기(1)와 LPF(2) 사이)에 사용된다. Y/C 분리기(5)는 왜곡 정정기(4)로부터의 출력 신호에서 색차로부터 휘도를 분리한다. 도시된 구성에서는 복합 신호(휘도 + 색차)가 A/D 변환기(3)로 공급되고, 샘플링이 색차 부반송자의 주파수에 따라 실행됨을 주목한다. 다른 방법으로, 신호가 A/D 변환기(3)로 인가되기 이전에 텔레비젼 신호의 Y/C 분리가 실행되면, 13.5 MHz 정도의 주파수에서 샘플링이 실행된다. 어떠한 경우에서도 D/A 변환기(6)는 음극선관(CRT)(7)상에 디스플레이되도록 왜곡 정정기(4)의 왜곡 정정된 출력 신호를 아날로그 신호로 변환한다.The receiver 10 includes a tuner 1 for demodulating an input television broadcast signal of a selected band received via an antenna or transmission line. The demodulated signal is applied to a low pass filter (LPF) 2 which acts as an aliasing distortion prefilter to filter the high frequency components of the television signal. The output signal of the filtered LPF 2 is applied to an analog-to-digital (A / D) converter 3, where it is sampled and digitized. The digitized signal is then provided to a distortion corrector 4 which reduces or essentially eliminates aliasing distortion in the vertical direction of the digitized television signal. An image processing circuit such as a Y / C separator 5 is used between the distortion corrector 4 and the D / A converter 6 (or alternatively between the tuner 1 and the LPF 2). The Y / C separator 5 separates the luminance from the color difference in the output signal from the distortion corrector 4. Note that in the illustrated configuration, a composite signal (luminance + color difference) is supplied to the A / D converter 3, and sampling is performed according to the frequency of the color difference subcarrier. Alternatively, if Y / C separation of the television signal is performed before the signal is applied to the A / D converter 3, sampling is performed at a frequency on the order of 13.5 MHz. In any case, the D / A converter 6 converts the distortion corrected output signal of the distortion corrector 4 into an analog signal for display on a cathode ray tube (CRT) 7.

이제는 수직 방향으로, 즉 수평 주사선에 수직되게 에일리어싱 왜곡을 갖는 영상으로부터 원래 영상을 재생하는 것이 설명된다. 도 2A를 참고로, 왜곡 정정기(4)내에서 실행되는 에일리어싱 왜곡 제거 방법의 원리가 설명된다. 각 영상 프레임의 소정의 열(Ci)내에서 수직 방향으로의 영상 신호 변화량은 프레임(N) 내지 (N+4)에 대해 각각 신호(SN) 내지 (SN+4)로 표시된다. 각 프레임에서 열(Ci)의 픽셀(P1) 내지 (PK)는 종래의 수평 주사선(SL1)-(SLK)의 각 위치에 놓인다. 각 픽셀의 신호 레벨은 도면에서 수평으로 도시된다--예를 들어, 프레임(N)에서, 신호 레벨(V1)-(VK)는 각각 픽셀(P1)-(PK)에 대응한다.It is now described to reproduce the original image from the image having aliasing distortion in the vertical direction, that is, perpendicular to the horizontal scanning line. Referring to Fig. 2A, the principle of the aliasing distortion removal method executed in the distortion corrector 4 is described. The change amount of the image signal in the vertical direction in the predetermined column C i of each image frame is represented by the signals S N to S N + 4 for the frames N to N + 4, respectively. In each frame, pixels P 1 to P K of columns C i are placed at respective positions of the conventional horizontal scan lines SL 1 -SL K. The signal level of each pixel is shown horizontally in the figure--for example, in frame N, signal levels V 1- (V K ) correspond to pixels P 1- (P K ), respectively. .

본 발명의 한 실시예에 따라, 픽셀은 에일리어싱 왜곡을 제거하고, 선택적으로 디스플레이되는 영상의 해상도를 개선하도록 종래의 수평 주사선 사이의 위치에 생성된다. 이들 주사선간의 픽셀은 영상의 모션에 따라 프레임에서 프레임으로 생성된다. 이 개념을 설명하기 위해, 먼저 기준이 프레임(N)에 만들어지고, 여기서 그 프레임에 대해 열(Ci)을 따라 원래 영상(SN)의 신호 변화량이 도시된다. 신호(SN) 내에서의 높은 공간 주파수로 인해, 수평 주사선에 대응하는 위치에서의 수직 샘플링은 거기서 모든 영상 정보를 재생하기에 불충분하고, 그에 의해 본 발명의 픽셀 생성 방법이 없으면, 에일리어싱 왜곡이 생기게 된다. 즉, 종래의 수평 주사선에서 동시에 한 프레임을 단순히 샘플링하는 것에 기초하여 하는 수직 방향의 영상 신호는 왜곡된 신호(SN')(점선으로 도시된)을 닮게 되고, 이는 원래의 영상 신호(SN)와 현저히 다르다.According to one embodiment of the present invention, pixels are created at locations between conventional horizontal scan lines to remove aliasing distortion and to improve the resolution of the image that is selectively displayed. Pixels between these scan lines are generated from frame to frame according to the motion of the image. To illustrate this concept, first a reference is made to frame N, where the amount of signal change of the original image S N is shown along column C i for that frame. Due to the high spatial frequency in the signal S N , the vertical sampling at the position corresponding to the horizontal scanning line is insufficient to reproduce all the image information therein, whereby without aliasing distortion of the present invention, aliasing distortion Will be created. That is, the vertical image signal based on simply sampling one frame at the same time in the conventional horizontal scanning line resembles the distorted signal S N '(shown in dashed lines), which is the original image signal S N. Significantly different).

원래 신호를 재포착하는 주사선간 픽셀을 발생하기 위해서는 영상 신호의 프레임 대 프레임 모션이 검출된다. 프레임(N)에서, 각 픽셀에 대한 신호값(V1)-(VK)은 메모리에 저장된다. 이어서, 프레임(N)과 (N+1) 사이에서 영상의 모션이 검출된다. (프레임 대 프레임 모션을 검출하는 방법은 이후 논의된다.) 도 2A의 예에서, 영상은 프레임(N)과 (N+1) 사이에서 거리(D1) 만큼 아래로 이동된다. 프레임(N+1)에서, 영상은 프레임(N+1)의 픽셀(P1)-(PK)에 대해 신호값(V1')-(VK')을 발생하도록 수평 주사선에서 다시 샘플링되고, 이들 값은 메모리에 저장된다. 부가하여, 주사선간 픽셀(P1a), (P2a), ..., (PKa)은 생성되어 메모리에 저장되고, 여기서 픽셀(P1a)은 픽셀(P1)에 대해 프레임(N) 샘플로부터 결정된 V1의 신호값을 갖고, 픽셀(P2a)은 픽셀(P2)에 대해 프레임(N) 샘플로부터 결정된 V2의 신호값을 갖는다. 프레임(N+1)에서 픽셀(P1a)의 위치는 프레임(N)에서 (N+1)로의 모션에 기초하여 결정되는 주사선(SL1)으로부터의 거리(D1)이다. 유사하게, 픽셀(P2a)은 주사선(SL2) 아래로 거리(D1)에 놓인다.Frame-to-frame motion of the video signal is detected to generate pixels between scan lines that recapture the original signal. In frame N, signal values V 1 -V K for each pixel are stored in memory. Subsequently, the motion of the image is detected between the frames N and N + 1. (The method of detecting frame to frame motion is discussed later.) In the example of FIG. 2A, the image is moved down by the distance D 1 between frame N and (N + 1). In frame N + 1, the image is resampled on the horizontal scan line to generate signal values V 1 '-(V K ') for pixels P 1- (P K ) of frame N + 1. These values are stored in memory. In addition, interscan pixels P 1a , P 2a ,..., P Ka are generated and stored in memory, where pixel P 1a is frame N relative to pixel P 1 . With the signal value of V1 determined from the sample, the pixel P 2a has the signal value of V 2 determined from the frame N sample for the pixel P 2 . The position of pixel P 1a in frame N + 1 is the distance D 1 from scan line SL 1 , which is determined based on the motion from frame N to (N + 1). Similarly, pixel P 2a lies at a distance D 1 below scan line SL 2 .

픽셀 발생 처리는 프레임(N+2)에 대해 반복되고, 여기서 영상 신호(SN+2)는 그 프레임의 각 픽셀(P1)-(PK)에 대한 신호값(V1'')-(VK'')을 결정하도록 수평 주사선에서 샘플링되고, 프레임(N+1)에서 프레임(N+2)로의 모션이 검출된다. 영상이 거리(D2) 만큼 아래로 이동된다고 가정하면, 프레임(N+1)에 대해 메모리에 저장되는 미리 결정된 값에 대응하는 (V1'), (V2'), ..., (VK') 값을 갖는 픽셀(P1b), (P2b), ..., (PKb)이 발생되고, 각각은 각 수평 주사선(SL1) 아래로 거리(D2)에 위치한다. 유사하게, 프레임(N+2)는 프레임(N+1)에 대해 메모리에 미리 저장된 바와 같이 각각 (V1), (V2), ..., (VK) 값을 갖는 픽셀(P1a), (P2a), ..., (PKa)를 포함하고, 각각은 (SL1) 아래로 거리(D1+D2)에 위치한다.The pixel generation process is repeated for frame N + 2, where the image signal S N + 2 is the signal value (V 1 '')-for each pixel P 1- (P K ) of the frame. Sampled at the horizontal scan line to determine (V K ''), and motion from frame N + 1 to frame N + 2 is detected. Assuming the image is moved down by the distance D 2 , (V 1 '), (V 2 '), ..., (corresponding to a predetermined value stored in memory for frame N + 1). Pixels P 1b , P 2b ,..., And P Kb having a V K 'value are generated, each located at a distance D 2 below each horizontal scan line SL 1 . Similarly, frame N + 2 is pixel P 1a with values of (V 1 ), (V 2 ), ..., (V K ), respectively, as previously stored in memory for frame N + 1. ), (P 2a ), ..., (P Ka ), each located at a distance D 1 + D 2 below (SL 1 ).

픽셀 발생 처리는 소정의 수의 부가적인 픽셀이 발생될 때까지 순차적인 프레임에 대해 진행된다. 도 2A의 예에서는 처리 과정이 수직 방향으로 프레임(N)에서의 5배인 픽셀을 갖는 프레임(N+4)까지 계속된다. 도 2B는 프레임(N+4)의 주사선(SL1)과 (SL2) 사이의 픽셀을 도시한다. 영상은 프레임(N+2)와 (N+3) 사이에서 거리(D3) 만큼, 또한 프레임(N+3)과 (N+4) 사이에서 거리(D4) 만큼 아래로 이동되는 것으로 가정한다. 그래서, 프레임(N+4)은 위치(SL1)에서 신호(SN+4)의 레벨에 대응하는 값(V1'''')의 픽셀(P1) 뿐만 아니라 각각 (V1'''), (V1''), (V1'), 및 (V1) 값의 픽셀(P1d), (P1c), (P1b), 및 (P1a)를 갖고, 여기서 (P1d)는 (SL1) 아래로 거리(D4)이고, (P1c)는 (SL1) 아래로 거리(D3+D4)이다. 물론, 원하는 해상도의 함수로 더 많거나 적은 부가 픽셀이 발생될 수 있다. 임의의 경우, 주어진 예에서, 프레임(N+4)에 이어지는 모든 프레임은 수직 방향으로 수평 주사선의 5배의 픽셀을 갖게 된다.The pixel generation process proceeds for sequential frames until a predetermined number of additional pixels are generated. In the example of FIG. 2A, the process continues to frame N + 4 with a pixel five times as large as frame N in the vertical direction. 2B shows a pixel between scan line SL 1 and SL 2 of frame N + 4. Video frame (N + 2) and (N + 3) the distance between the (D 3) as also assumed to move down by a distance (D 4) between the frame (N + 3) and (N + 4) do. Thus, the frame (N + 4) are located (SL 1) signal (S N + 4) level value (V 1 '''') a pixel (P 1) as well each (V 1 of the '' corresponding to the in (P 1d ), (P 1c ), (P 1b ), and (P 1a ) of the values '), (V 1 ''), (V 1 '), and (V 1 ), where (P 1d ) is the distance D 4 below (SL 1 ) and (P 1c ) is the distance D 3 + D 4 below (SL 1 ). Of course, more or fewer additional pixels may be generated as a function of the desired resolution. In any case, in the given example, every frame following frame N + 4 will have five times the pixels of the horizontal scanning line in the vertical direction.

따라서, 픽셀 발생은 모션에 대응하는 위치에서의 픽셀을 가정함으로서 이루어진다. 그러나, 실질적으로는 균일하게 공간을 둔 샘플로 영상을 나타내는 것이 바람직하다. 상기의 예에서, 거리(D1)-(D4)가 같지 않도록 프레임간 모션이 균일하지 않으면, 생성되는 픽셀은 균일하지 않게 공간을 둔다. 그러나, 프레임간 모션을 적절하게 반올림함으로서, 균일한 간격의 픽셀이 유도되어 메모리에 저장될 수 있다. 이와 같이 프레임(N+4)이 수직 방향으로 균일하게 간격을 둔 픽셀로 나타내진다고 가정하면(본 예에서는 주사선 수의 5배로), 이후 각 프레임은 균일하게 간격을 둔 같은 수의 픽셀로 나타내질 수 있다.Thus, pixel generation is accomplished by assuming a pixel at a position corresponding to motion. However, it is desirable to represent the image as a substantially uniformly spaced sample. In the above example, if the inter-frame motion is not uniform such that the distances D 1 -D 4 are not equal, the resulting pixels are left unevenly spaced. However, by rounding the interframe motion properly, evenly spaced pixels can be derived and stored in memory. Assuming that the frames N + 4 are represented by evenly spaced pixels in the vertical direction (5 times the number of scan lines in this example), then each frame will be represented by the same number of evenly spaced pixels. Can be.

도 2A의 예에서는 영상의 프레임내 모션이 엄밀하게 수직 방향에 있는 것으로 가정한다. 원래 영상이 수평 및 수직 방향으로 모두 이동될 때 수직 방향으로 에일리어싱 왜곡을 제거하고 픽셀의 수를 증가시키기 위해서는 수평 모션도 또한 고려되어야 한다. 이를 위해, 이후 보다 상세히 논의될 바와 같이 프레임에서 프레임으로 모션 벡터가 계산된다. 부가하여, 프레임내에서 다른 부분의 영상은 다른 방향으로 이동한다. 본 발명의 특정한 실시예는 또한 각 프레임의 다른 블록을 분리하여 분석함으로서 이러한 발산 모션을 고려한다.In the example of FIG. 2A, it is assumed that the intra-frame motion of the image is strictly in the vertical direction. Horizontal motion must also be considered to remove aliasing distortion in the vertical direction and increase the number of pixels when the original image is moved both in the horizontal and vertical directions. To this end, motion vectors are calculated from frame to frame as will be discussed in more detail below. In addition, images of other parts within the frame move in different directions. Certain embodiments of the present invention also take this diverging motion into account by separating and analyzing different blocks of each frame.

도 3은 이전 프레임으로부터의 영상 데이터와 프레임 대 프레임 영상 이동에 기초하여 픽셀을 생성함으로서 해상도를 증진시키고 에일리어싱을 제거하는 일반적인 개념을 설명하는 도면이다. 도면의 상단은 각각 공통된 수평 주사선을 따라 영상 데이터(101)-(104)를 갖는 프레임(N) 내지 (N+3)을 도시한다. 영상이 프레임(N)에서 (N+3)으로 아래로 증가적으로 이동된다고 가정하면, 이전 프레임으로부터의 데이터와 상술된 바와 같은 영상 모션에 기초하여 주사선 사이에서 부가적인 픽셀이 발생된다. 그래서, 프레임(N+1)은 프레임(N)의 픽셀 데이터(101)로 증진되고; 픽셀 데이터(101), (102)는 프레임(N+2)에 부가되고, 픽셀 데이터(101), (102), 및 (103)은 프레임(N+3)에 부가되어 원래 프레임과 비교해 수직 방향으로 4배의 픽셀을 갖는 고해상도 영상을 발생한다.3 is a diagram illustrating a general concept of improving resolution and eliminating aliasing by generating pixels based on image data from a previous frame and frame to frame image movement. The upper part of the figure shows frames N to (N + 3) each having image data 101-104 along a common horizontal scanning line. Assuming the image is moved incrementally down from frame N to (N + 3), additional pixels are generated between the scan lines based on the data from the previous frame and the image motion as described above. Thus, frame N + 1 is promoted to pixel data 101 of frame N; The pixel data 101, 102 is added to the frame N + 2, and the pixel data 101, 102, and 103 are added to the frame N + 3 so as to be perpendicular to the original frame. As a result, a high resolution image having four times the pixels is generated.

이제는 도 4를 참고로, 왜곡 정정기(4)에 대한 구성을 설명하는 블록도가 도시된다. 프레임 메모리(11)는 왜곡 정정기에 인가된 입력 영상 데이터를 수신한다. 입력 영상 데이터는 해상도가 증진된 픽셀이 부가되지 않고 프레임이 단순히 재생되는 경우 에일리어싱 왜곡이 일반적으로 주어지도록 언더샘플링된 영상 신호에 대응하는 것으로 가정된다. 프레임 메모리(11)는 현재 프레임의 영상 데이터를 저장하는 현재 프레임 메모리(11A)와 현재 프레임에 바로 선행하는 프레임의 영상 데이터를 저장하는 선행 프레임 메모리(11B)로 구성된다. 모션 검출기(12)는 선행하는 프레임에 대해 현재 프레임의 모션을 표현하는 모션 벡터를 검출한다. 이러한 프레임간 모션은 수직 방향에서 왜곡된 영상내의 픽셀 크기(또는 픽셀 대 픽셀의 공간)보다 섬세한 양으로 검출된다. 주어진 논의에서는 전체 프레임의 영상이 함께 이동되어 선행하는 프레임에서 현재 프레임으로의 모션이 각 프레임의 모든 부분에서 같은 것으로 가정한다. 이 경우에는 각 프레임에 대해 한 모션 벡터만이 검출기(12)에 의해 검출된다. 모션 벡터는 제어기(14)로 제공된다.Referring now to FIG. 4, a block diagram illustrating the configuration of the distortion corrector 4 is shown. The frame memory 11 receives input image data applied to the distortion corrector. It is assumed that the input image data corresponds to the undersampled image signal so that aliasing distortion is generally given when no resolution enhanced pixel is added and the frame is simply reproduced. The frame memory 11 is composed of a current frame memory 11A for storing image data of a current frame and a preceding frame memory 11B for storing image data of a frame immediately preceding the current frame. Motion detector 12 detects a motion vector representing the motion of the current frame relative to the preceding frame. This interframe motion is detected in a subtle amount than the pixel size (or pixel to pixel space) in the distorted image in the vertical direction. The given discussion assumes that the images of the entire frame are moved together so that the motion from the preceding frame to the current frame is the same in all parts of each frame. In this case, only one motion vector is detected by the detector 12 for each frame. The motion vector is provided to the controller 14.

모션 벡터를 결정하는 한 방법은 인접한 프레임, 예를 들면 8x8 또는 16x16 픽셀 블록에서 동일한 크기의 픽셀 블록 사이에 여러번의 비교를 실행하는 것이다. 현재 프레임의 주된 블록으로 시작되어, 선행하는 프레임에서 복수의 블록(기준 블록)의 영상 특징이 주된 블록에 비교된다. 선행하는 프레임에서의 기준 블록이 주된 블록에 가장 가까운 영상 특징을 갖는 것으로 발견될 때, 기준 블록은 주된 블록의 위치로 이동되는 것으로 결정될 수 있고, 모션 벡터가 결정될 수 있다.One way to determine the motion vector is to perform multiple comparisons between blocks of equal size pixels in adjacent frames, for example blocks of 8x8 or 16x16 pixels. Starting with the main block of the current frame, the image features of a plurality of blocks (reference blocks) in the preceding frame are compared to the main block. When the reference block in the preceding frame is found to have the image feature closest to the main block, the reference block can be determined to be moved to the position of the main block, and a motion vector can be determined.

주된 블록은 기준 블록의 대응하는 픽셀에 대해 기준 블록에서 픽셀의 픽셀값 사이의 절대값 차이를 계산함으로서 기준 블록에 비교된다. 그래서, 주된 블록에서 픽셀(P11)(1행 1열)의 신호값은 기준 블록에서 픽셀(P11)의 신호값으로부터 감산된다. 그 차이값은 에러라 칭하여진다. 주된 블록에 대해 각 기준 블록의 에러는 합산되고, 최소의 총에러를 갖는 기준 블록이 결정되어, 모션 벡터는 대략 기준 블록과 주된 블록 사이의 위치 관계에 대응하는 방향에 있는 것으로 결정된다. 특히, 도 5에 도시된 바와 같이, 모션 벡터를 더 정확히 결정하기 위해, 기준 블록 사이의 선형 보간이 실행된다. 반대되는 기울기를 갖는 한쌍의 선형 보간된 선의 교차점은 주된 블록과 가정된 기준 블록 사이에서 최소 에러가 발생되는 상대적인 위치를 정의한다. 교차점은 주된 블록에 대한 모션 벡터를 정의한다.The main block is compared to the reference block by calculating the absolute difference between the pixel values of the pixels in the reference block for the corresponding pixels of the reference block. Thus, the signal value of the pixel P 11 (1 row 1 column) in the main block is subtracted from the signal value of the pixel P 11 in the reference block. The difference value is called an error. The errors of each reference block for the main block are summed and the reference block with the minimum total error is determined so that the motion vector is approximately in the direction corresponding to the positional relationship between the reference block and the main block. In particular, as shown in FIG. 5, linear interpolation between reference blocks is performed to more accurately determine the motion vector. The intersection of a pair of linear interpolated lines with opposite slopes defines the relative position where the minimum error occurs between the main block and the assumed reference block. The intersection defines the motion vector for the main block.

계속하여 도 4를 참고로, 장면 변화 검출기(13)는 프레임에서 프레임으로 영상간의 차이를 분석함으로서 텔레비젼 신호의 장면 변화를 검출하는데 사용된다. 일반적으로, 현재 프레임과 선행하는 프레임의 영상간 차이가 소정의 한계값을 넘으면, 장면 변화가 검출된다. 장면 변화를 검출하는 방법은 종래 기술에서 이미 공지되어 있다. 예를 들면, 장면 변화 검출기(13)는 모션 벡터를 결정하고 현재 프레임을 형성하는 각 주된 블록에 대해 최소 에러값을 찾는 것과 유사한 방법으로 주된 블록과 기준 블록 사이의 에러를 분석함으로서 구성된다. 각 블록에 대한 최소 에러값의 총합이 소정의 한계값을 넘으면, 장면 변화가 검출되고, 장면 변화 신호는 제어기(14)로 제공된다.Continuing with reference to FIG. 4, a scene change detector 13 is used to detect scene changes in television signals by analyzing the difference between images from frame to frame. In general, when the difference between the image of the current frame and the preceding frame exceeds a predetermined threshold, a scene change is detected. Methods for detecting scene changes are already known in the art. For example, the scene change detector 13 is configured by analyzing the error between the main block and the reference block in a manner similar to determining the motion vector and finding the minimum error value for each main block forming the current frame. If the sum of the minimum error values for each block exceeds a predetermined threshold, a scene change is detected and the scene change signal is provided to the controller 14.

제어기(14)는 모션 검출기(12)로부터 공급된 모션 벡터와 장면 변화 검출기(13)로부터의 신호에 따라 프레임 메모리(11)로부터의 데이터를 해상도 생성 메모리(15)에 기록하는 것을 제어한다. 해상도 생성 메모리(15)는 순차적으로 쉬프트(shift)되는 새롭게 생성된 고해상도 프레임을 저장하도록 프레임 메모리(11)에서 한 저해상도 프레임내의 데이터 보다 많은 영상 데이터를 저장할 수 있다. 제어기(14)는 모션 벡터에 따라 메모리(15)내에서 적절한 저장 어드레스를 결정함으로서 영상 데이터를 메모리(11)에서 메모리(15)로 기록하는 것을 제어한다. 고해상도 프레임은 도 2A와 연관되어 상술된 것과 유사한 방법으로 메모리(15)내에서 생성된다. 간략하게, 주사선간 픽셀(해상도가 증진된 픽셀)을 생성하도록, 현재 프레임 메모리(11A)(또는, 선행하는 프레임 메모리(11B)로부터)의 데이터는 주사선에 따라 프레임내에서 같은 픽셀 위치로 메모리(15)의 고해상도 "프레임"에 전달된다. 이어서, 다음 프레임의 영상 데이터는 모션 벡터에 따라 해석된 위치에 메모리(15)로 기록된다. 제어기(14)는 해석된 위치로의 데이터 전송을 실행하도록 메모리(15)에 상대적인 어드레스 포인터를 공급하고, 메모리(15)에 저장된 이전 프레임 중 적어도 일부 영상 데이터를 같은 저장 위치에 본래대로 남겨둔다. 일단 프레임이 생성되면, 이는 제어기(14)의 제어하에서 메모리(15)로부터 수직 저역 통과 필터(16)로 전송된다.The controller 14 controls to write the data from the frame memory 11 to the resolution generating memory 15 in accordance with the motion vector supplied from the motion detector 12 and the signal from the scene change detector 13. The resolution generating memory 15 may store more image data than data in one low resolution frame in the frame memory 11 so as to store newly generated high resolution frames that are sequentially shifted. The controller 14 controls the recording of the image data from the memory 11 to the memory 15 by determining an appropriate storage address in the memory 15 according to the motion vector. The high resolution frame is generated in the memory 15 in a manner similar to that described above in connection with FIG. 2A. Briefly, the data in the current frame memory 11A (or from the preceding frame memory 11B) is stored at the same pixel position in the frame along the scan line, so as to generate pixels between scan lines (pixels with enhanced resolution). 15) is delivered in high resolution "frames". Subsequently, the image data of the next frame is recorded in the memory 15 at the position interpreted according to the motion vector. The controller 14 supplies an address pointer relative to the memory 15 to perform data transfer to the analyzed position, and leaves at least some image data of previous frames stored in the memory 15 intact in the same storage location. Once the frame is generated, it is sent from the memory 15 to the vertical low pass filter 16 under the control of the controller 14.

화면 변화에 이어서, 도 2A로부터 명백한 바와 같이, 진정한 고해상도 프레임이 생성되는데는 수개의 저해상도 프레임을 수신하여 처리하는데 요구되는 시간이 걸린다. 그래서, 장면 변화가 일어날 때는 초기에 부가적인 픽셀을 메모리(15)에서 생성하도록 저해상도 영상 데이터간의 보간이 실행된다.Following the screen change, as is apparent from FIG. 2A, it takes the time required to receive and process several low resolution frames to produce a true high resolution frame. Thus, when scene changes occur, interpolation between low resolution image data is performed to initially generate additional pixels in the memory 15.

도 6은 해상도 생성 메모리(15) 내에서의 영상 데이터 저장을 설명한다. 메모리(15)는 수평(주사선) 방향으로 (PH') 픽셀, 또한 수직 방향으로 (PV') 픽셀의 영상 데이터를 저장할 수 있다. 예를 들어, 다음의 설명에서는 PH'>PH이고 PV'>4PV이고, 여기서 PH 및 PV는 각각 프레임 메모리(11)내에 저장된 저해상도 프레임에 대해 수평 및 수직 방향에서 픽셀의 수인 것으로 가정한다. 이 경우, 해상도 생성 메모리(15)는 저해상도 영상 보다 수직 방향으로 4배보다 많은 수의 픽셀과 수평 방향으로 더 큰 수의 픽셀을 저장할 수 있다. 이후 사용되는 "왜곡된 영상" 또는 "왜곡된 데이터"란 말은 데이터가 수직 방향에서 언더샘플링된 영상에 대응하는 프레임 메모리(11)내에 저장된 영상 또는 데이터를 칭하는데 사용된다. 그러나, 앞서 설명된 바와 같이, 데이터가 프레임 메모리(11)로부터 직접 판독되고 프레임 대 프레임으로 재생하는 경우에만 왜곡된 재생 영상이 생기게 된다. 본 실시예에서, "왜곡된" 영상 데이터는 왜곡되지 않은 재생 영상을 생성하는데 사용된다.6 illustrates storing image data in the resolution generating memory 15. The memory 15 may store image data of (P H ') pixels in the horizontal (scanning) direction and (P V ') pixels in the vertical direction. For example, in the following description, P H '> P H and P V '> 4P V , where P H and P V are the number of pixels in the horizontal and vertical directions for the low resolution frames stored in the frame memory 11, respectively. Assume that In this case, the resolution generating memory 15 may store more than four times as many pixels in the vertical direction and a larger number of pixels in the horizontal direction than the low resolution image. The term " distorted image " or " distorted data " used hereinafter is used to refer to an image or data stored in the frame memory 11 in which the data corresponds to an image undersampled in the vertical direction. However, as described above, distorted reproduction images are produced only when data is read directly from the frame memory 11 and reproduced frame by frame. In this embodiment, the "distorted" image data is used to generate an undistorted reproduction image.

해상도 생성 메모리(15)내에서, 데이터 저장 위치는 절대 어드레스 및 상대 어드레스로 정의될 수 있다. 도 6은 절대 어드레스에 따른 데이터 저장을 도시하고, 여기서 절대 어드레스는 메모리(15)의 모든 저장 위치를 포함한다. 절대 어드레스 저장 영역 중 제 1 행 및 열은 0행 및 0열로 나타내진다. 이와 같이, 제 (i+1) 행 및 제 (j+1) 열에서의 픽셀은 절대 어드레스 (i,j)로 나타내진다.In the resolution generating memory 15, the data storage location can be defined with an absolute address and a relative address. 6 shows data storage according to an absolute address, where the absolute address includes all storage locations of the memory 15. The first row and column of the absolute address storage area are represented by zero rows and zero columns. As such, the pixels in the (i + 1) th row and the (j + 1) th column are represented by absolute addresses (i, j).

도 7에 도시된 바와 같이, 메모리(15)의 절대 어드레스 저장 어레이(array)내에서는 PH x 4PV 픽셀에 대응하는 억세스 영역(15a)이 정의된다. 억세스 영역(15a) 중 상단 좌측점의 위치는 도 7에서 화살표로 표시된 바와 같이 상대적인 어드레스 포인터(RP)로 정의된다. 어드레스 포인터(RP)는 실제적으로 메모리(15)내에서 회로(도시되지 않은)를 제어하도록 제어기(14)에 의해 공급된 코드어가 될 수 있다. 어드레스 포인터는 들어오는 영상 데이터가 기록될 위치를 제어하도록 동작한다. 더 큰 절대 어드레스 영역의 경우일 때, 억세스 영역(15a)은 또한 0행 및 0열으로 시작된다.As shown in FIG. 7, in the absolute address storage array of the memory 15, an access region 15a corresponding to a P H × 4P V pixel is defined. The position of the upper left point of the access area 15a is defined by a relative address pointer R P as indicated by an arrow in FIG. 7. The address pointer R P may actually be a code word supplied by the controller 14 to control a circuit (not shown) in the memory 15. The address pointer operates to control the position at which incoming image data is to be recorded. In the case of a larger absolute address area, the access area 15a also begins with rows 0 and 0.

도 8은 프레임 메모리(11)로부터 전해지는 영상 데이터가 억세스 영역(15a)으로 기록되는 방법을 설명한다. 억세스 영역의 수평 방향에서는 프레임 메모리(11)의 프레임과 같은 수의 픽셀의 영상 데이터가 저장되는 반면, 수직 방향에서는 4배의 픽셀의 데이터가 저장된다. 그래서, 도 8에서 빗금친 영역으로 도시된 바와 같이, 프레임 메모리(11)로부터 왜곡된 영상을 수평 방향으로 억세스 영역(15a)에 기록하는 것은 어드레스 포인터(RP)에 의해 정의된 어드레스로부터 순차적으로 실행되지만, 수직 방향에서는 매 4번째 선 마다 실행된다. 도 8의 격자에서 주사선간, 예를 들면 행(1-3), (5-7) 등에서의 픽셀 데이터는 수직 방향으로 고해상도 프레임을 발생하도록 모션 벡터에 따라 생성되어 저장된다. 왜곡된 영상보다 높은 해상도를 발생하기 위해서는 모션 벡터가 프레임 메모리(11)내 프레임의 픽셀 크기보다 섬세한 유닛으로 검출된다.8 illustrates a method in which video data transmitted from the frame memory 11 is recorded in the access area 15a. In the horizontal direction of the access area, image data of the same number of pixels as in the frame of the frame memory 11 is stored, while in the vertical direction, data of four times as many pixels are stored. Thus, as shown by the hatched regions in FIG. 8, writing the distorted image from the frame memory 11 to the access region 15a in the horizontal direction is sequentially performed from an address defined by the address pointer R P. It is executed but every four lines in the vertical direction. In the grating of FIG. 8, pixel data between scan lines, for example, rows 1-3, 5-7, and the like, are generated and stored according to a motion vector to generate a high resolution frame in the vertical direction. In order to generate a higher resolution than the distorted image, the motion vectors are detected in units more delicate than the pixel size of the frame in the frame memory 11.

이제는 해상도 생성 메모리(15) 내에서의 데이터 저장이 도 9의 흐름도를 참고로 더 상세히 설명된다. 제어기(14)가 선행하는 프레임에서 현재 프레임으로의 장면 변화를 나타내는 장면 변화 검출기(13)로부터의 신호를 수신할 때, 이는 메모리(15)내의 모든 데이터를 리셋(클리어(clear))한다(단계 S1). 여기서, 장면 변화 신호는 또한 데이터의 맨 처음 프레임이 프레임 메모리(11)에 의해 수신되는 때에도 수신됨을 주목한다. (제 1 프레임의 데이터가 수신되는가 또는 장면 변화가 일어나는가 여부에 대해서는 제어기(14)에 의한 동작이 같다.) 단계(S2)에서, 제어기(14)는 현재 프레임 메모리(11A)의 왜곡된 데이터가 도 8에 도시된 바와 같이 매 네 번째 선마다 억세스 영역(15a)에 기록되게 한다. 저장 위치는 미리 리셋되므로, 이 지점에서는 주사선에 대응하는 저장 위치 사이의 억세스 영역(15a)에 갭(gap)이 주어진다. 이들 갭은 단계(S3)에서 제어기(14)에 의해 샐행되는 보간을 통해 채워진다. 즉, 제어기(14)는 주사선간 픽셀에 대해 보간값을 계산하고, 이들 값이 억세스 영역(15a)내의 데이터로 저장되게 한다. 이어서, 보간값을 포함하는 영상 데이터는 단계(S4)에서 메모리(15)로부터 판독되어 수직 저역 통과 필터(16)로 전해진다.Data storage in resolution generation memory 15 is now described in more detail with reference to the flowchart of FIG. 9. When the controller 14 receives a signal from the scene change detector 13 indicating a scene change from the preceding frame to the current frame, it resets (clears) all data in the memory 15 (step). S1). It is noted here that the scene change signal is also received when the first frame of data is received by the frame memory 11. (The operation by the controller 14 is the same as to whether data of the first frame is received or a scene change occurs.) In step S2, the controller 14 determines that the distorted data of the current frame memory 11A is not present. As shown in FIG. 8, recording is made in the access area 15a every fourth line. Since the storage position is reset in advance, a gap is given to the access region 15a between the storage positions corresponding to the scanning lines at this point. These gaps are filled through interpolation performed by the controller 14 in step S3. That is, the controller 14 calculates interpolation values for the pixels between scan lines, and causes these values to be stored as data in the access area 15a. Then, the image data including the interpolation value is read out from the memory 15 in step S4 and passed to the vertical low pass filter 16.

단계(S5)에서, 현재 프레임 메모리(11A)내의 데이터는 이전 프레임 메모리(11B)로 쉬프트되고, 다음 프레임의 데이터가 수신되어 현재 프레임 메모리(11A)내에 저장되고, 또한 이는 다시 장면 변화가 발생되었나를 결정한다. 그렇지 않으면, 모션 검출기(12)에 의해 모션이 검출되고(단계 S6), 모션 벡터가 계산된다. 이어서, 제어기(14)는 모션에 따라 상대적인 어드레스 포인터를 이동시키고(단계 S7), 데이터는 모션 벡터에 따라 메모리(15)내에서 고해상도 프레임으로 기록된다. 이 동작은 복수의 방법으로 실행될 수 있다. 한 방법은 억세스 영역(15a)내에 저장된 이전 데이터를 제어기(14)내의 임시 버퍼 메모리로 전달하고, 그 데이터를 억세스 영역(15a)으로 다시 재기록하지만 모션 벡터에 따라 쉬프트하는 것이다. 쉬프트에 이어서, 현재 프레임 메모리(11A)의 데이터(메모리(15)로 아직 기록되지 않은)는 앞서 정해진 같은 억세스 영역(15a)으로, 즉 같은 주사선 위치로 매 네 번째 선마다 기록된다. 이와 같이, 이전 데이터의 일부는 오버라이트(overwrite)된다. 이러한 접근법으로, 각 선행하는 프레임으로부터의 데이터가 모션에 대응하는 방향으로 순차적으로 쉬프트된 도 2A 및 도 3에서 앞서 설명된 바와 같이, 이전 고해상도 프레임 데이터는 모션에 따라 각 프레임으로 쉬프트된다. (그러나, 한가지 차이는 도 2A 또는 도 3의 방법에서는 보간된 데이터가 가정되지 않고--도 2A의 제 5 프레임까지와 도 3의 제 4 프레임 까지 고해상도 프레임의 갭이 가정되는 것이다.)In step S5, the data in the current frame memory 11A is shifted to the previous frame memory 11B, the data of the next frame is received and stored in the current frame memory 11A, which again causes a scene change? Determine. Otherwise, motion is detected by the motion detector 12 (step S6), and the motion vector is calculated. Then, the controller 14 moves the relative address pointer according to the motion (step S7), and the data is written into the high resolution frame in the memory 15 according to the motion vector. This operation can be executed in a plurality of ways. One method is to transfer the previous data stored in the access area 15a to a temporary buffer memory in the controller 14 and rewrite the data back into the access area 15a but shift according to the motion vector. Following the shift, data of the current frame memory 11A (not yet written to the memory 15) is written to every same line to the same access area 15a previously defined, i.e., to the same scan line position. As such, some of the previous data is overwritten. In this approach, as previously described in Figures 2A and 3, where data from each preceding frame is sequentially shifted in a direction corresponding to motion, the previous high resolution frame data is shifted to each frame in accordance with motion. (However, one difference is that interpolated data is not assumed in the method of FIG. 2A or FIG. 3-a gap of high resolution frames is assumed up to the fifth frame of FIG. 2A and to the fourth frame of FIG. 3.)

모션 벡터에 관련된 방향으로 고해상도 데이터의 저장 위치를 쉬프트하는 상기의 접근법이 적절한 고해상도 프레임을 생성하는데 충분하지만, 양호한 접근법은 현재 프레임 메모리(11A)의 새로운 저해상도 데이터를 억세스 영역내에서 이전 데이터와 관련된 쉬프트 위치에 기록하면서 억세스 영역(15a)내의 이전 데이터를 같은 저장 위치에 유지하는 것이다. 다른 말로 하면, 프레임(N+1)의 데이터는 프레임(N+1)에 대한 모션 벡터가 0이 아닐 때마다 프레임(N)의 데이터와 다른 절대 어드레스를 갖는 저장 위치로 기록된다. 동시에, 메모리(15)에서 이전 데이터의 절대 어드레스는 똑같게 유지되므로, 순효과는 새로운 데이터에 대한 이전 데이터의 쉬프트이다. 이 접근법은 단순히 모션 벡터에 대응하지만 반대 방향으로 상대 어드레스 포인터를 쉬프트함으로서 실행된다. 그래서, 저해상도(왜곡된) 데이터의 상대 어드레스는 똑같이 유지되지만(예를 들면, 도 8에 도시된 바와 같이 행 0, 4 등), 선행하는 고해상도 프레임 데이터의 상대 어드레스는 모션 벡터에 관련된 방향으로 변하게 된다. 기본적으로, 메모리(15)의 물리적인 억세스 영역(15a)은 각각의 새로운 상대 어드레스 포인터로 쉬프트된다.While the above approach of shifting the storage location of high resolution data in the direction relative to the motion vector is sufficient to produce a suitable high resolution frame, a good approach is to shift the new low resolution data of the current frame memory 11A to the previous data in the access area. The previous data in the access area 15a is kept in the same storage location while recording at the location. In other words, the data of frame N + 1 is written to a storage location with an absolute address different from the data of frame N whenever the motion vector for frame N + 1 is not zero. At the same time, since the absolute address of the old data in the memory 15 remains the same, the net effect is the shift of the old data over the new data. This approach is implemented by simply corresponding the motion vector but shifting the relative address pointer in the opposite direction. Thus, the relative addresses of the low resolution (distorted) data remain the same (e.g., rows 0, 4, etc. as shown in Figure 8), but the relative addresses of the preceding high resolution frame data change in the direction associated with the motion vector. do. Basically, the physical access area 15a of the memory 15 is shifted to each new relative address pointer.

각각의 새로운 모션 벡터로, 상대 어드레스 포인터는 모션 벡터의 수평 방향에서의 픽셀수와 같은 수의 픽셀 만큼 이동된다. 그러나, 수직 방향에서, 상대 어드레스 포인터는 모션 벡터의 수직 성분에서의 저해상도 픽셀 수의 4배인 고해상도 픽셀수 만큼 이동된다(고해상도 프레임의 수직 방향으로 저해상도 프레임에서의 4배인 픽셀이 있으므로). 물론, 상대 어드레스 포인터는 모션 벡터에 대응하는 가장 가까운 픽셀로 반올림된다(또는 모션 벡터가 반올림된다). 그래서, 예를 들어, 모션 벡터의 수직 성분이 원래 저해상도 픽셀 크기의 1/8과 3/8 사이에 있으면, 상대 어드레스 포인터는 한 수직 유닛 만큼 변화 이동된다. (모션 벡터의 간단한 반올림에 대한 다른 방법은 이후 논의된다.)With each new motion vector, the relative address pointer is moved by the same number of pixels as the number of pixels in the horizontal direction of the motion vector. However, in the vertical direction, the relative address pointer is moved by the number of high resolution pixels that are four times the number of low resolution pixels in the vertical component of the motion vector (since there are four times the pixels in the low resolution frame in the vertical direction of the high resolution frame). Of course, the relative address pointer is rounded to the nearest pixel corresponding to the motion vector (or the motion vector is rounded). So, for example, if the vertical component of the motion vector is between 1/8 and 3/8 of the original low resolution pixel size, the relative address pointer is shifted by one vertical unit. (Another method for simple rounding of motion vectors is discussed later.)

계속하여 도 9를 참고로, 상대 어드레스 포인터에 따라 메모리(15)에 새로운 저해상도(왜곡된) 영상 데이터를 기록하는 것(단계 S8)은 새로운 고해상도 프레임을 생성하고, 이어서 단계(S9)에서 수직 LPF(16)로 판독된다. 단계(S10)에서 저해상도 데이터가 더 이상 프레임 메모리(11)에 적용되지 않는 것으로 결정되면, 루틴은 종료된다. 그렇지 않은 경우, 루틴은 각각의 순차적인 입력 영상 데이터 프레임에 대해 처리 과정이 반복되는 단계(S5)로 복귀된다.Continuing with reference to FIG. 9, recording new low resolution (distorted) image data in the memory 15 according to the relative address pointer (step S8) generates a new high resolution frame, and then in step S9 the vertical LPF It is read at 16. If in step S10 it is determined that the low resolution data is no longer applied to the frame memory 11, the routine is terminated. Otherwise, the routine returns to step S5 where the process is repeated for each sequential input image data frame.

따라서, 장면 변화 없이 단계(S5) 내지 (S9)를 수 회 반복함으로서, 주사선 샘플 사이의 갭을 채우는 보간 데이터가 순차적으로 영상 샘플로 대치된다. 장면 변화 이후 수 개의 프레임에서, 영상 프레임은 진정한 고해상도 영상이 되고, 원래 영상내에 포함된 수직 방향에서의 최고 주파수가 왜곡된 영상의 수평 주사 주기의 1/4에 대응하는 주파수의 1/2 보다 낮을 때, 재생된 영상은 수직 방향에서 에일리어싱 왜곡을 갖지 않는다.Thus, by repeating steps S5 to S9 several times without changing the scene, interpolation data that fills the gap between scan line samples is replaced by image samples sequentially. In several frames after the scene change, the image frame becomes a true high resolution image, and the highest frequency in the vertical direction contained in the original image is less than half of the frequency corresponding to one quarter of the horizontal scanning period of the distorted image. When reproduced, the reproduced image does not have aliasing distortion in the vertical direction.

도 4를 참고로, 수직 LPF(16)는 저역 통과 필터로 수직 방향에서 필터 처리함으로서 해상도 생성 메모리(15)로부터의 영상 데이터에서 고주파수 성분을 제한하도록 동작한다. 이러한 필터 처리의 목적은 순차적으로 재생되는 영상이 저해상도 영상일 경우에도 에일리어싱 왜곡을 방지하는 것이다. 예를 들어, 저해상도 디스플레이만이 이용가능하면, 저해상도 영상이 디스플레이되지만, 그럼에도 불구하고 에일리어싱 왜곡이 제거된다. 결과적으로, 영상이 순차적으로 재생될 때, 관찰자는 자연스럽지 않거나 흐릿해진 이동 영상을 인식하지 못한다. 수직 LPF(16)의 출력 신호는 같은 저장 용량의 메모리(15)의 억세스 영역(15a)을 갖는 프레임 메모리(17)로 인가된다. 프레임 메모리는 임시로 영상 데이터를 저장하고, 이어서 예를 들면, 매 네 번째 선마다 판독되어 원래 왜곡된 영상과 같은 수의 선을 갖지만 에일리어싱 왜곡이 제거된 저해상되 영상을 만든다.Referring to FIG. 4, the vertical LPF 16 operates to limit high frequency components in the image data from the resolution generating memory 15 by filtering in the vertical direction with a low pass filter. The purpose of such a filter process is to prevent aliasing distortion even when sequentially reproduced images are low resolution images. For example, if only a low resolution display is available, a low resolution image is displayed but nonetheless aliasing distortion is removed. As a result, when the images are reproduced sequentially, the observer does not recognize the unnatural or blurred motion image. The output signal of the vertical LPF 16 is applied to the frame memory 17 having the access area 15a of the memory 15 of the same storage capacity. The frame memory temporarily stores image data, and then, for example, produces a low resolution image which is read every fourth line and has the same number of lines as the original distorted image, but with no aliasing distortion.

따라서, 상술된 방법은 화질을 개선하고, Y/C 분리, 잡음 감소 등과 같은 특정한 신호 처리 동작과 동반되는 결점을 방지하는 것을 가능하게 한다.Thus, the method described above makes it possible to improve the image quality and to avoid the drawbacks associated with certain signal processing operations such as Y / C separation, noise reduction, and the like.

종래 기술에 숙련된 자는 프레임에서 프레임으로 모션 벡터에 따라 언더샘플링된 영상에서 고해상도 영상을 생성하고, 이어서 이를 수직 LPF로 필터 처리하고, 또한 저해상도 영상만을 판독하는 상술된 기술이 에일리어싱 왜곡을 제거한 출력 영상을 제공하게 됨을 용이하게 이해하게 된다. 한편, 입력 저해상도 영상 데이터가 단순히 수직 LPF로 인가되면, 이러한 에일리어싱 왜곡 제거는 실현되지 않는다.A person skilled in the art can produce a high resolution image from an undersampled image according to a motion vector from frame to frame, and then filter it with a vertical LPF, and also read only the low resolution image. It will be readily understood to provide a. On the other hand, if the input low resolution image data is simply applied to the vertical LPF, such aliasing distortion removal is not realized.

CRT(6)가 언더샘플링된 프레임 보다 많은 수평 주사선을 사용함으로서(예를 들면, 주사선의 4배) 고해상도 영상을 디스플레이할 수 있으면, 영상 데이터는 디스플레이를 위해 직접 출력될 수 있다. 그래서, 이러한 경우에는 수직 LPF(16)가 사용되지 않고, 데이터가 직접 프레임 메모리(17)로 제공되어, 데이터는 매 4개 선 보다는 선별로 디스플레이되도록 그로부터 판독된다.If the CRT 6 can display a high resolution image by using more horizontal scan lines (e.g., four times the scan line) than the undersampled frame, the image data can be output directly for display. Thus, in this case the vertical LPF 16 is not used, and the data is provided directly to the frame memory 17 so that the data is read therefrom so as to be selectively displayed rather than every four lines.

원래 영상에 포함된 수직 방향에서의 최고 주파수가 수평 주사 주기의 1/4에 대응하는 주파수의 1/2보다 높을 때, 샘플링 이론은 4배의 픽셀을 발생하는 상기의 접근법을 만족시키지 않아 수직 방향에서의 에일리어싱 왜곡이 완전히 제거되지 않는다. 그럼에도 불구하고, 상기 방법은 에일리어싱 왜곡이 실질적으로 줄어들게 된다는 점에서 계속 유용하다.When the highest frequency in the vertical direction included in the original image is higher than 1/2 of the frequency corresponding to one quarter of the horizontal scanning period, the sampling theory does not satisfy the above approach of generating four times the pixels, so the vertical direction Aliasing distortion in is not completely removed. Nevertheless, the method continues to be useful in that aliasing distortion is substantially reduced.

상기의 실시예에서는 수직 방향에서의 픽셀수가 4의 계수 만큼 증가되지만, 다른 방법에서는 줄어든 에일리어싱 왜곡을 갖는 고해상도 영상이나 저해상도 영상을 디스플레이할 목적으로 더 많거나 적은 주사선간 픽셀이 생성될 수 있다.In the above embodiment, the number of pixels in the vertical direction is increased by a factor of four, but in other methods, more or less interline pixels may be generated for the purpose of displaying a high resolution image or a low resolution image having a reduced aliasing distortion.

상술된 왜곡 정정기(4a)에서는 소정의 프레임의 전체 영상이 함께, 즉 같은 방향으로 프레임에서 프레임으로 같은 거리 만큼 이동되는 것으로 가정된다. 다른 말로 하면, 각 프레임의 모든 부분에 대한 모션 벡터가 같은 것으로 가정된다. 그 가정은 일반적으로 팬(pan)과 틸트(tilt) 동작과 같은 특정한 응용에 대해 유효하다. 그러나, 대부분의 비디오 응용에서는 각 프레임의 다른 부분이 다른 비율 및/또는 다른 방향으로 이동된다. 이후 기술될 본 발명의 실시예는 이러한 독립적인 이동을 고려하면서 에일리어싱 왜곡을 줄일 수 있다.In the above-described distortion corrector 4a, it is assumed that all images of a predetermined frame are moved together, i.e., the same distance from frame to frame in the same direction. In other words, the motion vectors for all parts of each frame are assumed to be the same. The assumption is generally valid for certain applications, such as pan and tilt operations. However, in most video applications different portions of each frame are moved in different ratios and / or in different directions. Embodiments of the present invention, which will be described later, can reduce aliasing distortion while considering such independent movement.

이제는 도 10을 참고로, 본 발명에 따른 왜곡 정정기의 또 다른 실시예의 블록도가 도시된다. 왜곡 정정기(4b)는 다수 부분의 각 프레임에 대해 프레임 대 프레임 모션을 식별하고 모션에 기초하여 고해상도 프레임을 발생하는 기능을 갖는다. 고해상도 프레임은 어떠한 경우에서도 에일리어싱 왜곡이 제거된 저해상도 또는 고해상도 영상을 발생하는데 사용된다.Referring now to FIG. 10, shown is a block diagram of another embodiment of a distortion corrector in accordance with the present invention. The distortion corrector 4b has the function of identifying frame-to-frame motion for each frame of a plurality of parts and generating a high resolution frame based on the motion. High resolution frames are used to generate low resolution or high resolution images with no aliasing distortion in any case.

왜곡 정정기(4b)는 왜곡 정정기(4a)에 대해 상술된 바와 같이 기본적으로 같은 프레임 메모리(11), 모션 검출기(12), 장면 변화 검출기(13), 수직 저역 통과 필터(16), 및 프레임 메모리(17)를 포함한다. 모션 검출기(12)는 상술된 바와 같이 동작되어, 이전 프레임의 복수의 기준 블록과 주된 블록 사이의 차이를 분석함으로서 선행하는 프레임으로부터 예를 들면, 8x8 또는 16x16 픽셀의 현재 프레임 주된 블록의 모션 벡터를 결정한다. 왜곡 정정기(4a)에서는 전체 프레임 영상의 모션을 결정하는데 한 주된 블록의 모션 벡터로 충분하였다. 한편, 왜곡 정정기(4b)로는 각 프레임에 대해 각각이 다른 주된 블록에 대응하는 복수의 모션 벡터가 결정된다. 다양한 주된 블록의 모션 벡터는 독립적인 처리 동작을 위해 프레임 영역을 다중 영역으로 분할하는 영역 분할기(21)로 제공된다. 영역은 모션 벡터와 인접한 픽셀간의 차이를 근거로 하고 평활화 등과 같이 필요한 다른 동작을 통해 정의된다. 한 예로, 화면이 배경과 같이 고정되거나 느린 이동 물체와 비행기 같이 빠르게 이동하는 물체를 포함하면, 영역 분할기(21)는 배경에 대응하는 프레임의 제 1 영역과 비행기에 대응하는 제 2 영역을 정의한다. 도 10에서, 영역 분할기(21)는 프레임 당 2개의 영역을 정의하도록 적용되지만, 다른 방법으로 각 프레임을 단 두 영역 이외에 3개 또는 4개의 영역으로 분할하도록 구성될 수 있는 것으로 이해된다.The distortion corrector 4b is basically the same frame memory 11, motion detector 12, scene change detector 13, vertical low pass filter 16, and frame memory as described above for the distortion corrector 4a. (17). The motion detector 12 is operated as described above to analyze the difference between the plural reference blocks of the previous frame and the main block to obtain the motion vector of the current frame main block, e.g. 8x8 or 16x16 pixels, from the preceding frame. Decide In the distortion corrector 4a, the motion vector of one main block is sufficient to determine the motion of the entire frame image. On the other hand, with the distortion corrector 4b, a plurality of motion vectors corresponding to different main blocks are determined for each frame. The motion vectors of the various main blocks are provided to a region divider 21 which divides the frame region into multiple regions for independent processing operations. The region is based on the difference between the motion vector and the adjacent pixels and is defined through other operations as necessary, such as smoothing. For example, if the screen includes a fixed or slow moving object such as a background and a fast moving object such as an airplane, the area divider 21 defines the first area of the frame corresponding to the background and the second area corresponding to the plane. . In FIG. 10, the region divider 21 is applied to define two regions per frame, but it is understood that it may alternatively be configured to divide each frame into three or four regions in addition to only two regions.

일단 영역 분할기(21)가 현재 프레임에 대한 영상 영역을 정의하면, 이는 제 1 영역으로부터의 영상 데이터만이 메모리(23A)에 임시 저장되기 위해 스위치(22A)를 통해 전해지고 제 2 영역으로부터의 데이터만이 메모리(23B)에 저장되기 위해 스위치(22B)를 통해 전해지도록 스위치(22A) 및 (22B)를 제어함으로서 현재 프레임 메모리(11A)로부터의 영상 데이터 판독을 제어한다. 영역 분할기(21)는 또한 제 1 영역내의 한 구역에 대한 모션 벡터를 제어기(14A)에 제공하고, 제 2 영역내의 한 구역에 대한 모션 벡터를 제어기(14B)에 제공한다. 장면 변화 검출기(13)는 장면 변화 신호를 제어기(14A) 및 (14B)로 공급한다. 제어기(14A)는 각 프레임에 대한 제 1 영역에서의 모션 벡터를 근거로 상대 어드레스 포인터를 동적으로 변화시킴으로서 메모리(23A)로부터의 데이터를 해상도 생성 메모리(15A)에 기록하는 것을 제어한다. 결과적으로, 주사선간 픽셀은 기본적으로 상술된 바와 같은 방법으로 모션 벡터에 따른 위치에서 생성된다. 그에 의해, 수직 방향으로 프레임 메모리(11A)에서의 4배인 해상도를 갖는 고해상도 프레임 또는 프레임 부분이 메모리(15A)에서 생성된다. 유사하게, 제 2 프레임 영역의 영상 데이터는 메모리(15B)에서 고해상도 프레임 또는 프레임 부분을 만들도록 제 2 모션 벡터에 따라 제어기(14B)의 제어하에서 메모리(23B)에서 메모리(15B)로 전달된다. 즉, 전체 영상 중 일부만이 증진되어 각 메모리(15A) 및 (15B)내에 저장되는 것을 제외하면, 도 4의 제어기(14) 및 메모리(15)에 대해 상술된 바와 같은 방법으로 각 어드레스 포인터를 동적으로 결정함으로서, 각 제어기(14A) 및 (14B)는 각각 메모리(15A) 및 (15B)와 연관되어 동작한다.Once the area divider 21 defines the image area for the current frame, it is passed through the switch 22A and only data from the second area to be temporarily stored in the memory 23A. By controlling the switches 22A and 22B to be transmitted through the switch 22B to be stored in this memory 23B, the reading of the image data from the current frame memory 11A is controlled. The region divider 21 also provides the controller 14A with a motion vector for one zone in the first region and a controller with motion vector for one zone in the second region. The scene change detector 13 supplies a scene change signal to the controllers 14A and 14B. The controller 14A controls writing of data from the memory 23A to the resolution generating memory 15A by dynamically changing the relative address pointer based on the motion vector in the first area for each frame. As a result, interscan pixels are basically created at positions according to the motion vectors in the manner described above. Thereby, a high resolution frame or frame portion having a resolution four times that of the frame memory 11A in the vertical direction is generated in the memory 15A. Similarly, the image data of the second frame region is transferred from the memory 23B to the memory 15B under the control of the controller 14B according to the second motion vector to make a high resolution frame or frame portion in the memory 15B. That is, except that only a part of the entire image is enhanced and stored in each of the memories 15A and 15B, each address pointer is dynamically moved in the manner described above for the controller 14 and the memory 15 of FIG. By determining each of the controllers 14A and 14B operate in association with the memory 15A and 15B, respectively.

메모리(15A) 및 (15B)내에서 생성된 각 고해상도 프레임의 데이터는 각각 제어기(14A) 및 (14B)의 제어하에서 결합기(24)로 전달된다. 결합기(24)는 복합 프레임의 영상 데이터를 만들도록 두 프레임 부분의 데이터을 결합하고, 이를 수직 LPF(16)에 제공한다. 그래서, 결합기(24)의 출력 영상 데이터는 왜곡 정정기(4a)에서의 메모리(15)와 유사하다. 수직 LPF(16)와 프레임 메모리(17)는 에일리어싱 왜곡이 제거된 저해상도 영상을 만들도록 상술된 바와 같은 처리 과정을 실행한다. 반대로, 고해상도 영상을 원하면, 수직 LPF는 앞서 논의된 바와 다른 주파수 응답으로 설계되거나 바이패스된다.The data of each high resolution frame generated in memories 15A and 15B is transferred to combiner 24 under the control of controllers 14A and 14B, respectively. The combiner 24 combines the data of the two frame portions to produce the image data of the composite frame and provides it to the vertical LPF 16. Thus, the output image data of the combiner 24 is similar to the memory 15 in the distortion corrector 4a. The vertical LPF 16 and the frame memory 17 execute the processing as described above to produce a low resolution image from which the aliasing distortion is removed. Conversely, if a high resolution image is desired, the vertical LPF is designed or bypassed with a different frequency response than discussed above.

왜곡 정정기(4a) 및 (4b)는 모션 벡터(즉, 영상의 수직 및 수평 모션 모두에 대응하는 모션 벡터)를 근거로 수직 방향에서의 주사선간 픽셀을 생성하도록 동작되는 것으로 설명되었지만, 수평 방향에서의 부가 픽셀에 대한 영상 데이터도 또한 생성될 수 있다. 즉, 고해상도 픽셀은 또한 수직 방향에 대해 기술된 바와 유사한 방법으로 수평 방향에서 저해상도 픽셀 위치 사이의 위치로 메모리(15)(또는 메모리(15A), (15B))에서 생성될 수 있다. 그 결과로, 수평 방향에서 에일리어싱 왜곡이 더 제거될 수 있어, 수평적으로 더 높은 해상도가 또한 구해질 수 있다.Distortion correctors 4a and 4b have been described as being operated to generate interscan pixels in the vertical direction based on a motion vector (ie, a motion vector corresponding to both vertical and horizontal motion of the image), but in the horizontal direction Image data for additional pixels of may also be generated. That is, high resolution pixels can also be created in memory 15 (or memory 15A, 15B) with positions between low resolution pixel locations in the horizontal direction in a similar manner as described for the vertical direction. As a result, aliasing distortion can be further eliminated in the horizontal direction, so that a horizontally higher resolution can also be obtained.

상대 어드레스 포인터의 위치에 따라 억세스 영역이 해상도 생성 메모리(15)(또는 15A, 15B)의 저장 영역 보다 증가되는 특수한 경우가 존재한다. 이 경우에, 증가된 영역의 데이터는 해상도 생성 메모리의 저장 영역을 인근 영역을 확대시킴으로서 얻어질 수 있다. X≥PH'이고 Y≥PV'인 것으로 가정하고, 절대 어드레스(X,Y)로 표시된 위치가 억세스 영역에 포함될 때, 그 위치는 메모리(15)의 저장 영역에서 (mod(X, PH'), mod(Y,PV'))의 절대 어드레스에 유지된다(여기서, mod(a,b)는 "a"가 "b"로 나누어질 때의 나머지를 나타낸다). 증가된 데이터를 유지하는 또 다른 방법은 제어기(14)가 모든 데이터를 버퍼 메모리에 전달하고 이어서 이를 새로운 어드레스 포인터를 이용해 새로운 억세스 영역에 재기록함으로서, 그에 유지되는 가장 최근의 데이터를 포함하는 억세스 영역을 재할당하는 것이다.There is a special case where the access area is increased than the storage area of the resolution generating memory 15 (or 15A, 15B) depending on the position of the relative address pointer. In this case, the data of the increased area can be obtained by enlarging the storage area of the resolution generating memory to the adjacent area. X≥P H 'and Y≥P V' of when the home position and, indicated by the absolute address (X, Y) to be included in the access area, the position is (mod (X, P from the storage area of the memory 15 H '), mod (Y, P V ') is maintained at the absolute address (where mod (a, b) represents the remainder when "a" is divided by "b"). Another way of maintaining the increased data is that the controller 14 transfers all the data to the buffer memory and then writes it back to the new access area with a new address pointer, thereby accessing the access area containing the most recent data held therein. Reallocate.

상술된 실시예에서, 고해상도 프레임은 모션 벡터에 대응하는 위치에서 주사선간 픽셀의 가정을 통해 생성된다. 이어서, 고해상도 프레임은 에일리어싱 왜곡이 줄어든(또는 제거된) 저해상도 또는 고해상도 영상을 발생하는데 사용된다. 이러한 영상 재생을 실행하는 또 다른 방법은 다음과 같다: 에일리어싱 왜곡이 없는 원래 영상은 P로 나타내지고 그를 근거로 왜곡된(언더샘플링된) 영상은 P'으로 나타내진다고 가정한다. 둘 사이의 관계는 다음과 같이 표시된다:In the above-described embodiment, a high resolution frame is generated through the assumption of interscan pixels at a position corresponding to a motion vector. The high resolution frame is then used to generate a low resolution or high resolution image with reduced (or eliminated) aliasing distortion. Another method of performing such image reproduction is as follows: Assume that the original image without aliasing distortion is represented by P and the distorted (undersampled) image based on it is represented by P '. The relationship between the two is represented as follows:

[수학식 1][Equation 1]

P' = f(P)P '= f (P)

여기서, f( )는 괄호안의 영상을 서브샘플링하는 함수를 나타낸다.Here, f () represents a function of subsampling an image in parentheses.

유사하게, f( )의 역함수는 g( )로 표시되므로:Similarly, the inverse of f () is represented by g ():

[수학식 2][Equation 2]

P = g(P')P = g (P ')

그러므로, 에일리어싱 왜곡을 줄이는 것이 가능해지면, 왜곡된 영상(P')으로부터 원래 영상(P)을 재생하는 것이 이론적으로 실현될 수 있으므로, 왜곡된 영상의 모션을 검출할 필요 없이 에일리어싱 왜곡을 줄이는 것이 가능해진다.Therefore, if it becomes possible to reduce the aliasing distortion, since it is theoretically possible to reproduce the original image P from the distorted image P ', it is possible to reduce the aliasing distortion without having to detect the motion of the distorted image. Become.

함수 g( )는 원래 영상이 특정한 교육자-데이터(teacher-data)를 포함하는 것으로 고려되고 왜곡된 영상(P')의 연속 프레임이 학습-데이터(learning-data)를 포함하는 것으로 고려되는 학습 처리를 통해 얻어질 수 있다. 이때, 왜곡된 영상의 주사선간 갭은 함수 g( )를 근거로 채워질 수 있고, 그에 의해 원래 영상(P)이 재생될 수 있다.The function g () is a learning process in which the original image is considered to contain a particular teaser-data and the continuous frame of the distorted image P 'is considered to contain a learning-data. Can be obtained through In this case, the gap between the scan lines of the distorted image may be filled based on the function g (), whereby the original image P may be reproduced.

에일리어싱 왜곡을 제어하는 것을 제외하면, 본 발명은 증진된 해상도를 갖는 확대 영상을 만들거나 저 또는 표준 해상도 영상(이후 SD 영상이라 칭하여지는)을 고해상도 영상(이후 HD 영상이라 칭하여지는)으로 변환하는 것과 같은 다른 응용을 포함한다.Except for controlling aliasing distortion, the present invention relates to making an enlarged image with enhanced resolution or converting a low or standard resolution image (hereinafter referred to as SD image) into a high resolution image (hereinafter referred to as HD image). Including other applications.

이제는 도 11을 기초하여, SD 영상을 포함하는 텔레비젼 신호를 디스플레이를 위해 HD 영상으로 변환하는 텔레비젼 수신기(100)의 실시예에 대한 블록도가 도시된다. 수신기(100)는 왜곡 정정기(4) 대신에 해상도 변환기(34)를 사용하고 CRT(7) 대신에 고해상도 CRT(36)를 사용함으로서 도 1의 수신기(10)와 다르다. 다른 성분은 해상도 변환기(34)와 D/A 변환기(6) 사이나 LPF(2)와 A/D 변환기(3) 사이에서 전형적으로 사용되는 Y/C 변환기(도시되지 않는)를 갖춘 수신기(10)와 같다.Referring now to FIG. 11, a block diagram of an embodiment of a television receiver 100 for converting a television signal including an SD image into an HD image for display is shown. Receiver 100 differs from receiver 10 in FIG. 1 by using resolution converter 34 instead of distortion corrector 4 and using high resolution CRT 36 instead of CRT 7. The other component is a receiver 10 with a Y / C converter (not shown) that is typically used between the resolution converter 34 and the D / A converter 6 or between the LPF 2 and the A / D converter 3. )

도 12는 해상도 변환기(34)의 실시예에 대한 블록도이다. 해상도 변환기(34)는 각 영역에서 다른 모션에 따라 저해상도 프레임의 영역을 분할하도록 동작하고, 각 영역에 대해 고해상도 영상을 생성하고, 또한 복합 영상을 만들도록 각 영역에 대한 고해상도 영상을 결합한다는 점에서 도 10의 왜곡 정정기(4b)와 여러면에서 유사하다. 해상도 변환기(34)는 각 프레임에 대한 모션 벡터를 근거로 인접한 수평 픽셀 사이와 SD 영상의 인접한 수직 픽셀 사이의 위치에서 픽셀을 생성함으로서 수평 및 수직 방향으로 모두 해상도를 증진시키도록 구성된다. 변환기(34)는 이후 상세히 논의될 분류 및 적응 처리 기술에 의해 일부의 고해상도 픽셀을 발생할 수 있다.12 is a block diagram of an embodiment of a resolution converter 34. The resolution converter 34 operates to segment regions of low resolution frames according to different motions in each region, generates high resolution images for each region, and combines high resolution images for each region to produce a composite image. It is similar in many respects to the distortion corrector 4b of FIG. The resolution converter 34 is configured to enhance the resolution in both the horizontal and vertical directions by generating pixels at positions between adjacent horizontal pixels and between adjacent vertical pixels of the SD image based on the motion vector for each frame. The transducer 34 may generate some high resolution pixels by the classification and adaptive processing techniques discussed in detail later.

해상도 변환기(34)는 상술된 바와 같은 프레임 메모리(11), 모션 검출기(12), 및 장면 변화 검출기(13) 뿐만 아니라 분할기(21')가 각 프레임을 단 두 영역 이외의 M개 프레임 영역으로 분할하는 것을 제외하면 도 10의 영역 분할기(21)와 같은 영역 분할기(21')를 포함한다. M개 고해상도 물체 발생기 각각은 영역 분할기(21')에 의해 정의된 각 프레임 영역에 대해 고해상도 물체를 발생하도록 동작된다. 각 물체 발생기(41i)(i = 1, 2, ..., M)는 스위치(22i), 버퍼 메모리(23i), 제어기(14i), 해상도 생성 메모리(15i), 기록 플래그 메모리(42i), 및 픽셀 발생기(43i)를 포함한다.The resolution converter 34 allows the divider 21 'as well as the frame memory 11, the motion detector 12, and the scene change detector 13 as described above to move each frame into M frame areas other than just two areas. Except for dividing, it includes an area divider 21 'such as the area divider 21 of FIG. Each of the M high resolution object generators is operated to generate a high resolution object for each frame region defined by the area divider 21 '. Each object generator 41i (i = 1, 2, ..., M) includes a switch 22i, a buffer memory 23i, a controller 14i, a resolution generating memory 15i, a write flag memory 42i, And a pixel generator 43i.

각 기록 플래그 메모리(42i)는 연관된 해상도 생성 메모리(15i)에 저장된 픽셀의 수와 같은 수의 기록 플래그를 저장한다. 기록 플래그는 SD 영상의 픽셀 데이터가 대응하는 메모리(15i)의 어드레스에 저장되나 여부를 나타내는 한 비트의 플래그이다(예를 들어, 픽셀 데이터가 어드레스에 저장되면 플래그는 1이고, 그렇지 않으면 0이다). 기록 플래그는 제어기(14i)에 의해 설정/리셋되도록 제어된다.Each write flag memory 42i stores the same number of write flags as the number of pixels stored in the associated resolution generating memory 15i. The write flag is a bit flag indicating whether or not the pixel data of the SD video is stored at the address of the corresponding memory 15i (for example, the flag is 1 if the pixel data is stored at the address, and 0 otherwise). . The write flag is controlled to be set / reset by the controller 14i.

도 13을 참고로, 각 해상도 생성 메모리(15i)는 PH'≥2PH이고 PV'≥2PV인 경우에서 수평 방향으로 PH' 픽셀 또한 수직 방향으로 PV' 픽셀의 픽셀 데이터를 저장할 수 있는 저장 영역으로 설계되고, 여기서 PH 및 PV는 각각 프레임 메모리(11)내에 저장된 SD 프레임의 수평 및 수직 방향에서의 픽셀수이다. 본 예에서는 메모리(15i)가 수직 방향으로 SD 영상의 두 배인 픽셀과 수평 방향을 두 배인 픽셀의 픽셀 데이터를 저장할 수 있다. 메모리 억세스 영역(15ai)은 2PH x 2PV 픽셀의 픽셀 데이터를 저장하는 저장 위치로 구성된다.Referring to FIG. 13, each resolution generating memory 15i stores pixel data of P H 'pixels in the horizontal direction and P V ' pixels in the vertical direction when P H '≥2P H and P V ' ≥2P V. It can be designed for storage in, where P H and P V are each a number of pixels in the horizontal and vertical directions of SD frame stored in the frame memory 11. In this example, the memory 15i may store pixel data of a pixel twice as large as the SD image in the vertical direction and a pixel twice as large in the horizontal direction. The memory access area 15ai is composed of a storage location for storing pixel data of 2P H x 2P V pixels.

이제는 SD 데이터의 프레임을 해상도 생성 메모리(15i)에 기록하는 절차가 도 14의 흐름도를 참고로 설명된다. 단계(S11)에서, 장면 변화 검출기(13)가 장면 변화나 제 1 프레임 데이터의 수신을 검출하면, 장면 변화 신호는 각 제어기(141)-(14M)에 제공된다. 이어서, 각 제어기(14i)는 단계(S12)에서 연관된 메모리(15i)를 클리어시키고(이전 프레임 픽셀 데이터를 삭제), 기록 플래그 메모리(41i)내의 모든 기록 플래그를 초기값으로 리셋한다(단계 S13). 현재 프레임 메모리(11A)에서 연관된 프레임 영역의 왜곡된 SD 영상 데이터는 프레임 메모리(11A)로부터의 프레임 데이터 판독 동작시 적절한 시간에 스위치(22i)를 닫음으로서 메모리(15i)로 기록된다(단계 S14). 그래서, 영역 분할기(21')에 의해 정의된 바와 같은 연관된 영역내의 영상 데이터만이 스위치(22i)와 메모리(23i)를 통해 전달된다. 특히, SD 데이터는 수평 및 수직 방향으로 번갈아 있는 픽셀 위치에서 메모리(15i)의 억세스 영역으로 기록된다. 그래서, 예를 들면, SD 프레임은 M개의 픽셀 행(행 1 내지 M) 대 N개의 픽셀 열(열 1 내지 N)로 배열되고 메모리(15i)의 억세스 영역은 2M개의 행(행 1 내지 2M) 대 2N개의 열(열 1 내지 2N)에 대응하는 저장 어레이인 것으로 가정한다. 이때, SD 프레임의 1행, 1열에 대응하는 픽셀 1,1의 데이터가 물체 발생기(41i)에 전달되면, 이는 먼저 억세스 영역 중 2행, 2열의 HD 픽셀에 대응하는 억세스 영역의 저장 위치에 저장된다. 양호하게, 그 저장 위치는 또한 픽셀 생성을 용이하게 하도록 저장 어레이에서 2행, 2열이 된다. 유사하게, SD 프레임 중 픽셀 2,2의 SD 데이터는 먼저 억세스 영역의 4행, 4열에 저장된다. 기록 플래그는 SD 데이터가 이와 같이 저장된 HD 저장 위치 각각에 대해 동시에 설정된다. 영상 데이터는 이때 픽셀 발생기(43i)에 의해 메모리(15i)로부터 판독되지만, 이는 다음 고해상도 프레임의 일부를 형성하는데 사용되기 때문에 메모리(15i)로부터 삭제되지 않는다(화면 변화가 없을 때).The procedure of writing the frame of the SD data into the resolution generating memory 15i is now described with reference to the flowchart of FIG. In step (S11), if the scene change detector 13 detects the reception of change in the scene or the first frame of data, a scene change signal, each controller (14 1) is provided in (14 M). Then, each controller 14i clears the associated memory 15i in step S12 (deleting previous frame pixel data), and resets all write flags in the write flag memory 41i to initial values (step S13). . The distorted SD image data of the associated frame area in the current frame memory 11A is recorded in the memory 15i by closing the switch 22i at an appropriate time in the frame data reading operation from the frame memory 11A (step S14). . Thus, only image data in the associated area as defined by the area divider 21 'is transferred through the switch 22i and the memory 23i. In particular, the SD data is written into the access area of the memory 15i at pixel positions alternated in the horizontal and vertical directions. So, for example, the SD frame is arranged in M pixel rows (rows 1 to M) to N pixel columns (columns 1 to N) and the access area of the memory 15i is 2M rows (rows 1 to 2M). Assume a storage array corresponding to 2N columns (columns 1 to 2N). At this time, when data of pixels 1 and 1 corresponding to one row and one column of the SD frame is transferred to the object generator 41i, it is first stored in the storage location of the access area corresponding to the HD pixels of two rows and two columns of the access regions. do. Preferably, the storage location is also two rows, two columns in the storage array to facilitate pixel generation. Similarly, SD data of pixels 2 and 2 of the SD frames are first stored in four rows and four columns of the access area. The write flag is set at the same time for each of the HD storage locations where the SD data is thus stored. The image data is read out from the memory 15i by the pixel generator 43i at this time, but it is not deleted from the memory 15i (when there is no screen change) because it is used to form part of the next high resolution frame.

단계(S11)에서, 장면 변화 신호가 수신되지 않으면, 단계(S16)에서는 각 제어기(14i)가 현재 프레임의 연관된 영상 영역에서 모션에 대응하는 영역 분할기(21')로부터 모션 벡터를 수신한다. 제어기(14i)는 모션 벡터에 대응하는 새로운 상대 어드레스 포인터(RP)를 계산하여 이를 해상도 변환 메모리(15i)로 공급한다. 이어서, 루틴은 현재 프레임의 왜곡된 영상 데이터가 바로 결정된 상대 어드레스 포인터에 따라 메모리(15i)로 기록되는 단계(S14)로 진행되고, 그에 의해 메모리(15i)의 선행하는 프레임에 앞서 저장된 데이터는 새로운 데이터에 대해 쉬프트된다(현재 프레임의 데이터가 새로운 어드레스 포인터에 따라 저장되는 동안에 이전 프레임의 데이터가 이전 어드레스 포인터에 따라 같은 위치에 저장되어 유지되므로). 앞서 설명된 바와 같이, 앞서 저장된 데이터 일부는 전형적으로 이 단계에서 오버라이트된다. 기록 플래그는 단계(S15)에서 새로운 데이터가 저장된 저장 위치에 대해 설정된다(앞서 이미 설정되어있지 않으면).If no scene change signal is received in step S11, then in step S16 each controller 14i receives a motion vector from the area divider 21 'corresponding to the motion in the associated image area of the current frame. The controller 14i calculates a new relative address pointer R P corresponding to the motion vector and supplies it to the resolution conversion memory 15i. Subsequently, the routine proceeds to step S14 in which the distorted image data of the current frame is immediately written to the memory 15i according to the determined relative address pointer, whereby the data stored prior to the preceding frame of the memory 15i is replaced with the new one. Shifted with respect to data (since the data of the previous frame is stored and kept in the same position according to the previous address pointer while the data of the current frame is stored according to the new address pointer). As described above, some of the previously stored data are typically overwritten at this stage. The write flag is set for the storage location where the new data is stored in step S15 (if it has not already been set previously).

따라서, 기록 처리가 각 해상도 생성 메모리(15i)에서 프레임 대 프레임으로 진행될 때, 수평 및 수직 방향으로 대응하는 SD 영상의 두배인 해상도를 갖는 HD 영상이 점차 완료된다.Therefore, when the recording process proceeds from frame to frame in each resolution generating memory 15i, an HD image having a resolution twice that of the corresponding SD image in the horizontal and vertical directions is gradually completed.

HD 영상의 생성을 더 설명하기 위해, 작은 고체 삼각형 물체(47)의 프레임간 이동과 그를 나타내는 픽셀 데이터의 연관된 저장을 설명하는 도 15를 참고한다. 도면의 좌측은 물체(47)와 포개진 SD 픽셀(PSD)의 어레이를 도시하고, 우측은 각각 프레임(N) 내지 (N+3)에 대한 억세스 영역(15aN) 내지 (15a(N+3))내의 저장 위치(MC)를 도시한다. 저해상도 영상에서, 물체(47)의 경계 영역내의 SD 픽셀(PSD)은 예를 들면, 다소간의 휘도를 갖고/또는 인근 픽셀과 다른 칼라가 됨으로서 물체를 나타낸다. 임의의 경우에서, 물체(47)는 프레임(N)에서 픽셀(a), (b), (c), 및 (d)로, 프레임(N+1)에서는 픽셀(f), (g)로, 프레임(N+2)에서는 픽셀(h), (i), (j), (k)로, 또한 프레임(N+3)에서는 픽셀(l), (m)으로 나타내지는 것으로 가정되고, 여기서 픽셀은 프레임간 모션으로 인해 프레임에서 프레임으로 변한다.To further illustrate the generation of the HD image, reference is made to FIG. 15 which illustrates the interframe movement of the small solid triangular object 47 and the associated storage of pixel data representing it. The left side of the figure shows an array of objects 47 and nested SD pixels P SD , and the right side shows access areas 15a N to 15a (N + for frames N to (N + 3), respectively). 3) shows the storage location MC in the). In a low resolution image, the SD pixel P SD in the boundary region of the object 47 represents the object by, for example, having some brightness and / or having a different color than the neighboring pixel. In any case, object 47 goes to pixels (a), (b), (c), and (d) in frame (N), and pixels (f), (g) in frame (N + 1). Is assumed to be represented by pixels (h), (i), (j), (k) in frame (N + 2) and pixels (l), (m) in frame (N + 3), where Pixels change from frame to frame due to interframe motion.

상술된 방법에 따라, SD 픽셀 데이터는 번갈아 있는 저장 위치로 빗금친 구역에서 억세스 영역(15aN) 내지 (15a(N+3))에 기록된다. 프레임(N)에서, 저장 위치(a' 내지 e')는 SD 픽셀에 대응하는 픽셀 데이터(a 내지 e)로 채워진다. 프레임(N)과 (N+1) 사이에서, 물체는 프레임(N+1)의 상대 어드레스 포인터(RP)가 도시된 바와 같이 하나의 HD 픽셀 저장 위치 만큼 아래로 이동되도록 SD 픽셀 간격(인접한 SD 픽셀의 중간점 사이의 간격)의 1/2 만큼 위로 이동되고, 픽셀(f) 및 (g)에 대한 픽셀 데이터가 기록된다. 반면, 픽셀 데이터(a' - e')를 저장하는 절대 저장 위치는 프레임(N+1)에서 똑같이 유지된다. 그래서, 픽셀(b) 및 (g)는 SD 영상에서 같은 위치에 있는 반면, 대응하는 "픽셀" (b') 및 (g')은 HD 영상을 나타내는 억세스 영역(15a(N+1))에서 서로에 대해 쉬프트됨을 알 수 있다. 처리 과정은 완전한 HD 영상이 프레임(N+3)에 형성될 때까지 물체 모션과 반대 방향으로 어드레스 포인터(RP)가 이전 위치로부터 이동되는 것으로 계속된다. 물체가 정지 상태로 유지되거나 모션이 프레임에서 프레임으로 약간 있으면, 모션 벡터에 따라 HD 픽셀 데이터를 발생하는 것만에 기초하여 하여 완전한 HD 영상을 발생하기 위해서는 더 많은 프레임이 취해짐을 주목한다.According to the above-described method, SD pixel data is recorded in the access areas 15a N to 15a (N + 3) in the area hatched to the alternate storage positions. In frame N, storage locations a 'through e' are filled with pixel data a through e corresponding to SD pixels. Between frames N and (N + 1), the object is placed at an SD pixel interval (adjacent) such that the relative address pointer R P of frame N + 1 is moved down by one HD pixel storage location as shown. Up half of the interval between the midpoints of the SD pixels), and the pixel data for pixels f and g are recorded. On the other hand, the absolute storage position for storing pixel data a '-e' remains the same in frame N + 1. Thus, pixels b and g are at the same position in the SD image, while corresponding " pixels " (b ') and (g') are in the access area 15a (N + 1) representing the HD image. It can be seen that they are shifted with respect to each other. The process continues with the address pointer R P being moved from its previous position in the opposite direction to the object motion until a complete HD image is formed in frame N + 3. Note that if the object remains stationary or the motion is slightly from frame to frame, more frames are taken to generate a full HD image based solely on generating HD pixel data according to the motion vector.

도 16은 고해상도 물체 발생기(41i)로부터 영상 데이터를 판독하는 루틴을 설명하는 흐름도이다. 판독 루틴은 새로운 영상 데이터가 메모리(15i)에 기록될 때마다, 즉 특정한 프레임에 대한 데이터의 기록이 완료될 때마다 도 14의 루틴을 따른다. 단계(S21)에서, 제어기(14i)는 억세스 영역(15i)의 저장 위치로부터 영상 데이터를 판독하고, 그 데이터를 픽셀 발생기(23)로 공급한다. 단계(S22)에서, 픽셀 발생기(23)는 기록 플래그 메모리(42i)내의 기록 플래그를 근거로 영상 데이터가 특정한 어드레스에 대응하는 특정한 고해상도 픽셀에 대해 저장되었나 여부를 결정한다. 예를 들어, 도 15를 고려하여 프레임(N)이 장면 변화 이후 제 1 프레임에 대응한다고 가정하면, 저장 위치(c') 및 (d')는 저장된 영상 데이터를 포함하지만, (c') 및 (d') 사이의 저장 위치(48)는 비워지게 된다. 이와 같이, (c') 및 (d')에 대한 기록 플래그는 1로 설정되는 반면, 저장 위치(48)에 대한 것은 0이 된다. 그래서, 프레임(N)과 같은 현재 프레임에 대해 영상 데이터를 디스플레이하기 이전에, 저장 위치(48)와 같이 빈 저장 위치에 대응하는 고선명(HD) 픽셀에 대해 픽셀 데이터가 생성될 필요가 있다.16 is a flowchart for explaining a routine for reading image data from the high resolution object generator 41i. The reading routine follows the routine of Fig. 14 every time new image data is written to the memory 15i, i.e., every time recording of data for a particular frame is completed. In step S21, the controller 14i reads out image data from the storage position of the access area 15i and supplies the data to the pixel generator 23. In step S22, the pixel generator 23 determines whether image data has been stored for a particular high resolution pixel corresponding to a particular address based on the write flag in the write flag memory 42i. For example, assuming that the frame N corresponds to the first frame after the scene change in consideration of FIG. 15, the storage positions c 'and (d') include stored image data, but (c ') and The storage location 48 between (d ') is emptied. As such, the write flag for (c ') and (d') is set to 1, while for the storage location 48 is zero. Thus, before displaying image data for a current frame such as frame N, pixel data needs to be generated for high definition (HD) pixels corresponding to empty storage locations, such as storage location 48.

그러므로, 단계(S23)에서, 고려 중인 저장 위치가 연관된 기록 플래그에 의해 나타내지는 바와 같이 비어있으면, 픽셀 발생기(43i)에 의해 영상 데이터가 발생된다. 영상 데이터는 인근 픽셀간을 보간하는 것 또는 이후 기술될 분류 및 적응 처리 방법과 같이 보다 복잡한 예측 기술에 의한 것과 같은 다양한 방법으로 발생될 수 있다. 임의의 경우에서, 일단 고려 중인 픽셀에 대해 영상 데이터가 생성되면(또는 이미 저장된 경우 메모리(15i)로부터 직접 판독되면), 그 픽셀에 대한 픽셀 데이터는 단계(S24)에서 물체 발생기(41i)로부터 출력되어 결합기(24)로 공급된다. 고려 중인 고해상도 프레임의 모든 영상 데이터가 단계(S25)에서 판독된 것으로 결정되면, 그 프레임에 대한 판독 처리는 완료된다. 그렇지 않은 경우, 루틴은 다음 저장 위치로부터 데이터를 판독하고 필요한 경우 다시 한 번 픽셀 데이터를 생성하는 단계(S21)로 복귀된다.Therefore, in step S23, if the storage location under consideration is empty as indicated by the associated recording flag, image data is generated by the pixel generator 43i. Image data can be generated in a variety of ways, such as by interpolating between adjacent pixels or by more complex prediction techniques, such as the classification and adaptive processing methods described later. In any case, once image data is generated for a pixel under consideration (or read directly from memory 15i if already stored), the pixel data for that pixel is output from object generator 41i in step S24. And supplied to the combiner 24. If it is determined that all the image data of the high resolution frame under consideration has been read in step S25, the reading process for that frame is completed. Otherwise, the routine returns to step S21 of reading data from the next storage location and generating pixel data once again if necessary.

도 17은 보간이나 예측 기술에 의해 빈 저장 위치에 대응하는 픽셀에 대해 영상 데이터를 발생하는 처리 단계(23)의 간략화된 흐름도를 설명한다. 단계(S31)에서는 기록 플래그를 근거로 고려 중인 픽셀에 인접한 픽셀이 메모리(15i)내에 저장된 픽셀 데이터를 포함하는가를 결정한다. 이어서, 단계(S32)에서는 이들 인근 픽셀에 대응하는 억세스 영역(15ai)내의 저장 위치로부터 데이터가 판독된다. 고려 중인 픽셀에 대한 픽셀 데이터는 인근 픽셀 데이터를 근거로 단계(S33)에서 발생된다.FIG. 17 illustrates a simplified flowchart of a processing step 23 of generating image data for a pixel corresponding to an empty storage location by interpolation or prediction techniques. In step S31, it is determined based on the write flag whether the pixel adjacent to the pixel under consideration includes pixel data stored in the memory 15i. Subsequently, in step S32, data is read from the storage location in the access area 15ai corresponding to these neighboring pixels. Pixel data for the pixel under consideration is generated in step S33 based on the neighboring pixel data.

적응 처리에 의한 픽셀 데이터의 발생Generation of pixel data by adaptive processing

해상도 생성 메모리(15i)내의 고해상도 프레임이 상술된 바와 같이 빈 저장 위치를 가지면, 빈 저장 위치에 대해 픽셀 데이터를 발생하는 간단한 보간 기술은 원래 영상의 고주파수 성분을 재포착하기에 불충분하다. 본 출원인은 SD 영상을 SD 영상에 포함되지 않은 고주파수 성분을 포함하는 HD 영상으로 변환하는 영상 변환기 장치를 앞서 제안하였다. 1996년 5월 14일에 부여된 "디지탈 데이터 변환 장비 및 그에 대한 방법" 명의 미국 특허 No. 5,517,588을 참고한다. 따라서, 빈 저장 위치에 대해 픽셀 데이터를 발생하기 위해 픽셀 발생기(43i)에 의해 같거나 유사한 적응 처리가 사용될 수 있다. 즉, 적응 처리는 검출된 영상 모션에 대응하는 위치에서 픽셀을 가정하는 것을 통해 생성된 것에 부가하여 "필-인(fill-in)" 픽셀을 생성하는데 사용될 수 있다. 이제 이러한 픽셀 생성을 실행하는 적응 처리가 설명된다.If the high resolution frame in the resolution generating memory 15i has an empty storage location as described above, a simple interpolation technique that generates pixel data for the empty storage location is insufficient to recapture the high frequency components of the original image. The present applicant has previously proposed an image converter apparatus for converting an SD image into an HD image including high frequency components not included in the SD image. U.S. Patent No. "Digital Data Conversion Equipment and Method Thereof" granted on May 14, 1996. See 5,517,588. Thus, the same or similar adaptive processing may be used by the pixel generator 43i to generate pixel data for empty storage locations. That is, the adaptive process can be used to generate "fill-in" pixels in addition to those generated through assuming pixels at positions corresponding to the detected image motion. An adaptive process for performing such pixel generation is now described.

적응 처리는 SD 영상과 소정의 추정 계수 사이의 선형적인 연결에 기초하여 HD 영상 픽셀의 예측값을 결정한다. 예를 들면, HD 영상을 형성하는 HD 픽셀의 픽셀값(y)에 대한 예측값 E[y]은 선형 조합 모델을 사용함으로서 결정될 수 있다. 이 모델은 SD 픽셀의 픽셀값(이후 학습 데이터라 칭하여지는)(x1), (x2), ..., 및 소정의 예측 계수(w1), (w2), ...의 선형 결합으로 정의된다. 이 경우, 예측값 E[y]은 다음과 같이 표시된다:The adaptive process determines the predictive value of the HD image pixel based on the linear connection between the SD image and the predetermined estimation coefficient. For example, the predicted value E [y] for the pixel value y of the HD pixels forming the HD image may be determined by using a linear combination model. This model is a linear representation of the pixel values (hereinafter referred to as training data) of the SD pixel (x 1 ), (x 2 ), ..., and predetermined prediction coefficients (w 1 ), (w 2 ), ... Defined as a combination. In this case, the predicted value E [y] is expressed as follows:

[수학식 3][Equation 3]

E[y] = W1X1 + W2X2 + ...E [y] = W 1 X 1 + W 2 X 2 + ...

상기를 일반화하기 위해, y = y1 내지 yn에 대해 예측값 E[y]의 세트로 구성된 매트릭스(Y')가 가정된다. 즉, 매트릭스(Y')는 예측 계수(w)의 세트인 매트릭스(W)와 학습 데이터의 세트인 매트릭스(X)의 곱으로 정의된다. 그래서, 다음과 같이 관찰식(수학식 4)이 구해진다:To generalize the above, a matrix Y 'consisting of a set of prediction values E [y] for y = y 1 to y n is assumed. That is, the matrix Y 'is defined as the product of the matrix W, which is a set of prediction coefficients w, and the matrix X, which is a set of training data. Thus, the observation (Equation 4) is obtained as follows:

[수학식 4][Equation 4]

XW = Y'        XW = Y '

여기서,here,

HD 픽셀값(y)에 가까운 예측값 E[y]을 찾는 한 방법은 관찰식인 상기 수학식 4에 최소 제곱법을 적용하는 것을 포함한다. 이 경우에, 매트릭스(Y')는 매트릭스(Y)와 매트릭스(E)의 합으로 고려되고, 여기서 매트릭스(Y)는 실제 HD 픽셀값의 세트(지도자 데이터라 칭하여지는)로 구성되고 매트릭스(E)는 예측값 E[y]의 나머지 "e"의 세트로 구성된다. 그래서, 상기 수학식 4로부터 다음의 나머지 식이 유도된다:One method of finding the predicted value E [y] close to the HD pixel value y includes applying the least squares method to the equation (4) above. In this case, matrix Y 'is considered to be the sum of matrix Y and matrix E, where matrix Y consists of a set of actual HD pixel values (called leader data) and matrix E ) Consists of the remaining set of "e" of predicted values E [y]. Thus, the following remainder is derived from Equation 4 above:

[수학식 5][Equation 5]

XW = Y + E       XW = Y + E

여기서,here,

제곱근 에러는 나머지의 제곱의 합으로 정의된다. 즉,Square root error is defined as the sum of the squares of the remainder. In other words,

[수학식 6][Equation 6]

그래서, HD 픽셀값에 가까운 예측값 E[y]을 구하는 예측 계수(wi)는 수학식 6의 제곱근 에러를 최소화함으로서 구해질 수 있다.Thus, the prediction coefficient w i for obtaining the prediction value E [y] close to the HD pixel value can be obtained by minimizing the square root error of Equation 6.

제곱근 에러가 예측 계수(wi)로 미분될 때, 결과가 0이면, 다음의 수학식 7을 만족시키는 wi에 대한 값은 HD 픽셀값에 가까운 예측값 E[y]을 구하기 위한 최적값이다:When the square root error is differentiated by the prediction coefficients w i , if the result is 0, the value for w i that satisfies the following equation 7 is the optimal value for obtaining the prediction value E [y] close to the HD pixel value:

[수학식 7][Equation 7]

상기 수학식 6이 예측 계수(wi)에 의해 미분될 때, 다음의 수학식 8이 구해진다:When Equation 6 is differentiated by the prediction coefficient w i , the following Equation 8 is obtained:

[수학식 8][Equation 8]

상기 수학식 7 및 수학식 8로부터, 다음의 수학식 9가 유도된다:From Equations 7 and 8, the following Equation 9 is derived:

[수학식 9][Equation 9]

학습 데이터(x), 예측 계수(w), 지도자 데이터(y), 및 나머지(e) 사이의 관계가 고려될 때, 예측식인 수학식 10의 세트는 다음과 같이 구해질 수 있다:Given the relationship between the training data (x), the prediction coefficient (w), the leader data (y), and the rest (e), the set of prediction equations (10) can be obtained as follows:

[수학식 10][Equation 10]

상기 수학식 10의 세트에서 식의 수는 예측 계수(w)의 수에 대응한다. 최적 예측 계수(w)는 예를 들면, 가우스-요르단(Gauss-Jordan) 삭제 방법을 이용함으로서 종래 기술에 의해 풀릴 수 있는 수학식 10을 풀어서 구해질 수 있다. 수학식 10을 풀 수 있도록 예측 계수(w)로 구성된 매트릭스는 정매트릭스이어야 함을 주목한다.The number of equations in the set of equation (10) corresponds to the number of prediction coefficients (w). The optimal prediction coefficient w can be obtained by solving Equation 10 that can be solved by the prior art, for example, by using a Gauss-Jordan deletion method. Note that the matrix composed of prediction coefficients w must be a static matrix so that Equation 10 can be solved.

따라서, 상술된 적응 처리로, HD 픽셀값에 가까운(즉, SD 신호 보다는 HD 신호가 텔레비젼 수신기에 의해 원리 수신되는 경우에 존재하게 되는 HD 픽셀값에 가까운) 최적의 예측값 E[y]을 유도할 목적으로 최적 예측 계수(w)가 구해진다. 적응 처리는 SD 영상에서는 없지만 HD 영상에는 포함되는 원래 영상의 고주파수 성분이 재저장될 수 있다는 점에서 보간 처리와 다르다. 상기 수학식 1만이 관련되는 한, 적응 처리는 보간 필터를 사용하는 보간 처리와 유사하다. 그러나, 적응 처리에서, 보간 필터의 탭 계수에 대응하는 예측 계수는 지도자 데이터를 사용하는 학습에 의해 구해질 수 있다. 결과적으로, HD 영상에 포함된 고주파수 성분은 고해상도 영상을 용이하게 구하도록 재저장될 수 있다.Thus, with the above-described adaptive processing, it is possible to derive an optimal predicted value E [y] that is closer to the HD pixel value (i.e., closer to the HD pixel value that would be present when the HD signal is in principle received by the television receiver than the SD signal). The optimum prediction coefficient w is obtained for the purpose. Adaptive processing differs from interpolation in that high-frequency components of the original image contained in the HD image, although not in the SD image, can be restored. As long as only the above equation 1 is concerned, the adaptive process is similar to the interpolation process using an interpolation filter. However, in the adaptive processing, the prediction coefficients corresponding to the tap coefficients of the interpolation filter can be obtained by learning using leader data. As a result, the high frequency components included in the HD image may be resaved to easily obtain a high resolution image.

이제는 도 18을 참고로, SD 영상을 HD 영상으로 변환하는 영상 변환기 장치(200)의 블록도가 도시된다. 장치(200)는 필요할 때, 즉 해상도 생성 메모리내의 HD 픽셀 저장 위치가 빌 때마다 HD 픽셀 데이터를 발생하도록 픽셀 발생기(43i)의 일부로 사용된다. 입력 SD 영상 신호는 적응 처리기(204)와 분류 회로(201) 모두에 인가되고, 분류 회로는 등급 탭(tap) 발생기(202)와 등급 결정 회로(203)로 구성된다. 분류 회로(201)에서, 예측값이 적응 처리에서 발견되는 HD 픽셀(이후 표시된 픽셀이라 칭하여지는)은 그 표시된 픽셀에 가까운 소정의 위치 관계에서 SD 픽셀 세트의 특징에 기초하여 소정의 등급으로 분류된다. 표시된 HD 픽셀과 연관된 SD 픽셀 세트에 대한 픽셀값은 표시된 픽셀의 등급 탭으로 칭하여진다.Referring now to FIG. 18, a block diagram of an image converter apparatus 200 for converting an SD image into an HD image is shown. The device 200 is used as part of the pixel generator 43i to generate HD pixel data when needed, i.e. whenever the HD pixel storage location in the resolution generation memory is empty. The input SD image signal is applied to both the adaptive processor 204 and the classifying circuit 201, which classifies the class tap generator 202 and the class determining circuit 203. In the classification circuit 201, HD pixels (hereinafter referred to as displayed pixels) whose prediction values are found in the adaptive processing are classified into predetermined grades based on the characteristics of the set of SD pixels in a predetermined positional relationship close to the displayed pixels. The pixel value for the set of SD pixels associated with the displayed HD pixel is referred to as the grade tab of the displayed pixel.

입력 SD 영상에 기초하여 하는 등급 탭은 등급 탭 발생기(202)내에서 추출되어, 각각의 표시된 픽셀에 대해 등급 탭을 형성하는 SD 픽셀 세트의 패턴을 검출하는 등급 결정 회로(203)로 제공된다. 패턴은 세트내의 각 픽셀의 특징으로 근거로 하므로, 이는 픽셀값의 함수이다. 예를 들면, 한 패턴은 픽셀의 균일함에 대응하고, 제 2 패턴은 상단 우측 방향으로 증가하는 픽셀값에 대응하고, 제 3 패턴은 하단 좌측 방향으로 증가하는 픽셀값에 대응한다. 이어서, 검출된 패턴에 앞서 할당된 값은 표시된 픽셀의 등급을 나타내는 것으로 적응 처리기(204)에 공급된다.A rating tap based on the input SD image is extracted in rating tap generator 202 and provided to rating circuit 203 for detecting a pattern of a set of SD pixels that form a rating tap for each displayed pixel. Since the pattern is based on the characteristics of each pixel in the set, it is a function of pixel values. For example, one pattern corresponds to the uniformity of the pixel, the second pattern corresponds to the pixel value increasing in the upper right direction, and the third pattern corresponds to the pixel value increasing in the lower left direction. The value assigned prior to the detected pattern is then supplied to the adaptation processor 204 to indicate the grade of the indicated pixel.

도 19는 연관된 HD 픽셀에 대한 등급 탭의 위치 관계를 설명한다. HD 영상은 x로 표시되어 도시된 픽셀로 구성되고 대응하는 SD 영상은 O로 표시된 픽셀로 구성되는 것으로 가정한다. 그래서, 도시된 SD 영상은 HD 영상의 1/4의 픽셀수를 포함한다. HD 열의 중간점 사이와 HD 행 사이의 간격은 SD 행 및 열에 대한 것의 반이다. 도 19에서, 좌측으로부터 (i+1)(SD 열 i+1) 및 상단으로부터 (j+1)(SD 행 (j+1) 위치인 SD 픽셀은 Xij로 표시된다. 유사하게, HD 열(i'+1) 및 HD 행 (j'+1) 위치인 HD 픽셀은 Yi'j'으로 표시된다. 그래서, 예를 들면, SD 픽셀 Xij과 HD 픽셀 Y(2i)(2j)의 위치는 서로 일치된다. (여기서 "등급 탭"과 "예측 탭"은 실제적으로 특정한 픽셀에 대한 영상 데이터값임을 주목한다. 그러나, 설명을 간략하게 하도록, "탭"은 픽셀 자체인 것으로 설명된다.)19 illustrates the positional relationship of rank taps for associated HD pixels. It is assumed that the HD image is composed of pixels shown and indicated by x, and the corresponding SD image is composed of pixels indicated by O. Thus, the illustrated SD image includes 1/4 the number of pixels of the HD image. The spacing between the midpoints of the HD columns and the HD rows is half that for the SD rows and columns. In Fig. 19, SD pixels at positions (i + 1) (SD column i + 1) from the left and (j + 1) (SD row (j + 1) positions from the top are denoted by X ij . HD pixels at (i '+ 1) and HD row (j' + 1) positions are represented by Y i'j ' , so, for example, of SD pixel X ij and HD pixel Y (2i) (2j) . The positions coincide with each other (note that "grade tap" and "prediction tap" are actually image data values for a particular pixel. However, for simplicity, the "tap" is described as being the pixel itself. )

등급 탭이 정의되는 방법을 설명하기 위해, 표시된 픽셀은 SD 픽셀(X22)과 동일한 위치를 갖는 HD 픽셀(Y44)인 것으로 가정된다. 이 표시된 픽셀에 대한 등급 탭은 대략 표시된 HD 픽셀(Y44)에 중심을 둔 3 x 3 SD 픽셀 직사각형내에서 가장 가까운 9개의 SD 픽셀이다. 그래서, 도 19에서는 등급 탭이 경계(Tc)로 정의된 구역 내에서의 SD 픽셀, 즉 SD 픽셀(X11), (X21), (X31), (X12), (X22), (X32), (X13), (X23), (X33)이다. 등급 탭 발생기(202)는 표시된 픽셀에 대한 등급 탭으로서 이들 SD 픽셀에 대한 픽셀값을 추출한다. 표시된 픽셀이 SD 픽셀과 일치하는 HD 픽셀에 인접한 경우, 일치하는 HD 픽셀에 대한 것과 같은 등급 탭이 정의될 수 있다. 그래서, 예를 들어, 표시된 픽셀이 (Y54), (Y55), (Y45) 등이면, 이들 HD 픽셀에 대한 등급 탭은 "일치하는" HD 픽셀(Y44)에 대한 것과 같다. 또한, (Y54), (Y55), 또는 (Y45)와 같이 일치하지 않는 픽셀에 대해 다른 등급 탭을 형성하는 것이 가능하다.To explain how the class tap is defined, it is assumed that the displayed pixel is an HD pixel Y 44 having the same position as the SD pixel X 22 . The rank tab for this marked pixel is the closest nine SD pixels within a 3 x 3 SD pixel rectangle centered about the marked HD pixel Y 44 . Thus, in FIG. 19, the grade tap is an SD pixel within a region defined by the boundary T c , that is, SD pixels X 11 , X 21 , X 31 , X 12 , and X 22 . , (X 32 ), (X 13 ), (X 23 ), and (X 33 ). The rank tap generator 202 extracts pixel values for these SD pixels as rank taps for the indicated pixels. If the displayed pixel is adjacent to an HD pixel that matches the SD pixel, then a rating tap such as for the matching HD pixel may be defined. So, for example, if the displayed pixels are (Y 54 ), (Y 55 ), (Y 45 ), etc., then the rating taps for these HD pixels are the same as for the "matching" HD pixels Y 44 . It is also possible to form different grade taps for mismatched pixels, such as (Y 54 ), (Y 55 ), or (Y 45 ).

분류 회로(203)에서는 표시된 픽셀의 등급 탭의 패턴이 검출된다(등급 탭이 등급 탭 발생기(202)에 의해 제공되는). 다른 말로 하면, 표시된 픽셀에 가까운 위치 관계에서 9개 SD 픽셀의 균일함 등과 같은 패턴은 어느 등급이 표시된 픽셀에 지정되어야하는가를 확인하도록 검출된다. 검출된 패턴에 대응하는 패턴값은 표시된 픽셀의 등급으로 출력되고, 적응 처리기(204)에서 계수 판독 전용 메모리(ROM)(207)의 어드레스 단자(AD)로 공급된다.The classification circuit 203 detects a pattern of the grade taps of the displayed pixels (the grade taps are provided by the grade tap generator 202). In other words, a pattern such as the uniformity of nine SD pixels, etc. in a positional relationship close to the indicated pixel is detected to identify which class should be assigned to the indicated pixel. The pattern value corresponding to the detected pattern is output in the class of the displayed pixel, and is supplied from the adaptive processor 204 to the address terminal AD of the coefficient read only memory (ROM) 207.

통상적으로, 영상을 형성하는 픽셀에는 8 비트 또는 그와 유사한 것이 할당된다. SD 픽셀에 8 비트가 할당되는 것으로 가정할 때, 예를 들어, 9개 SD 픽셀이 도 19의 예에서와 같이 등급 탭을 위해 사용되면, 등급 탭 당 가능한 픽셀값의 수는 (28)9 정도로 높다. 결과적으로, 패턴 검출 처리 동작을 고속으로 처리하는 기능이 금지된다.Typically, 8 bits or the like are allocated to the pixels forming the image. Assuming 8 bits are allocated to the SD pixel, for example, if nine SD pixels are used for the rank tap as in the example of FIG. 19, the number of possible pixel values per rank tap is (2 8 ) 9 As high as As a result, the function of processing the pattern detection processing operation at high speed is prohibited.

그러므로, 분류가 실행되기 이전에, 등급 탭의 SD 픽셀에 할당된 비트수를 감소시키는 것이 바람직하다. 예를 들면, 이와 같은 비트 감소를 실행하기 위해, 적응 동적 범위 부호화(ADRC)가 실행될 수 있다. ADRC 처리에서의 제 1 단계로, 처리 블록을 형성하는 9개 SD 픽셀 중 최대 픽셀값을 갖는 픽셀(이후 최대 픽셀이라 칭하여지는)과 처리 블록에서 최소 픽셀값을 갖는 픽셀(이후 최소 픽셀이라 칭하여지는)이 검출된다. 이어서, 최대 픽셀의 픽셀값(MAX)과 최소 픽셀의 픽셀값(MIN) 사이의 차이(DR)가 계산된다. 값(DR)은 처리 블록의 국부 동적 기준값으로 나타내지고, 처리 블록을 형성하는 각 픽셀값은 각 픽셀에 대해 원래 할당된 비트수보다 작은 수(K)의 비트로 다시 양자화된다. 다른 말로 하면, 최소 픽셀의 픽셀값(MIN)은 처리 블록을 형성하는 각 픽셀값으로부터 감산되고, 각각의 감산 결과는 DR/2K로 나뉘어진다. 그 결과로, 처리 블록을 구성하는 각 픽셀값은 K 비트로 표시될 수 있다. 그래서, 예를 들면, K = 1일 때, 9개 SD 픽셀 패턴의 최대수는 (21)9이다. 따라서, 패턴의 최대수는 ADRC 처리가 실행되지 않을 때와 비교해 상당히 감소된다.Therefore, before sorting is performed, it is desirable to reduce the number of bits allocated to the SD pixels of the class tap. For example, to perform such bit reduction, adaptive dynamic range coding (ADRC) may be performed. In a first step in ADRC processing, a pixel having a maximum pixel value (hereinafter referred to as a maximum pixel) of the nine SD pixels forming a processing block and a pixel having a minimum pixel value in a processing block (hereinafter referred to as a minimum pixel) ) Is detected. The difference DR between the pixel value MAX of the maximum pixel and the pixel value MIN of the minimum pixel is then calculated. The value DR is represented by the local dynamic reference value of the processing block, and each pixel value forming the processing block is quantized back to a number K bits smaller than the number of bits originally assigned for each pixel. In other words, the pixel value MIN of the minimum pixel is subtracted from each pixel value forming the processing block, and each subtraction result is divided by DR / 2K. As a result, each pixel value constituting the processing block can be represented by K bits. So, for example, when K = 1, the maximum number of nine SD pixel patterns is (2 1 ) 9 . Thus, the maximum number of patterns is significantly reduced compared to when no ADRC processing is performed.

계속하여 도 18을 참고로, 적응 처리는 예측 탭 발생기(205), 예측값 계산기(206), 및 예측 계수 ROM(207)을 포함하는 적응 처리기(204)내에서 실행된다. 예측 탭 발생기(205)에서는 표시된 픽셀에 대해 소정의 위치 관계에 있는 복수의 SD 픽셀의 데이터가 추출된다. 이 추출된 픽셀은 예측 탭(x1), (x2), ...로서 예측값 계산기(206)로 제공되고, 예측값 계산기는 예측 계수와 예측 탭에 기초하여 HD 픽셀에 대한 예측값을 결정한다.Continuing with reference to FIG. 18, the adaptive process is executed in an adaptive processor 204 that includes a predictive tap generator 205, a predictive value calculator 206, and a predictive coefficient ROM 207. The prediction tap generator 205 extracts data of a plurality of SD pixels having a predetermined positional relationship with respect to the displayed pixel. This extracted pixel is provided to the prediction value calculator 206 as prediction taps x1, x2, ..., which determine the prediction value for the HD pixel based on the prediction coefficient and the prediction tap.

예측 탭은 표시된 HD 픽셀과 높은 위치 상관관계를 갖는 픽셀에 대응한다. 예를 들어, 도 19에 도시된 바와 같이 표시된 픽셀이 픽셀(Y44)이고 경계(Tc)내의 등급 탭이 상술된 바와 같이 형성되면, 예측 탭 발생기(205)는 경계(Tp)에 의해 둘러싸인 영역내에 드는 5 x 5 SD 픽셀, 즉 SD 픽셀 (X00) 내지 (X44)의 블록으로 예측 탭을 결정한다. 픽셀(Y54), (Y45), 또는 (Y55)와 같이, 표시된 픽셀이 (Y44)에 인접한 픽셀이면, 픽셀(Y44)에 대한 것과 같은, 즉 픽셀(X00) 내지 (X44)에 대응하는 예측 탭이 형성된다. 그러나, (Y45), (Y54), 또는 (Y55)와 같이 일치하지 않는 픽셀이 표시된 픽셀일 때는 다른 예측 탭을 정의하는 것이 가능하다.The predictive tap corresponds to a pixel having a high position correlation with the displayed HD pixel. For example, if the displayed pixel as shown in FIG. 19 is pixel Y 44 and the grade tap within boundary T c is formed as described above, prediction tap generator 205 is defined by boundary T p . 5 x fall within the surrounding region 5 SD pixels, that is, determines the prediction tap to the block of the SD pixels (X 00) to (X 44). If the displayed pixel is a pixel adjacent to Y 44 , such as pixel Y 54 , Y 45 , or Y 55 , then the same as for pixel Y 44 , that is, pixels X 00 to X 44 , a prediction tap is formed. However, it is possible to define different prediction taps when the mismatched pixels such as (Y 45 ), (Y 54 ), or (Y 55 ) are the displayed pixels.

예측 계수 ROM(207)은 등급으로 미리 실행된 학습에 의해 발견되는 예측 계수를 저장한다. ROM(207)이 분류 회로(203)로부터 공급된 등급을 수신할 때, ROM(207)은 공급된 등급에 대응하는 어드레스에 저장된 예측 계수를 판독하고, 예측 계수를 예측값 계산기(206)로 공급한다.Prediction coefficient ROM 207 stores the prediction coefficients found by the learning previously performed with the grade. When the ROM 207 receives a rating supplied from the classification circuit 203, the ROM 207 reads a prediction coefficient stored at an address corresponding to the supplied rating, and supplies the prediction coefficient to the prediction value calculator 206. .

따라서, 표시된 픽셀의 등급에 돤한 예측 계수와 표시된 픽셀에 대응하는 예측 탭이 모두 계산기(206)로 공급된다. 계산기(206)내에서, 상기 수학식 3에 따른 동작은 예측 탭 발생기(205)로부터 예측 탭을 형성하는 SD 픽셀 데이터(x1), (x2), ...와 ROM(207)으로부터 수신된 예측 계수(w1), (w2), ...를 사용해 실행된다. 그 결과로, 표시된 픽셀(y)의 예측값 E[y]이 결정되고, 이는 HD 픽셀에 대한 픽셀값으로 출력된다. 처리 과정은 표시된 픽셀로 각 HD 픽셀을 나타냄으로서 반복되고, 모든 HD 픽셀이 그렇게 나타내지고 그에 대해 예측값이 유도될 때, 완전한 SD 영상이 HD 영상으로 변환된다.Thus, both the prediction coefficients corresponding to the class of the displayed pixels and the prediction taps corresponding to the displayed pixels are supplied to the calculator 206. In the calculator 206, the operation according to Equation 3 is the prediction received from the SD pixel data x1, x2, ... and ROM 207 forming the predictive tap from the predictive tap generator 205. This is done using the coefficients w1, w2, ... As a result, the predicted value E [y] of the displayed pixel y is determined, which is output as the pixel value for the HD pixel. The process is repeated by representing each HD pixel with the indicated pixel, and when all HD pixels are so represented and predictions derived for them, the complete SD image is converted to an HD image.

이제는 도 20을 참고로, 도 18의 ROM(207)에 저장될 예측 계수를 계산하도록 학습 처리를 실행하는 학습 장치(210)의 블록도가 도시된다. 학습 처리에서 지도자 데이터가 될 HD 영상 데이터는 세선화 회로(211)와 지도자 데이터 샘플링 회로(146) 모두에 공급된다. 세선화 회로(211)에서는 HD 영상이 SD 영상으로 변환되도록 세선화에 의해 HD 영상의 픽셀수가 감소된다. HD 영상 픽셀의 수는 수평 및 수직 방향 모두에서 절반이 되고, 그에 의해 SD 영상을 형성한다. SD 영상은 분류화 회로(212)와 예측 탭 발생기(145)로 공급된다. HD 영상으로부터 SD 영상을 형성하기 보다, SD 영상은 HD 카메라로부터의 HD 영상에 대응하는 SD 카메라로부터 분류 회로(212)에 직접 인가됨을 주목한다.Referring now to FIG. 20, shown is a block diagram of a learning apparatus 210 that executes a learning process to calculate prediction coefficients to be stored in ROM 207 of FIG. 18. The HD image data to be leader data in the learning process is supplied to both the thinning circuit 211 and the leader data sampling circuit 146. In the thinning circuit 211, the number of pixels of the HD image is reduced by thinning so that the HD image is converted into the SD image. The number of HD image pixels is halved in both the horizontal and vertical directions, thereby forming the SD image. The SD image is supplied to the classification circuit 212 and the prediction tap generator 145. Note that rather than forming the SD image from the HD image, the SD image is directly applied to the classification circuit 212 from the SD camera corresponding to the HD image from the HD camera.

분류 회로(212)나 예측 탭 발생기(145)에서는 도 18의 분류 회로(201)나 예측 탭 발생기(205)에서 실행되는 것과 같은 처리가 실행되고, 그에 의해 표시된 픽셀의 등급이나 예측 탭이 각각 출력된다. 분류 회로(212)에 의해 출력되는 등급은 예측 탭 메모리(147)와 지도자 데이터 메모리(148) 모두의 어드레스 단자(AD)에 인가된다. 예측 탭 발생기(145)로부터 출력된 예측 탭은 탭이 분류 회로(212)로부터 공급된 등급에 대응하는 어드레스에 저장되는 예측 탭 메모리(147)로 인가된다.In the classification circuit 212 or the prediction tap generator 145, the same processing as that performed in the classification circuit 201 or the prediction tap generator 205 in FIG. 18 is executed, whereby the class and the prediction tap of the displayed pixels are output. do. The grade output by the classification circuit 212 is applied to the address terminal AD of both the prediction tap memory 147 and the leader data memory 148. The predictive tap output from the predictive tap generator 145 is applied to the predictive tap memory 147 where the tap is stored at an address corresponding to a rating supplied from the classification circuit 212.

지도자 데이터 샘플링 회로(146)에서는 분류 회로(212) 및 예측 탭 발생 회로(145)에서 표시된 픽셀이 되는 HD 픽셀이 그에 공급된 HD 영상으로부터 추출된다. 추출된 탭은 공통된 어드레스 위치에서 계산된 등급과 함께 지도자 데이터로서 지도자 데이터 메모리(148)에 저장된다. 처리 과정은 학습을 목적으로 장치(210)에 입력된 HD 영상의 모든 HD 픽셀에 대해 반복된다. 예측 탭 메모리(147)와 지도자 데이터 메모리(148)는 각각 같은 어드레스 위치에 복수의 종류의 정보를 저장하도록 구성되므로, 동일한 등급으로 분류되는 복수의 학습 데이터(x) 및 지도자 데이터(y)는 기본적으로 같은 어드레스 위치에 저장될 수 있다.In the leader data sampling circuit 146, an HD pixel that becomes the pixel displayed by the classification circuit 212 and the prediction tap generator 145 is extracted from the HD image supplied thereto. The extracted taps are stored in leader data memory 148 as leader data with the grade calculated at a common address location. The process is repeated for all HD pixels of the HD image input to the device 210 for learning purposes. Since the prediction tap memory 147 and the leader data memory 148 are each configured to store a plurality of kinds of information at the same address location, the plurality of learning data x and leader data y classified into the same class are basically used. Can be stored at the same address location.

계산기(149)는 예측 탭 메모리(147)나 지도자 데이터 메모리(148)로부터 각각 같은 어드레스 위치에 저장된 학습 데이터인 예측 탭이나 지도자 데이터인 HD 픽셀 데이터를 판독한다. 이 데이터를 근거로, 계산기(149)는 예를 들면, 예측값과 지도자 데이터 사이의 에러를 최소화하는 최소 제곱법에 의해 예측 계수를 계산한다. 다른 말로 하면, 계산기(109)에서는 상술된 예측식인 상기 수학식 10이 등급으로 형성되고, 예측 계수는 이들 수학식을 풀 때 구해진다. 예측 계수는 도 18의 계수 ROM(207)에서 등급에 대응하는 어드레스 위치에 저장된다. 독립적인 상기 수학식 10은 예측 탭이 같더라도 각각의 "일치하는" 픽셀(Y44)과 도 19에서의 픽셀 (Y45), (Y54), 또는 (Y55)와 같이 각각의 "일치하지 않는" HD 픽셀에 대해 풀려짐을 주목한다.The calculator 149 reads HD pixel data which is prediction taps or leader data which are learning data stored at the same address position from the prediction tap memory 147 or the leader data memory 148, respectively. Based on this data, the calculator 149 calculates the prediction coefficients by, for example, a least square method that minimizes the error between the prediction value and the leader data. In other words, in the calculator 109, the above equation (10), which is the above-described prediction equation, is formed into a grade, and the prediction coefficient is obtained when solving these equations. The prediction coefficients are stored at address locations corresponding to the ranks in the coefficient ROM 207 of FIG. Matching each of the "as independent pixels (Y 45), (Y 54 ), or (Y 55) in the equation (10) is the prediction tap are each also as" matching "pixels (Y 44) 19 be the same Note that it is "unlocked" for HD pixels.

도 19의 예에서는 각 표시된 HD 픽셀에 대해 9개의 등급 탭과 25개의 예측 탭이 형성되고, 그에 따라서 분류 및 적응 처리(이후 분류 적응 처리라 칭하여지는)가 실행된다. 그러나, 영상 영역의 모서리 부근의 표시된 HD 픽셀에 대해, 9개 등급 탭과 25개 예측 탭의 가정은 더 이상 유효하지 않다. 그래서, 이들 HD 픽셀에 대해 다른 배열의 등급 및 예측 탭을 형성하고, 이러한 특수 경우를 포함하도록 상술된 바와 유사한 방법으로 예측 계수를 계산하는 것이 바람직하다.In the example of Fig. 19, nine grade taps and 25 prediction taps are formed for each displayed HD pixel, and classification and adaptation processing (hereinafter referred to as classification adaptive processing) is executed accordingly. However, for the indicated HD pixels near the edges of the image area, the assumptions of the 9 rank taps and 25 prediction taps are no longer valid. Thus, it is desirable to form different arrangements of rank and prediction taps for these HD pixels and to calculate the prediction coefficients in a similar manner as described above to include this special case.

따라서, 상술된 분류-적응 처리는 연관된 모션 벡터에 따라 HD 픽셀이 그렇지 않은 경우 생성되지 않을 때 해상도 생성 메모리(15i)에서 픽셀 생성을 보충하는데 사용된다. 예를 들면, 장면 변화에 이어서, 모션만에 기초하여 SD 영상으로부터 HD 영상을 발생하는 것은 수 개의 모션 프레임이 걸리게 된다. 그래서, 장면 변화에 이어지는 초기 프레임에서, 분류 적응 절차가 때때로 사용될 수 있다.Thus, the classification-adaptation process described above is used to compensate for pixel generation in resolution generation memory 15i when HD pixels are not otherwise generated according to the associated motion vector. For example, following scene changes, generating an HD video from an SD video based on motion only takes several motion frames. So, in the initial frame following the scene change, a classification adaptation procedure can sometimes be used.

모션 벡터에 따른 데이터 기록Data recording according to the motion vector

도 4의 실시예와 연관되어 상술된 바와 같이, 실질적으로 영상 모션에 대응하는 위치에서 픽셀을 생성하기 위해서는 각 모션 벡터가 인접한 고해상도 픽셀의 중간점 사이의 간격에 대응하는 거리로 반올림된다. 그래서, 예를 들어, HD 픽셀 데이터가 SD 픽셀 데이터로부터 발생되는 실시예에서, 소정의 프레임의 모션 벡터가 수직(또는 수평) 방향에서 0.5 및 1.5 HD 픽셀 공간 사이의 모션에 대응하면, 모션 벡터는 수직(또는 수평) 방향에서 하나의 HD 픽셀 간격으로 반올림되고 어드레스 포인터는 새로운 SD 데이터를 메모리에 기록하도록 그에 따라 이동된다. 다른 방법으로, 어드레스 포인터는 모션 벡터가 HD 픽셀 간격의 정수 배수(즉, SD 픽셀 간격의 1/2의 정수 배수)와 대략 같거나 그 중 소정의 범위내에 있는 경우에만 이동되게 할 수 있다. 이 경우에는 어드레스 포인터에서의 변화가 없어 해상도 생성 메모리(15i)에서 HD 픽셀 데이터에 대해 더 자주 빈 어드레스가 주어지는 예가 많이 있다. 그래서, 빈 어드레스는 보간에 의해 또는 분류 적응 처리를 통해 채워질 수 있다.As described above in connection with the embodiment of FIG. 4, each motion vector is rounded to a distance corresponding to the distance between midpoints of adjacent high resolution pixels in order to generate pixels at positions corresponding substantially to the image motion. So, for example, in an embodiment where HD pixel data is generated from SD pixel data, if the motion vector of a given frame corresponds to motion between 0.5 and 1.5 HD pixel spaces in the vertical (or horizontal) direction, then the motion vector is It is rounded up by one HD pixel interval in the vertical (or horizontal) direction and the address pointer is moved accordingly to write new SD data to memory. Alternatively, the address pointer may be moved only if the motion vector is approximately equal to or within a predetermined range of integer multiples of the HD pixel interval (i.e., integer multiple of one half of the SD pixel interval). In this case, there are many examples in which there is no change in the address pointer so that the empty address is given more frequently for the HD pixel data in the resolution generating memory 15i. Thus, the empty address can be filled by interpolation or through classification adaptive processing.

그에 따라 고해상도 픽셀 데이터를 생성하도록 모션 벡터를 반올림하는 또 다른 방법으로서, 다른 접근법은 모션 벡터의 반올림 에러를 줄이도록 해상도 생성 메모리(15) 또는 (15i)내에서 더 높은 해상도 저장 어레이(확대된 억세스 영역)을 생성하는 것이다. 더 높은 해상도 프레임이 발생될 때, 픽셀 데이터는 실현될 수 있는 것 만큼 고해상도는 아니지만 고해상도 영상을 발생하기 위해 일부 데이터를 스킵함으로서, 예를 들면 번갈아 있는 행과 번갈아 있는 열을 스킵함으로서 판독될 수 있다.As another method of rounding the motion vector to produce high resolution pixel data accordingly, another approach is to use a higher resolution storage array (enlarged in the resolution generating memory 15 or 15 i ) to reduce the rounding error of the motion vector. Access area). When a higher resolution frame is generated, pixel data may be read by skipping some data to produce a high resolution image, but not alternating rows and alternating columns, for example, but not as high resolution as can be realized. .

나중 접근법을 설명하기 위해, SD 영상을 HD 영상으로 변환하도록 설계된 상기의 해상도 변환기(34)는 수평 및 수직 방향으로 모두 SD 영상의 4배인 픽셀 저장 위치를 갖춘, 즉 SD 영상과 비교해 16배인 픽셀 강도를 갖는 해상도 변환 메모리(15i')를 사용함으로서 수정될 수 있다. 이 접근법은 메모리(15i')가 PH' >= 4PH 열과 PV' >= 4PV 행으로 설계되는 도 21에서 설명되고, 여기서 PH 및 PV는 각각 SD 프레임의 수평 및 수직 방향에서의 픽셀수이다. 억세스 영역(15ai)은 4PH x 4PV 픽셀로 설계된다. 상대 어드레스 포인터(RP)는 기본적으로 상술된 바와 같은 방법으로 메모리(15i)의 더 큰 메모리 영역내에서 억세스 영역(15ai)의 정확한 위치를 제어한다.To illustrate the later approach, the resolution converter 34, designed to convert SD images to HD images, has a pixel storage location of four times the SD image in both the horizontal and vertical directions, i.e., 16 times the pixel intensity compared to the SD image. It can be corrected by using a resolution conversion memory 15 i ′ having. This approach is illustrated in FIG. 21 where the memory 15 i 'is designed with P H '> = 4P H columns and P V '> = 4P V rows, where P H and P V are the horizontal and vertical directions of the SD frame, respectively. The number of pixels in. The access area 15a i is designed with 4P H x 4P V pixels. The relative address pointer R P basically controls the exact position of the access area 15a i in the larger memory area of the memory 15 i in the manner described above.

SD 픽셀은 모션 벡터에 따라 상대 어드레스 포인터를 이동시킨 이후에 수평 및 수직 방향으로 억세스 영역(15ai')에서 매 네 번째 위치에 기록된다. 모션 벡터는 상대 어드레스 포인터를 결정하기 이전에 SD 픽셀 간격의 1/4에 대응하는 유닛으로 반올림된다. 그러나, 이러한 경우에서도 SD 영상의 모션 벡터의 x 및 y 성분이 SD 픽셀 간격의 1/4의 정수 배수로부터 상당히 벗어나면, 부가적인 SD 픽셀은 메모리에 기록되지 않는다. 예를 들어, 모션 벡터가 SD 픽셀 간격의 1/8 보다 작은 것으로 결정되면, 새로운 고해상도 프레임은 이전 고해상도 프레임과 동일하게 형성되고, 새로운 SD 픽셀 데이터는 기록되지 않는다.The SD pixel is written every fourth position in the access area 15a i 'in the horizontal and vertical directions after moving the relative address pointer according to the motion vector. The motion vector is rounded up to a unit corresponding to one quarter of the SD pixel interval before determining the relative address pointer. However, even in this case, if the x and y components of the motion vector of the SD image deviate significantly from an integer multiple of 1/4 of the SD pixel interval, no additional SD pixels are written to the memory. For example, if the motion vector is determined to be less than 1/8 of the SD pixel interval, a new high resolution frame is formed equal to the previous high resolution frame and no new SD pixel data is recorded.

도 22 내지 도 24는 확장된 억세스 영역 접근법을 더 설명한다. 도 22는 픽셀(PSD)의 SD 픽셀 배열 부분을 설명한다. 물체(OBN-4)는 프레임(N-4)내의 픽셀로 형성되는 것으로 가정된다. 물체의 위치는 프레임(N)에서 물체(OBN)의 위치에 이를 때까지 프레임에서 프레임으로 이동된다. 영상을 형성하는 픽셀은 바로 상기에서 설명된 바와 같이 4PH x 4PV의 영역으로 확장된 억세스 영역에 기록된다. 저장 상태는 도 23의 억세스 영역(15ai')에 도시되고, 여기서 다른 프레임의 픽셀은 다른 빗금 처리로 도시된다. 프레임 대 프레임 모션에 대응하는 모션 벡터도 또한 도 23에서 작성된다. 도 24는 도 23의 메모리 저장 위치 또는 셀(cell)(MC)의 확대도이다. 프레임(N-4)에서 프레임(N)으로의 4개 프레임의 모션 이후에, 많은 저장 위치는 빈 상태로 유지된다. 이들은 보간에 의해 또한 분류 적응 처리 등에 의해 채워질 수 있다. 또 다른 옵션으로, 빈 위치는 가장 근접한 저장 위치와 같은 픽셀값을 빈 위치에 간단히 삽입함으로서 채워질 수 있다.22-24 further illustrate the extended access area approach. 22 illustrates an SD pixel array portion of the pixel P SD . The object OB N-4 is assumed to be formed of pixels in the frame N-4. The position of the object is moved from frame to frame until it reaches the position of object OB N in frame N. The pixels forming the image are recorded in the access area extended to the area of 4P H x 4P V as described above. The storage state is shown in the access area 15a i ′ of FIG. 23, where pixels of different frames are shown with different hatching processes. Motion vectors corresponding to frame to frame motion are also created in FIG. 23. 24 is an enlarged view of a memory storage location or cell MC of FIG. 23. After the motion of four frames from frame N-4 to frame N, many storage locations remain empty. They can be filled by interpolation and also by classification adaptive processing or the like. Alternatively, the bin position can be filled by simply inserting a pixel value, such as the closest storage location, into the bin position.

도 23 및 도 24에 도시된 점선은 번갈아 있는 픽셀 데이터의 행과 열을 나타낸다. 억세스 영역(15ai')으로부터 HD 픽셀 데이터를 판독하기 위해서는 매 다른 행과 매 다른 열의 데이터, 즉 점선에 따른 저장 위치로부터의 데이터를 판독하는 것으로 충분하다. 이 방법은 단지 저장 위치의 2PH x 2PV 어레이만을 갖춘 억세스 영역을 사용함으로서 실현가능한 것보다 높은 해상도를 제공한다.Dotted lines shown in Figs. 23 and 24 represent alternating rows and columns of pixel data. To read the HD pixel data from the access area 15a i ′, it is sufficient to read the data in every other row and every other column, ie from the storage location along the dotted line. This method provides higher resolution than is possible by using an access area with only a 2P H x 2P V array of storage locations.

도 27을 참고로, 해상도 변환기(34)의 또 다른 실시예(34')가 도시된다. 이 실시예는 각 프레임의 완전한 영상이 프레임에서 프레임으로 같은 양만큼 함께 이동되는 경우를 위해 설계된 것임을 제외하면, 도 12와 유사하다. 즉, 해상도 변환기는 기능적으로 도 4의 왜곡 정정기(4a)와 유사하다. 그래서, 스위치(22)나 버퍼 메모리(23)가 없는 단일 고해상도 영상 발생기(41)가 고해상도 물체 발생기(411)-(41M) 대신에 사용되고, 영역 분할기(21)와 조합기(24)가 제거된다. 다른 모든 특성은 도 12의 실시예에 대해 상술된 바와 같다.Referring to FIG. 27, another embodiment 34 ′ of the resolution converter 34 is shown. This embodiment is similar to FIG. 12 except that the complete image of each frame is designed for the case where the same amount of motion is moved from frame to frame together. That is, the resolution converter is functionally similar to the distortion corrector 4a of FIG. Thus, a single high resolution image generator 41 without switch 22 or buffer memory 23 is used in place of the high resolution object generators 411-41M, and the area divider 21 and combiner 24 are removed. All other features are as described above with respect to the embodiment of FIG. 12.

해상도 생성 메모리(15) 또는 (15i)를 사용하는 본 발명의 상술된 실시예 각각에서, 이전고해상도 프레임 데이터가 이미 해상도 생성 메모리에서 생성되었을 때, 다음 프레임으로부터, 즉 현재 프레임 메모리(11A)로부터의 데이터 저장은 모션 벡터에 따라 어드레스 포인터를 이동시키고 이전 데이터 일부를 오버라이트함으로서 이루어지는 것으로 설명되었다. 그 접근법에 대한 다른 방법으로서, 이전 프레임의 모션 벡터는 저장되어 어느 모션 벡터가 하나의 고해상도 픽셀 간격에 대응하는 거리에 가장 가까운 x 및 y 성분을 갖는가를 결정하도록 현재 프레임의 모션 벡터와 비교되고, 그에 따라서 데이터가 저장된다. 다른 말로 하면, 더 작은 반올림 에러를 갖는 모션 벡터와 연관된 데이터가 저장되도록 선택된다. 도 23의 메모리에서, 이는 SD 픽셀 간격의 1/4의 정부 배수에 가장 가까운 모션 벡터와 연관된 데이터를 선택하는 것을 의미한다.In each of the above-described embodiments of the present invention using the resolution generating memory 15 or 15 i , when the previous high resolution frame data has already been generated in the resolution generating memory, from the next frame, that is, from the current frame memory 11A. The data storage of is described by moving the address pointer according to the motion vector and overwriting some of the previous data. As another method for that approach, the motion vector of the previous frame is stored and compared with the motion vector of the current frame to determine which motion vector has the x and y components closest to the distance corresponding to one high resolution pixel interval, The data is stored accordingly. In other words, data associated with a motion vector with a smaller rounding error is selected to be stored. In the memory of FIG. 23, this means selecting data associated with the motion vector closest to the nearest multiple of one quarter of the SD pixel interval.

본 발명은 특히 양호한 실시예와 연관되어 도시되고 설명되지만, 종래 기술에 숙련된 자는 본 발명의 의도 및 범위에서 벗어나지 않고 설명된 실시예에 다양한 변경 및 수정이 이루어질 수 있음을 용이하게 이해하게 된다. 예를 들면, 설명된 실시예는 에일리어싱 왜곡을 줄이고 선택적으로 고해상도 영상을 발생하도록 설명되지만, 본 발명은 또한 영상을 확장시키는데 사용될 수 있다. 또한, 상기의 처리는 프레임 대 프레임에 기초하여 데이터를 처리하는 것으로 설명되지만, 처리 과정은 필드(field) 유닛과 같이 프레임의 일부를 처리하는데 사용될 수 있다. 또한, 영상은 액정 디스플레이와 같이 CRT 이외의 다른 디스플레이상에 디스플레이될 수 있다. 또한, 수신된 영상 신호는 디지탈 영상 신호가 될 수 있다. 이 경우에는 A/D 변환기(예를 들면, 도 1이나 도 11의)가 제거될 수 있다. 더욱이, 본 발명은 비월 주사 영상을 순차 주사 영상으로 변환하는데 사용될 수 있다. 따라서, 이러한 변경 및 수정과 다른 변경 및 수정은 첨부된 청구항에 의해 정의된 본 발명의 범위 내에 포함되도록 의도된다.While the invention has been shown and described in connection with particularly preferred embodiments, those skilled in the art will readily appreciate that various changes and modifications may be made to the described embodiments without departing from the spirit and scope of the invention. For example, although the described embodiment is described to reduce aliasing distortion and selectively generate high resolution images, the present invention can also be used to expand the images. Also, while the above process is described as processing data based on frame to frame, the process can be used to process a portion of a frame, such as a field unit. The image can also be displayed on a display other than a CRT, such as a liquid crystal display. In addition, the received video signal may be a digital video signal. In this case, the A / D converter (for example in FIG. 1 or FIG. 11) can be removed. Moreover, the present invention can be used to convert interlaced scanned images into sequential scanned images. Accordingly, such changes and modifications and other variations and modifications are intended to be included within the scope of the invention as defined by the appended claims.

도 1은 본 발명에 따른 텔레비젼 수신기의 블록도.1 is a block diagram of a television receiver according to the present invention;

도 2A 내지 도 2B 및 도 3은 본 발명에 따른 픽셀 데이터 생성을 설명하는 도면들.2A-2B and 3 illustrate pixel data generation in accordance with the present invention.

도 4는 도 1에 도시된 왜곡 정정기(distortion corrector)의 블록도.4 is a block diagram of a distortion corrector shown in FIG.

도 5는 영상에 대한 모션 벡터를 결정하는 방법을 설명하는 그래프.5 is a graph illustrating a method of determining a motion vector for an image.

도 6 내지 도 8은 해상도 생성 메모리 내에서의 데이터 저장을 설명하는 도면.6 to 8 illustrate data storage in a resolution generating memory.

도 9는 고해상도 프레임들을 생성하기 위한 루틴을 도시하는 흐름도.9 is a flowchart illustrating a routine for generating high resolution frames.

도 10은 왜곡 정정기의 블록도.10 is a block diagram of a distortion corrector.

도 11은 본 발명에 따른 수신기의 또 다른 실시예의 블록도.11 is a block diagram of another embodiment of a receiver in accordance with the present invention.

도 12는 도 11에 도시된 수신기 내에서의 해상도 변환기의 블록도.12 is a block diagram of a resolution converter in the receiver shown in FIG.

도 13은 도 12에 도시된 변환기의 해상도 생성 메모리의 데이터 저장 위치를 도시하는 도면.FIG. 13 is a diagram showing a data storage location of a resolution generating memory of the converter shown in FIG. 12; FIG.

도 14는 해상도 변환기의 메모리 내에 영상 데이터를 기록하는 루틴을 도시하는 흐름도.Fig. 14 is a flowchart showing a routine for recording image data in the memory of the resolution converter.

도 15는 영상의 모션 벡터에 따른 해상도 변환기에서의 영상 데이터 저장을 설명하는 도면.FIG. 15 is a diagram illustrating image data storage in a resolution converter according to a motion vector of an image. FIG.

도 16은 해상도 변환기내에서 해상도 변환 메모리로부터 영상 데이터를 판독하는 루틴을 설명하는 흐름도.Fig. 16 is a flowchart for explaining a routine of reading image data from a resolution converting memory in a resolution converter.

도 17은 고선명 픽셀 데이터를 발생시키기 위한 처리 과정을 도시하는 흐름도.Fig. 17 is a flowchart showing a processing procedure for generating high definition pixel data.

도 18은 예측 계수를 사용해 표준 선명 영상 데이터로부터 고선명 영상 데이터를 발생하는 회로의 블록도.Fig. 18 is a block diagram of a circuit for generating high definition image data from standard definition image data using prediction coefficients.

도 19는 등급 탭(tap)들 및 예측 탭들을 설명하는 도면.FIG. 19 illustrates rank taps and prediction taps. FIG.

도 20은 예측 계수들을 결정하기 위한 학습 디바이스의 블록도.20 is a block diagram of a learning device for determining prediction coefficients.

도 21은 확장된 억세스 영역을 갖는 해상도 생성 메모리 내에서의 데이터 저장을 설명하는 도면.FIG. 21 illustrates data storage in a resolution generating memory having an extended access area. FIG.

도 22는 영상의 이동을 프레임에 따라 설명하는 도면.22 is a diagram illustrating movement of an image in accordance with a frame.

도 23 및 도 24는 도 22에 도시된 영상의 픽셀 데이터 저장을 설명하는 도면.23 and 24 are diagrams for explaining pixel data storage of the image shown in FIG. 22;

도 25는 CRT 디스플레이의 수평 주사선들을 설명하는 도면.25 illustrates horizontal scanning lines of a CRT display.

도 26은 수직 방향으로 영상 신호의 언더샘플링(undersampling)을 설명하는 도면.FIG. 26 is a diagram illustrating undersampling of an image signal in a vertical direction. FIG.

도 27은 본 발명에 따른 또 다른 해상도 변환기의 블록도.27 is a block diagram of another resolution converter in accordance with the present invention.

*도면의 주요부분에 대한 부호의 설명** Description of the symbols for the main parts of the drawings *

1 : 동조기 2 : 저역 통과 필터(LPF)1: tuner 2: low pass filter (LPF)

3 : 아날로그 대 디지털 변환기 4 : 왜곡 정정기3: analog to digital converter 4: distortion corrector

5 : Y/C 분리기 6 : 디지털 대 아날로그 변환기5: Y / C separator 6: digital to analog converter

7 : 음극선관(CRT) 11 : 프레임 메모리7: cathode ray tube (CRT) 11: frame memory

101, 102, 103: 픽셀 데이터 12: 검출기101, 102, 103: pixel data 12: detector

13 : 장면 변화 검출기 14: 제어기13: scene change detector 14: controller

Claims (56)

제 1 영상 신호를 제 2 영상 신호로 변환하기 위한 영상 신호 변환 장치로서, 상기 제 1 및 제 2 영상 신호들은 복수의 다른 프레임들의 화상들을 포함하는, 상기 영상 신호 변환 장치에 있어서,An image signal conversion apparatus for converting a first image signal into a second image signal, wherein the first and second image signals include images of a plurality of different frames. 제 1 프레임과 제 2 프레임 사이에서 상기 제 1 영상 신호의 모션을 검출하도록 동작가능한 모션 검출기와,A motion detector operable to detect motion of said first image signal between a first frame and a second frame; 상기 검출된 모션에 대응하는 위치에서의 픽셀의 가정에 기초하여 상기 제 2 영상 신호를 생성하기 위한 처리 회로를 포함하는 영상 신호 변환 장치.And a processing circuit for generating the second image signal based on the assumption of the pixel at the position corresponding to the detected motion. 제 1 항에 있어서,The method of claim 1, 상기 제 2 영상 신호는 상기 제 1 영상 신호보다 높은 해상도인 영상 신호 변환 장치.And the second video signal has a higher resolution than the first video signal. 제 1 항에 있어서,The method of claim 1, 상기 제 2 영상 신호는 상기 제 1 영상 신호보다 많은 수의 픽셀들의 픽셀 데이터를 갖는 영상 신호 변환 장치.And the second image signal has pixel data of a greater number of pixels than the first image signal. 제 3 항에 있어서,The method of claim 3, wherein 상기 처리 회로가 상기 제 1 영상 신호와 연관된 주사선(scanning line)들에 수직인 방향으로 상기 제 1 영상 신호보다 많은 픽셀들의 픽셀 데이터를 갖는 상기 제 2 영상 신호를 생성하는 영상 신호 변환 장치.And the processing circuit generates the second image signal having pixel data of more pixels than the first image signal in a direction perpendicular to the scanning lines associated with the first image signal. 제 1 항에 있어서,The method of claim 1, 상기 제 1 및 제 2 프레임들은 인접한 프레임들인 영상 신호 변환 장치.And the first and second frames are adjacent frames. 제 1 항에 있어서,The method of claim 1, 상기 복수의 다른 프레임들의 화상들 각각은 완전한 프레임의 화상을 포함하는 영상 신호 변환 장치.And each of the pictures of the plurality of different frames comprises a picture of a complete frame. 제 1 항에 있어서,The method of claim 1, 상기 복수의 다른 프레임들의 화상들 각각은 각 프레임의 일부 화상을 포함하는 영상 신호 변환 장치.And each of the images of the plurality of different frames comprises a portion of each frame. 제 1 항에 있어서,The method of claim 1, 상기 제 2 영상 신호의 고주파수 성분들을 필터링하기 위한 저역 통과 필터(low pass filter)를 더 포함하는 영상 신호 변환 장치.And a low pass filter for filtering high frequency components of the second image signal. 제 1 항에 있어서,The method of claim 1, 상기 모션 검출기는 상기 제 1 영상 신호의 픽셀 크기보다 미세한 양만큼 상기 제 1 영상 신호의 모션을 검출하며, 상기 처리 회로는The motion detector detects motion of the first image signal by an amount finer than the pixel size of the first image signal, and the processing circuitry 상기 제 1 영상 신호의 화상을 저장하고 상기 제 1 영상 신호의 하나의 화상 내의 데이터의 양보다 큰 저장 용량을 갖는 해상도 생성 메모리(resolution creating memory)와,A resolution creating memory for storing an image of the first image signal and having a storage capacity greater than the amount of data in one image of the first image signal; 상기 해상도 생성 메모리에 상기 제 1 영상 신호 데이터의 기록을 제어하고 상기 제 1 영상 신호보다 높은 품질을 갖는 상기 메모리로부터의 새로운 영상 신호의 데이터 판독을 제어하도록 동작가능한 제어기로서, 상기 제어기는 상기 제 1 영상 신호의 검출된 모션에 따라 상기 제 1 영상 신호 데이터를 상기 메모리에 기록하는, 상기 제어기를 포함하는 영상 신호 변환 장치.A controller operable to control the writing of the first image signal data to the resolution producing memory and to control the data reading of a new image signal from the memory having a higher quality than the first image signal, the controller being the first And the controller for recording the first image signal data into the memory in accordance with the detected motion of the image signal. 제 9 항에 있어서,The method of claim 9, 상기 제어기는 상기 제 2 영상 신호로서 상기 새로운 영상 신호의 판독을 제어하는 영상 신호 변환 장치.And the controller controls reading of the new video signal as the second video signal. 제 9 항에 있어서,The method of claim 9, 상기 새로운 영상 신호를 필터링하기 위한 저역 통과 필터와,A low pass filter for filtering the new video signal; 상기 필터링된 새로운 영상 신호를 상기 제 1 영상 신호의 하나의 화상 내의 픽셀 수와 같은 수의 픽셀로 형성된 상기 제 2 영상 신호로 변환하고, 상기 제 1 영상 신호보다 적은 에일리어싱 왜곡(aliasing distortion)을 갖는 상기 제 2 영상 신호를 출력하기 위한 출력 유닛을 더 포함하는 영상 신호 변환 장치.Converting the filtered new video signal into the second video signal formed of the same number of pixels as the number of pixels in one image of the first video signal, and having less aliasing distortion than the first video signal. And an output unit for outputting the second image signal. 제 9 항에 있어서,The method of claim 9, 상기 제 1 영상 신호의 장면 변화를 검출하고 그에 따라 장면 변화 신호를 발생시키는 장면 변화 검출기를 더 포함하고, 상기 제어기는 상기 메모리의 저장 위치들의 값들을 소정의 값들로 리셋(reset)하도록 상기 장면 변화 신호에 응답하는 영상 신호 변환 장치.A scene change detector for detecting a scene change of the first image signal and generating a scene change signal accordingly, wherein the controller changes the scene change to reset values of storage locations of the memory to predetermined values; Video signal conversion device responsive to the signal. 제 9 항에 있어서,The method of claim 9, 상기 제 1 영상 신호 중 상기 제 1 프레임의 데이터는 상기 해상도 생성 메모리의 제 1 저장 위치에 저장되도록 야기되고,The data of the first frame of the first image signal is caused to be stored in a first storage location of the resolution generating memory, 상기 제 1 영상 신호 중 상기 제 2 프레임의 데이터는 상기 제 1 프레임과 제 2 프레임 사이에서 상기 제 1 영상 신호의 모션에 대응하는 양만큼 상기 제 1 저장 위치들에 대해 각각 시프팅된 상기 메모리의 제 2 저장 위치들에 저장되도록 야기되고, 그에 의해 상기 제 1 프레임 데이터와 상기 제 2 프레임 데이터 모두를 포함하는 고품질의 프레임 데이터를 생성하는 영상 신호 변환 장치.The data of the second frame of the first image signal may be respectively shifted with respect to the first storage positions by an amount corresponding to the motion of the first image signal between the first frame and the second frame. An image signal conversion apparatus caused to be stored in second storage locations, thereby generating high quality frame data including both the first frame data and the second frame data. 제 13 항에 있어서,The method of claim 13, 상기 제 1 프레임 데이터는 제 1 억세스 영역내의 상기 해상도 생성 메모리에 저장되고,The first frame data is stored in the resolution generating memory in a first access area, 상기 제 2 프레임 데이터는 상기 제 1 프레임 데이터가 모두 삭제되지 않고 상기 제 1 억세스 영역과 같은 크기의 제 2 억세스 영역에 저장되도록 야기되고, 상기 제 2 억세스 영역은 상기 검출된 모션에 대응하여 상기 제 1 억세스 영역에 대해 쉬프트되며,The second frame data is caused to be stored in a second access area having the same size as the first access area without all of the first frame data being deleted, and the second access area corresponds to the detected motion. Shifted for 1 access area, 상기 제어기는 상기 제 1 및 제 2 억세스 영역들의 위치들을 결정하는 상대 어드레스 포인터를 상기 메모리에 제공하도록 동작하는 영상 신호 변환 장치.And the controller is operative to provide a relative address pointer to the memory that determines locations of the first and second access regions. 제 9 항에 있어서,The method of claim 9, 상기 처리 회로는 상기 제 1 영상 신호의 데이터가 저장되지 않은 상기 메모리에서 빈 위치(empty position)들을 검출하는 검출기와,The processing circuit includes a detector for detecting empty positions in the memory in which data of the first image signal is not stored; 상기 빈 위치들에서의 픽셀 데이터를 발생시키기 위한 픽셀 발생기를 포함하는 영상 신호 변환 장치.And a pixel generator for generating pixel data at the empty positions. 제 15 항에 있어서,The method of claim 15, 상기 검출기는 상기 해상도 생성 메모리 중 어느 저장 위치들이 상기 제 1 영상 신호의 저장된 영상 데이터를 포함하는지를 나타내는 플래그(flag)들을 저장하기 위한 플래그 메모리(flag memory)를 포함하는 영상 신호 변환 장치.And the detector comprises a flag memory for storing flags indicating which storage locations of the resolution generating memory contain stored image data of the first image signal. 제 15 항에 있어서,The method of claim 15, 상기 픽셀 발생기는 상기 빈 위치들의 이웃하는 저장 위치들에 이미 저장된 픽셀 데이터 사이의 보간에 의해 상기 빈 위치들에 대응하는 위치들에서의 픽셀들에 대해 영상 값들을 결정하도록 동작하는 영상 신호 변환 장치.And the pixel generator is operative to determine image values for pixels at locations corresponding to the bin positions by interpolation between pixel data already stored at neighboring storage positions of the bin positions. 제 15 항에 있어서,The method of claim 15, 상기 픽셀 발생기는 상기 제 1 영상 신호의 특징들을 검출하고 상기 검출된 특징들에 대응하는 등급(class)을 결정하는 결정기와,The pixel generator is configured to detect features of the first image signal and determine a class corresponding to the detected features; 각 등급에 대한 예측 데이터를 저장하기 위한 예측 데이터 메모리와,Prediction data memory for storing prediction data for each class; 상기 결정된 등급에 대응하는 상기 예측 데이터 메모리로부터 판독된 예측 데이터에 따라 빈 저장 위치에 대해 상기 픽셀 데이터를 발생시키기 위한 회로를 포함하는 영상 신호 변환 장치.And circuitry for generating the pixel data for an empty storage location in accordance with the predictive data read from the predictive data memory corresponding to the determined class. 제 18 항에 있어서,The method of claim 18, 각 등급에 대한 상기 예측 데이터는 적어도 상기 제 1 신호보다 높은 해상도를 갖는 학습 영상 신호(learning image signal)를 사용하여 학습함으로써 생성되는 영상 신호 변환 장치.And the prediction data for each class is generated by learning using a learning image signal having a higher resolution than at least the first signal. 제 1 영상 신호를 제 2 영상 신호로 변환하기 위한 영상 신호 변환 장치로서, 상기 제 1 및 제 2 영상 신호들은 복수의 다른 프레임들의 화상들을 각각 포함하는 상기 영상 신호 변환 장치에 있어서,An image signal conversion apparatus for converting a first image signal into a second image signal, wherein the first and second image signals each include images of a plurality of different frames. 적어도 각 프레임의 제 1 및 제 2 구역(region)들 내의 제 1 프레임과 제 2 프레임 사이에서 상기 제 1 영상 신호의 모션을 검출하도록 동작가능한 모션 검출기와,A motion detector operable to detect motion of said first image signal between at least a first frame and a second frame in at least first and second regions of each frame; 적어도 상기 검출된 모션에 기초하여 상기 제 1 영상 신호의 화상 중 적어도 제 1 및 제 2 영상 영역들을 정의하기 위한 영역 분할기(area divider)와,An area divider for defining at least first and second image regions of the image of the first image signal based at least on the detected motion; 상기 각각의 제 1 및 제 2 영상 영역들 내의 상기 검출된 모션에 대응하는 위치들에서의 픽셀들의 가정에 기초하여 상기 제 2 영상 신호의 제 1 및 제 2 영상 영역들을 생성하기 위한 처리 회로와,Processing circuitry for generating first and second image regions of the second image signal based on assumptions of pixels at positions corresponding to the detected motion in the respective first and second image regions; 복합 영상 신호를 형성하도록 상기 제 2 영상 신호의 상기 제 1 및 제 2 영상 영역들을 결합하기 위한 결합기를 포함하는 영상 신호 변환 장치.And a combiner for combining the first and second image regions of the second image signal to form a composite image signal. 제 20 항에 있어서,The method of claim 20, 상기 제 2 영상 신호는 상기 제 1 영상 신호보다 높은 해상도인 영상 신호 변환 장치.And the second video signal has a higher resolution than the first video signal. 제 20 항에 있어서,The method of claim 20, 상기 제 2 영상 신호는 상기 제 1 영상 신호보다 많은 수의 픽셀들의 픽셀 데이터를 갖는 영상 신호 변환 장치.And the second image signal has pixel data of a greater number of pixels than the first image signal. 제 20 항에 있어서,The method of claim 20, 상기 제 2 영상 신호는 상기 제 1 영상 신호와 연관된 주사선들에 수직인 방향으로 상기 제 1 영상 신호보다 많은 픽셀들의 픽셀 데이터로 생성되는 영상 신호 변환 장치.And the second image signal is generated as pixel data of more pixels than the first image signal in a direction perpendicular to the scan lines associated with the first image signal. 제 20 항에 있어서,The method of claim 20, 상기 제 2 영상 신호를 필터링하기 위한 필터를 더 포함하는 영상 신호 변환 장치.And a filter for filtering the second image signal. 제 20 항에 있어서,The method of claim 20, 상기 모션 검출기는 상기 제 1 영상 신호의 픽셀 크기보다 미세한 양만큼 상기 제 1 영상 신호의 모션을 검출하고, 상기 처리 회로는 상기 제 1 신호의 상기 제 1 및 제 2 영상 영역들 상에서 개별 처리 동작들을 실행하기 위한 제 1 및 제 2 회로부들을 포함하며,The motion detector detects motion of the first image signal by an amount finer than the pixel size of the first image signal, and the processing circuitry performs individual processing operations on the first and second image regions of the first signal. First and second circuit portions for execution, 각 처리부는 상기 제 1 영상 신호의 각각의 영상 영역 내에 데이터를 저장하고 상기 제 1 영상 신호의 하나의 화상 내의 데이터의 양보다 큰 저장 용량을 갖는 해상도 생성 메모리와,Each processing section stores data in each image region of the first image signal and has a storage capacity having a storage capacity larger than the amount of data in one image of the first image signal; 상기 해상도 생성 메모리에 제 1 영상 신호 데이터를 기록하는 것과, 상기 제 1 영상 신호보다 높은 품질을 갖는 상기 메모리로부터 새로운 영상 신호의 데이터 판독하는 것을 제어하도록 동작가능한 제어기로서, 상기 제어기는 연관된 영상 영역에서의 상기 제 1 영상 신호의 상기 검출된 모션에 따라 상기 제 1 영상 신호 데이터를 상기 메모리에 기록하는, 상기 제어기를 포함하는 영상 신호 변환 장치.A controller operable to control recording of first image signal data into the resolution generating memory and reading data of a new image signal from the memory having a higher quality than the first image signal, the controller being configured in an associated image region. And the controller for recording the first image signal data into the memory in accordance with the detected motion of the first image signal of the controller. 제 25 항에 있어서,The method of claim 25, 상기 제 1 영상 신호의 장면 변화를 검출하고 그에 따라 장면 변화 신호를 발생시키기 위한 장면 변화 검출기를 더 포함하고, 상기 각 제어기는 연관된 해상도 생성 메모리의 저장 위치들 내의 값들을 소정의 값으로 리셋하도록 상기 장면 변화 신호에 응답하는 영상 신호 변환 장치.A scene change detector for detecting a scene change of the first image signal and accordingly generating a scene change signal, wherein each controller is configured to reset values in storage locations of an associated resolution generating memory to a predetermined value; A video signal conversion device responsive to a scene change signal. 제 25 항에 있어서,The method of claim 25, 상기 제 2 영상 신호를 필터링하기 위한 저역 통과 필터와,A low pass filter for filtering the second video signal; 상기 필터링된 제 2 신호를 상기 제 1 영상 신호의 하나의 화상 내의 픽셀들의 수와 같은 수의 픽셀들로 형성된 출력 영상 신호로 변환하고, 상기 제 2 영상 신호를 출력하기 위한 출력 유닛으로서, 상기 출력 영상 신호는 상기 제 1 영상 신호보다 적은 에일리어싱 왜곡을 갖는, 상기 출력 유닛을 더 포함하는 영상 신호 변환 장치.An output unit for converting the filtered second signal into an output video signal formed of the same number of pixels as the number of pixels in one image of the first video signal, and outputting the second video signal, the output And the image signal further comprises the output unit having less aliasing distortion than the first image signal. 제 27 항에 있어서,The method of claim 27, 상기 출력 유닛은 상기 필터링된 제 2 신호를 저장하기 위한 프레임 메모리를 포함하고, 상기 제 2 영상 신호보다 낮은 품질을 갖는 상기 출력 신호를 생성하도록 데이터의 선들을 주기적으로 스킵함으로써 데이터가 상기 프레임 메모리로부터 판독되는 영상 신호 변환 장치.The output unit includes a frame memory for storing the filtered second signal, and data is skipped from the frame memory by periodically skipping lines of data to produce the output signal having a lower quality than the second image signal. Video signal conversion device to be read. 제 25 항에 있어서,The method of claim 25, 상기 처리 회로의 상기 각각의 회로부는,Wherein each circuit portion of the processing circuit is 상기 제 1 영상 신호의 데이터가 저장되지 않은 연관된 해상도 생성 메모리에서 빈 위치들을 검출하기 위한 검출기와,A detector for detecting empty positions in an associated resolution generating memory in which data of the first image signal is not stored; 상기 빈 위치들에서 픽셀 데이터를 발생시키기 위한 픽셀 발생기를 포함하는 영상 신호 변환 장치.And a pixel generator for generating pixel data at the empty positions. 제 29 항에 있어서,The method of claim 29, 상기 검출기는 상기 해상도 생성 메모리 중 어느 저장 위치들이 상기 제 1 영상 신호의 저장된 영상 데이터를 포함하는지를 나타내는 플래그들을 저장하기 위한 플래그 메모리를 포함하는 영상 신호 변환 장치.And the detector comprises a flag memory for storing flags indicating which storage locations of the resolution generating memory contain stored image data of the first image signal. 제 29 항에 있어서,The method of claim 29, 상기 픽셀 발생기는 상기 빈 위치들의 이웃하는 저장 위치들에 이미 저장된 픽셀 데이터 사이의 보간에 의해 상기 빈 위치들에 대응하는 위치들에서의 픽셀들에 대해 영상 값들을 결정하도록 동작하는 영상 신호 변환 장치.And the pixel generator is operative to determine image values for pixels at locations corresponding to the bin positions by interpolation between pixel data already stored at neighboring storage positions of the bin positions. 제 29 항에 있어서,The method of claim 29, 상기 픽셀 생성기는 상기 제 1 영상 신호의 특징들을 검출하고 상기 검출된 특징들에 대응하는 등급을 결정하기 위한 결정기와,The pixel generator comprises a determiner for detecting features of the first image signal and for determining a rank corresponding to the detected features; 각 등급에 대한 예측 데이터를 저장하기 위한 예측 데이터 메모리와,Prediction data memory for storing prediction data for each class; 상기 결정된 등급에 대응하는 상기 예측 데이터 메모리로부터 판독된 예측 데이터에 따라 빈 저장 위치에 대해 상기 픽셀 데이터를 생성하기 위한 회로를 포함하는 영상 신호 변환 장치.And circuitry for generating the pixel data for an empty storage location in accordance with the predictive data read from the predictive data memory corresponding to the determined class. 제 32 항에 있어서,The method of claim 32, 각 등급에 대한 상기 예측 데이터는 적어도 상기 제 1 신호보다 높은 해상도를 갖는 학습 영상 신호를 사용하여 학습함으로써 생성되는 영상 신호 변환 장치.And the prediction data for each class is generated by learning using a learning video signal having a higher resolution than at least the first signal. 제 1 항에 있어서,The method of claim 1, 상기 제 1 영상 신호는 표준 선명(SD; standard definition) 신호를 포함하고, 상기 제 2 영상 신호는 수평 방향과 수직 방향에서 모두 상기 SD 신호보다 높은 해상도를 갖는 고선명(HD; high definition) 신호를 포함하는 영상 신호 변환 장치.The first image signal includes a standard definition (SD) signal, and the second image signal includes a high definition (HD) signal having a higher resolution than the SD signal in both a horizontal direction and a vertical direction. Video signal conversion device. 제 9 항에 있어서,The method of claim 9, 상기 제 1 영상 신호는 표준 선명(SD) 영상을 나타내고, 상기 제 2 영상 신호는 수평 방향과 수직 방향에서 상기 SD 영상보다 높은 해상도를 갖는 고선명(HD) 영상을 나타내고,The first image signal represents a standard definition (SD) image, the second image signal represents a high definition (HD) image having a higher resolution than the SD image in a horizontal direction and a vertical direction, 억세스 영역이 상기 SD 영상에 대해 수직 방향으로 두 배의 픽셀들과 수평 방향으로 두 배의 픽셀들에 대응하는 저장 위치들로, 생성된 각각의 고 해상도 화상에 대해 상기 해상도 생성 메모리 내에서 정의되는 영상 신호 변환 장치.An access area is defined in the resolution generating memory for each generated high resolution image, with storage locations corresponding to double pixels in the vertical direction and double pixels in the horizontal direction with respect to the SD image. Video signal conversion device. 제 9 항에 있어서,The method of claim 9, 상기 제 1 영상 신호는 표준 선명(SD) 영상을 나타내고, 상기 제 2 영상 신호는 수평 방향과 수직 방향에서 상기 SD 영상보다 높은 해상도를 갖는 고선명(HD) 영상을 나타내고,The first image signal represents a standard definition (SD) image, the second image signal represents a high definition (HD) image having a higher resolution than the SD image in a horizontal direction and a vertical direction, 억세스 영역이 수직 방향으로 상기 SD 영상의 4배인 픽셀들과 수평 방향으로 상기 SD 영상의 4배의 픽셀들에 대응하는 저장 위치들로, 생성된 각각의 고해상도 화상에 대해 상기 해상도 생성 메모리 내에서 정의되고,Defined in the resolution generating memory for each high resolution image generated, with access positions whose pixels are four times the SD image in the vertical direction and storage positions corresponding to the pixels four times the SD image in the horizontal direction. Become, 픽셀 데이터가 번갈아 있는 저장 위치를 스킵함으로서 상기 해상도 생성 메모리로부터 판독되도록 야기되고, 그에 의해 상기 수평 및 수직 방향들 각각에서 상기 SD 영상의 두 배의 픽셀들을 갖는 HD 영상을 형성하는 영상 신호 변환 장치.And skipping alternate storage locations of pixel data causing the image data to be read from the resolution generating memory, thereby forming an HD image having twice the pixels of the SD image in each of the horizontal and vertical directions. 제 1 영상 신호를 제 2 영상 신호로 변환하기 위한 방법으로서, 상기 제 1 및 제 2 영상 신호들 각각이 복수의 다른 프레임들의 화상들을 포함하는, 상기 방법에 있어서,A method for converting a first video signal into a second video signal, wherein each of the first and second video signals comprises a plurality of different frames of images. 제 1 프레임과 제 2 프레임 사이에서 상기 제 1 영상 신호의 모션을 검출하는 단계와,Detecting motion of the first video signal between a first frame and a second frame; 상기 검출된 모션에 대응하는 위치에서 픽셀을 가정함으로서 픽셀 데이터를 발생시키는 단계와,Generating pixel data by assuming a pixel at a position corresponding to the detected motion; 상기 발생된 픽셀 데이터에 기초하여 상기 제 2 영상 신호를 생성하는 단계를 포함하는 방법.Generating the second image signal based on the generated pixel data. 제 37 항에 있어서,The method of claim 37, 상기 제 2 영상 신호는 상기 제 1 영상 신호보다 높은 해상도인 방법.And the second video signal has a higher resolution than the first video signal. 제 37 항에 있어서,The method of claim 37, 상기 제 2 영상 신호는 상기 제 1 영상 신호보다 많은 수의 픽셀들의 픽셀 데이터로 생성되는 방법.And the second image signal is generated with pixel data of a greater number of pixels than the first image signal. 제 39 항에 있어서,The method of claim 39, 상기 제 2 영상 신호는 상기 제 1 영상 신호와 연관된 주사선들에 수직인 방향으로 상기 제 1 영상 신호보다 많은 픽셀들의 픽셀 데이터로 생성되는 방법.And the second image signal is generated as pixel data of more pixels than the first image signal in a direction perpendicular to the scan lines associated with the first image signal. 제 37 항에 있어서,The method of claim 37, 상기 제 1 및 제 2 프레임들은 인접한 프레임인 방법.And the first and second frames are adjacent frames. 제 37 항에 있어서,The method of claim 37, 그에 존재할 수 있는 에일리어싱 왜곡을 감소시키기 위해 상기 제 2 영상 신호를 저역 통과 필터링하는 단계를 더 포함하는 방법.And low pass filtering the second image signal to reduce aliasing distortion that may be present therein. 제 37 항에 있어서,The method of claim 37, 상기 모션을 검출하는 단계는 상기 제 1 영상 신호의 픽셀 크기보다 미세한 양만큼 상기 제 1 영상 신호의 모션을 검출하는 단계를 포함하고,Detecting the motion comprises detecting the motion of the first image signal by an amount smaller than the pixel size of the first image signal, 상기 제 1 영상 신호의 하나의 화상 내에서의 데이터 량보다 큰 저장 용량을 갖는 해상도 생성 메모리에 상기 제 1 영상 신호의 화상을 저장하는 단계와,Storing the image of the first image signal in a resolution generating memory having a storage capacity larger than the amount of data in one image of the first image signal; 상기 제 1 영상 신호의 상기 검출된 모션에 따라 상기 해상도 생성 메모리에 제 1 영상 신호 데이터를 기록하는 것을 제어하는 단계와,Controlling writing first video signal data to the resolution generating memory according to the detected motion of the first video signal; 새로운 영상 신호의 데이터를 상기 메모리로부터 판독하는 것을 제어하는 단계로서, 상기 새로운 영상 신호는 상기 제 1 영상 신호보다 높은 품질이 되는, 상기 판독하는 것을 제어하는 단계를 더 포함하는 방법.Controlling reading of data of a new video signal from the memory, wherein the new video signal is of higher quality than the first video signal. 제 43 항에 있어서,The method of claim 43, 상기 판독하는 것을 제어하는 단계는 상기 제 2 영상 신호로서 상기 새로운 영상 신호의 데이터를 판독하는 것을 제어하는 단계를 포함하는 방법.Controlling said reading comprises controlling reading data of said new video signal as said second video signal. 제 43 항에 있어서,The method of claim 43, 필터링된 신호를 생성하도록 상기 새로운 영상 신호를 저역 통과 필터 처리하는 단계와,Low pass filtering the new video signal to produce a filtered signal; 상기 필터 처리된 영상 신호를 상기 제 1 영상 신호의 하나의 화상 내에서의 픽셀들의 수와 같은 수의 픽셀들로 형성된 상기 제 2 영상 신호로 변환하는 단계와,Converting the filtered image signal into the second image signal formed of the same number of pixels as the number of pixels in one image of the first image signal; 상기 제 1 영상 신호보다 적은 에일리어싱 왜곡을 갖는 상기 제 2 영상 신호를 출력하는 단계를 더 포함하는 방법.Outputting the second video signal with less aliasing distortion than the first video signal. 제 43 항에 있어서,The method of claim 43, 상기 제 1 영상 신호의 장면 변화를 검출하는 단계와,Detecting a scene change of the first video signal; 장면 변화가 검출된 경우, 상기 해상도 생성 메모리의 저장 위치들 내의 데이터를 소정의 값들로 리셋하는 단계를 더 포함하는 방법.If a scene change is detected, resetting data in storage locations of the resolution generating memory to predetermined values. 제 43 항에 있어서,The method of claim 43, 상기 검출된 모션에 따라 상대 어드레스 포인터를 발생시키는 단계와, 상기 제 1 프레임의 상기 메모리 내에서 모든 영상 데이터를 삭제하지 않고, 상기 상대 어드레스 포인터에 따른 위치들에 상기 메모리에 상기 제 2 프레임의 영상 데이터를 기록하는 단계를 더 포함하고, 그에 의해 상기 제 1 프레임 데이터 및 상기 제 2 프레임 데이터를 모두 포함하는 보다 높은 품질의 프레임의 데이터를 생성하고 상기 제 2 프레임 데이터는 상기 제 1 프레임 데이터를 저장하는 저장 위치들에 대해 시프팅된 위치들에 저장되는 방법.Generating a relative address pointer according to the detected motion, and not deleting all the image data in the memory of the first frame, but images of the second frame in the memory at positions according to the relative address pointer Recording data, thereby generating data of a higher quality frame including both the first frame data and the second frame data, wherein the second frame data stores the first frame data. Stored in shifted locations relative to storage locations. 제 43 항에 있어서,The method of claim 43, 상기 제 1 영상 신호의 데이터가 저장되지 않은 상기 메모리에서 빈 위치들을 검출하는 단계와,Detecting empty positions in the memory in which data of the first image signal is not stored; 상기 빈 위치들에 대응하는 픽셀들에 대한 픽셀 데이터를 발생시키는 단계를 더 포함하는 방법.Generating pixel data for pixels corresponding to the empty positions. 제 48 항에 있어서,49. The method of claim 48 wherein 상기 검출하는 단계는 상기 해상도 생성 메모리 중 어느 저장 위치들이 상기 제 1 영상 신호의 저장된 영상 데이터를 포함하는지를 나타내는 플래그들을 저장하는 단계를 포함하는 방법.And the detecting step includes storing flags indicating which storage locations of the resolution generating memory contain stored image data of the first image signal. 제 48 항에 있어서,49. The method of claim 48 wherein 상기 픽셀 데이터를 발생시키는 단계는 픽셀 데이터가 이미 저장된 이웃하는 픽셀들의 영상 값들 사이를 보간하는 단계를 포함하는 방법.Generating the pixel data comprises interpolating between image values of neighboring pixels in which the pixel data has already been stored. 제 48 항에 있어서,49. The method of claim 48 wherein 상기 픽셀 데이터를 발생시키는 단계는,Generating the pixel data, 상기 제 1 영상 신호의 특징들을 검출하고 상기 검출된 특징에 대응하는 등급을 결정하는 단계와,Detecting features of the first image signal and determining a class corresponding to the detected features; 각 등급에 대해 예측 데이터 메모리에 예측 데이터를 저장하는 단계와,Storing predictive data in predictive data memory for each class; 상기 결정된 등급에 대응하는 상기 예측 데이터 메모리로부터 판독된 예측 데이터에 따라 빈 저장 위치에 대해 상기 픽셀 데이터를 발생시키는 단계를 포함하는 방법.Generating the pixel data for an empty storage location in accordance with the predictive data read from the predictive data memory corresponding to the determined rank. 제 48 항에 있어서,49. The method of claim 48 wherein 적어도 상기 제 1 신호보다 높은 해상도를 갖는 학습 영상 신호를 사용하여 학습함으로써 각 등급에 대한 상기 예측 데이터를 생성하는 단계를 더 포함하는 방법.Generating the predictive data for each class by learning using a learning video signal having at least a higher resolution than the first signal. 제 37 항에 있어서,The method of claim 37, 상기 제 1 영상 신호는 표준 선명(SD) 신호를 포함하고, 상기 제 2 영상 신호는 수평 및 수직 방향들에서 모두 상기 SD 신호보다 높은 해상도를 갖는 고선명(HD) 신호를 포함하는 방법.Wherein the first image signal comprises a standard clear (SD) signal and the second image signal comprises a high definition (HD) signal having a higher resolution than the SD signal in both horizontal and vertical directions. 제 43 항에 있어서,The method of claim 43, 상기 제 1 영상 신호는 표준 선명(SD) 영상을 나타내고, 상기 제 2 영상 신호는 수평 및 수직 방향들에서 상기 SD 영상보다 높은 해상도를 갖는 고선명(HD) 영상을 나타내고,The first image signal represents a standard definition (SD) image, the second image signal represents a high definition (HD) image having a higher resolution than the SD image in horizontal and vertical directions, 생성된 각 고해상도 화상에 대해 상기 해상도 생성 메모리의 억세스 영역내에 SD 영상 데이터를 저장하는 단계로서, 각 억세스 영역은 상기 수직 방향으로 상기 SD 영상의 두 배의 픽셀들과 상기 수평 방향으로 상기 SD 영상의 두 배의 픽셀들에 대응하는 저장 위치들을 갖는, 상기 저장 단계를 더 포함하는 방법.Storing SD image data in an access area of the resolution generating memory for each of the generated high resolution images, each access area being twice the pixels of the SD image in the vertical direction and the SD image in the horizontal direction; And storing the storage locations corresponding to twice the pixels. 제 43 항에 있어서,The method of claim 43, 상기 제 1 영상 신호는 표준 선명(SD) 영상을 나타내고, 상기 제 2 영상 신호는 수평 및 수직 방향들 모두에서 상기 SD 영상보다 높은 해상도를 갖는 고선명(HD) 영상을 나타내고,The first image signal represents a standard definition (SD) image, the second image signal represents a high definition (HD) image having a higher resolution than the SD image in both horizontal and vertical directions, 생성된 각 고해상도 화상에 대해, 상기 해상도 생성 메모리의 억세스 영역내에 SD 영상 데이터를 저장하는 단계로서, 각 억세스 영역은 수직 방향으로 상기 SD 영상의 4배의 픽셀들과 수평 방향으로 상기 SD 영상의 4배의 픽셀들에 대응하는 저장 위치들을 갖는, 상기 저장 단계와,Storing SD image data in an access region of the resolution generating memory for each generated high resolution image, wherein each access region is four times the pixels of the SD image in the vertical direction and four of the SD image in the horizontal direction; Said storage step having storage positions corresponding to double pixels; 번갈아 있는 저장 위치들을 스킵함으로서 상기 해상도 생성 메모리로부터 픽셀 데이터를 판독하는 단계로서, 그에 의해 상기 수평 및 수직 방향들 각각에서 상기 SD 영상의 두 배의 픽셀들을 갖는 HD 영상을 형성하는, 상기 판독 단계를 더 포함하는 방법.Reading pixel data from the resolution generating memory by skipping alternate storage locations, thereby forming an HD image having twice the pixels of the SD image in each of the horizontal and vertical directions. How to include more. 제 37 항에 있어서,The method of claim 37, 상기 모션을 검출하는 단계는 화상의 복수의 영상 영역들에서 상기 제 1 영상 신호의 픽셀 크기보다 미세한 양만큼 상기 제 1 영상 신호의 모션을 검출하는 단계를 포함하고,Detecting the motion comprises detecting motion of the first image signal by an amount smaller than a pixel size of the first image signal in a plurality of image regions of the image, 적어도 상기 검출된 모션에 기초하여 상기 제 1 영상 신호의 상기 화상 중 적어도 제 1 및 제 2 영상 영역들을 정의하는 단계와,Defining at least first and second image regions of the image of the first image signal based at least on the detected motion; 상기 각각의 제 1 및 제 2 영상 영역들에서 상기 검출된 모션에 대응하는 위치들에서의 픽셀들의 가정에 기초하여 상기 제 2 영상 신호의 제 1 및 제 2 영상 영역들을 생성하는 단계와,Generating first and second image regions of the second image signal based on assumptions of pixels at positions corresponding to the detected motion in the respective first and second image regions; 복합 영상 신호를 형성하도록 상기 제 2 영상 신호의 상기 제 1 및 제 2 영상 영역들을 결합하는 단계를 더 포함하는 방법.Combining the first and second image regions of the second image signal to form a composite image signal.
KR10-1998-0004445A 1997-02-14 1998-02-14 Video signal conversion device and method KR100505516B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP97-030181 1997-02-14
JP97-261934 1997-09-26
JP26193497 1997-09-26

Publications (2)

Publication Number Publication Date
KR19980071354A KR19980071354A (en) 1998-10-26
KR100505516B1 true KR100505516B1 (en) 2005-12-16

Family

ID=65894693

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-1998-0004445A KR100505516B1 (en) 1997-02-14 1998-02-14 Video signal conversion device and method

Country Status (1)

Country Link
KR (1) KR100505516B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11457273B2 (en) 2018-01-04 2022-09-27 Samsung Electronics Co., Ltd. Video playback device and control method thereof

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100736366B1 (en) 2006-02-02 2007-07-06 삼성전자주식회사 Apparatus and method for processing video signal

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11457273B2 (en) 2018-01-04 2022-09-27 Samsung Electronics Co., Ltd. Video playback device and control method thereof
US11831948B2 (en) 2018-01-04 2023-11-28 Samsung Electronics Co., Ltd. Video playback device and control method thereof

Also Published As

Publication number Publication date
KR19980071354A (en) 1998-10-26

Similar Documents

Publication Publication Date Title
EP0859513B1 (en) Image signal converting apparatus and method
US5353119A (en) Format conversion of digital video signals, integration of digital video signals into photographic film material and the like, associated signal processing, and motion compensated interpolation of images
US5355178A (en) Mechanism for improving television display of still images using image motion-dependent filter
US5371549A (en) Decoding method and system for providing digital television receivers with multipicture display by way of zero masking transform coefficients
JP3222496B2 (en) Video signal processing device
US5526053A (en) Motion compensated video signal processing
US4620225A (en) System for TV transmission
JP4126709B2 (en) Image processing apparatus and image processing method
JP2011120270A (en) Image processing device and image processing method
US7197075B2 (en) Method and system for video sequence real-time motion compensated temporal upsampling
JP4214425B2 (en) Image extracting apparatus and image extracting method, image encoding apparatus and image encoding method, image decoding apparatus and image decoding method, image recording apparatus and image recording method, image reproducing apparatus and image reproducing method, and recording medium
KR100505516B1 (en) Video signal conversion device and method
JP4120898B2 (en) Image processing apparatus and image processing method
JPH0818888A (en) Video system
JP4470323B2 (en) Image conversion apparatus and method
JP4470324B2 (en) Image signal conversion apparatus and method
US6385250B1 (en) Image processing apparatus and image processing method
JP2605167B2 (en) Video signal format converter
KR100982625B1 (en) Information signal processing device and processing method
JP3480015B2 (en) Apparatus and method for generating image data
GB2249906A (en) Motion compensated interpolation of images
JP4120095B2 (en) Image information conversion apparatus and conversion method
JP4310847B2 (en) Image information conversion apparatus and conversion method
US6002837A (en) Image reproducing apparatus reproducing coded image signals while concealing data which cannot be decoded
GB2249905A (en) Combining digital video signals and photographic film material and the like

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120713

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee