KR100518477B1 - HDTV Down Conversion System - Google Patents

HDTV Down Conversion System Download PDF

Info

Publication number
KR100518477B1
KR100518477B1 KR1019980709105A KR19980709105A KR100518477B1 KR 100518477 B1 KR100518477 B1 KR 100518477B1 KR 1019980709105 A KR1019980709105 A KR 1019980709105A KR 19980709105 A KR19980709105 A KR 19980709105A KR 100518477 B1 KR100518477 B1 KR 100518477B1
Authority
KR
South Korea
Prior art keywords
signal
video
decoder
video signal
filter
Prior art date
Application number
KR1019980709105A
Other languages
Korean (ko)
Other versions
KR20000010956A (en
Inventor
희용 김
사이프러서드 네임팰리
에드윈 로버트 메이어
리챠드 시타
레리 필립스
렌 에가와
Original Assignee
마쯔시다덴기산교 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마쯔시다덴기산교 가부시키가이샤 filed Critical 마쯔시다덴기산교 가부시키가이샤
Priority to KR1019980709105A priority Critical patent/KR100518477B1/en
Publication of KR20000010956A publication Critical patent/KR20000010956A/en
Application granted granted Critical
Publication of KR100518477B1 publication Critical patent/KR100518477B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4023Decimation- or insertion-based scaling, e.g. pixel or line decimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4084Transform-based scaling, e.g. FFT domain scaling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/18Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a set of transform coefficients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/423Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements
    • H04N19/426Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation characterised by memory arrangements using memory downsizing methods
    • H04N19/428Recompression, e.g. by spatial or temporal decimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/523Motion estimation or motion compensation with sub-pixel accuracy
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/46Receiver circuitry for the reception of television signals according to analogue transmission standards for receiving on more than one standard at will
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0125Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/015High-definition television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios

Abstract

진보형 텔레비젼 시스템 표준(ATSC)에 순응하는 비디오 디코더는 ATSC 부호화된 이미지를 디코딩하는 회로를 포함하고, 다운 변환 프로세스를 채용하여 표준 선명도 비디오 신호를 생성한다. 상기 비디오 디코더는 상기 ATSC 부호화된 신호의 해상도를 감소시키도록 주파수 영역 필터를 포함한다. 상기 비디오 디코더 다운 변환 시스템은 재샘플링 처리도 행하고 수직 및 수평 필터들을 구비한 포맷팅부를 또한 구비하여, 특정의 디스플레이 및 종횡비를 위해 디코딩되고 다운 변환된 비디오 이미지를 포맷한다. 상기 디코더는 상기 부호화된 비디오 신호의 디스플레이 포맷을 감지하고 상기 디코더에 의해 제공된 프로세싱을 변화시켜, 상기 부호화된 입력 신호의 디스플레이 포맷에 무관하게 표준 선명도 출력 신호를 생성한다. 상기 시스템은 또한, 다른 종횡비를 가진 디스플레이 장치상에의 디스플레이를 위해 상기 입력 신호의 종횡비를 변환하는 복수의 방법들을 사용하도록 프로그램될 수도 있는 포맷 변환기도 포함한다. 하나의 모드에서, 상기 시스템은 가능한 방법들을 통해서 사용자가 하나의 방법을 선택할 수 있도록 정리된다.A video decoder compliant with the Advanced Television System Standard (ATSC) includes circuitry for decoding ATSC encoded images and employs a down conversion process to generate a standard definition video signal. The video decoder includes a frequency domain filter to reduce the resolution of the ATSC encoded signal. The video decoder down conversion system also performs a resampling process and also includes a formatting section with vertical and horizontal filters to format the decoded and down converted video image for a particular display and aspect ratio. The decoder senses the display format of the encoded video signal and changes the processing provided by the decoder to produce a standard definition output signal regardless of the display format of the encoded input signal. The system also includes a format converter that may be programmed to use a plurality of methods of converting the aspect ratio of the input signal for display on a display device having a different aspect ratio. In one mode, the system is arranged to allow the user to choose one method through the possible methods.

Description

HDTV 다운 변환 시스템HDTV down conversion system

본 특허 출원은 1997년 3월 12일자로 출원된 미국 특허 가출원 번호 60/040,517호의 우선권 주장을 수반한 출원이다.This patent application is an application involving a priority claim in US Provisional Application No. 60 / 040,517, filed March 12,1997.

상기 미국 특허 가출원 번호 60/040,517의 전문은 본 명세서에 참고 자료로서 명백히 포함되어 있다.The entirety of this US Provisional Application No. 60 / 040,517 is expressly incorporated herein by reference.

본 발명은 예컨대 MPEG-2 부호화 비디오 신호와 같은 주파수 영역 부호화 신호를 수신하고, 상기 신호를 디코딩하며, 상기 신호를 표준 출력 비디오 신호로 변환하는 디코더(decoder)에 관한 것으로서, 보다 구체적으로는, 부호화 고해상도 비디오 신호(encoded high resolution video signal)를 디코딩 저해상도 출력 비디오 신호(decoded low resolution video signal)로 변환 및 포맷하는 디코더에 관한 것이다.The present invention relates to a decoder for receiving a frequency domain encoded signal such as, for example, an MPEG-2 encoded video signal, decoding the signal, and converting the signal into a standard output video signal. A decoder converts and formats an encoded high resolution video signal into a decoded low resolution video signal.

미국의 표준에서, 진보형 텔레비젼 시스템 위원회(Advanced Television System Committee(ATSC))의 표준은 고해상 텔레비젼(HDTV) 신호의 디지털 부호화를 규정한다. 필연적으로, 상기 표준의 일부는 표준화를 위한 국제 기구(International Orgarnization for Standardization(ISO))의 동화상 전문가 그룹(Moving Picture Experts Group(MPEG))에 의해 제안된 MPEG-2 표준과 동일하다. 상기 표준은 국제 표준(IS) 출판물 "Information Technology - Generic Coding of Moving Pictures and Associated Audio, Recommendation H.626"(ISO/IEC 13818-2, IS, 11/94)에 기재되어 있으며, 이는 ISO로부터 구할 수 있고, 본 출원의 MPEG-2 디지털 비디오 코딩 표준에 관한 참고 자료로 이용되어 있다.In the American standard, the standard of the Advanced Television System Committee (ATSC) specifies the digital encoding of high definition television (HDTV) signals. Inevitably, some of the standards are identical to the MPEG-2 standard proposed by the Moving Picture Experts Group (MPEG) of the International Orgarnization for Standardization (ISO). The standard is described in the International Standard (IS) publication "Information Technology-Generic Coding of Moving Pictures and Associated Audio, Recommendation H.626" (ISO / IEC 13818-2, IS, 11/94), which is available from ISO. And as a reference for the MPEG-2 digital video coding standard of the present application.

실제로, MPEG-2 표준은 수개의 상이한 표준들이다. MPEG-2에서는, 수개의 부호화된 이미지의 복합성의 상이한 레벨에 각각 대응하는 상이한 프로파일들이 규정된다. 각 프로파일에 대해, 상이한 이미지 해상도에 각각 대응하는 상이한 레벨들이 규정된다. 주 프로파일(Main Profile), 주 레벨(Main Level)로 알려진 MPEG-2 표준들 중의 하나는 비디오 신호가 기존의 텔레비젼 표준들(즉, NTSC 및 PAL)에 일치하게 코딩되도록 의도되었다. 주 프로파일, 고레벨로 알려진 또 다른 표준은 고해상 텔레비젼 이미지를 코딩하도록 의도되었다. 상기 주 프로파일, 고레벨 표준에 따라 부호화된 이미지에는 이미지 프레임(image frame)당 1,152개의 능동 선로(active line)들이 있고, 선로당 1,920개의 화소(pixel)들이 있다.Indeed, the MPEG-2 standard is several different standards. In MPEG-2, different profiles are defined, each corresponding to different levels of complexity of several coded images. For each profile, different levels are defined, each corresponding to a different image resolution. One of the MPEG-2 standards, known as Main Profile, Main Level, is intended to allow video signals to be coded consistent with existing television standards (ie NTSC and PAL). Another standard, known as Main Profile, High Level, is intended to code high resolution television images. An image encoded according to the main profile, high level standard, has 1,152 active lines per image frame and 1,920 pixels per line.

한편, 주 프로파일, 주 레벨 표준은 선로당 720개의 화소들을 가지고, 프레임당 567개의 선로들을 가지는 최대 화상 크기(maximum picture size)를 규정한다. 분당 30 프레임의 프레임 전송 속도(frame rate)에서, 상기 표준에 따라 부호화된 신호들은 분당 720*567*30 또는 12,247,200개의 화소들의 데이터 전송 속도를 가진다. 반면, 상기 주 프로파일, 고레벨 표준에 따라 부호화된 이미지들의 최대 데이터 전송 속도는 분당 1,152*1,920*30 또는 66,355,200개의 화소들이다. 상기 데이터 전송 속도는 상기 주 프로파일, 주 레벨 표준에 따라 부호화된 이미지 데이터의 데이터 전송 속도의 5배를 넘는다. HDTV 부호화를 위한 미국내의 표준은 상기 표준의 서브 세트로서, 프레임당 1,080개의 선로들과 선로당 1,920개의 화소들을 가지며, 상기 프레임 크기에서, 분당 30 프레임의 최대 프레임 전송 속도를 가진다. 여전히, 상기 표준에 대한 최대 데이터 전송 속도는 상기 주 프로파일, 주 레벨 표준에 대한 최대 데이터 전송 속도보다 매우 크다.On the other hand, the main profile, main level standard defines a maximum picture size with 720 pixels per line and 567 lines per frame. At a frame rate of 30 frames per minute, signals encoded according to the standard have a data transfer rate of 720 * 567 * 30 or 12,247,200 pixels per minute. On the other hand, the maximum data rate of images encoded according to the main profile, high level standard is 1,152 * 1,920 * 30 or 66,355,200 pixels per minute. The data transfer rate is more than five times the data transfer rate of image data encoded according to the main profile, main level standard. A standard in the United States for HDTV coding is a subset of the standard, with 1,080 lines per frame and 1,920 pixels per line, with a maximum frame rate of 30 frames per minute at this frame size. Still, the maximum data transfer rate for the standard is much greater than the maximum data transfer rate for the main profile, main level standard.

MPEG-2 표준은 데이터 및 제어 정보의 혼합체를 포함하는 복합 신택스(complex syntax)를 규정한다. 상기 제어 정보의 일부는 수개의 상이한 포맷들을 가진 신호들이 상기 표준에 포괄되도록 하는데 사용된다. 상기 포맷들은 상이한 선로당 화상 요소(화소)의 수와, 상이한 프레임 또는 필드(field)당 선로의 수와, 상이한 분당 프레임 또는 필드의 수를 가지는 이미지들을 규정한다. 또한, MPEG-2 주 프로파일의 기초 신택스(basic syntax)는 시퀀스층(sequence layer), 화상층들의 그룹(the group of pictures layer), 화상층(picture layer), 슬라이스층(slice layer) 및 매크로블록층(macroblock layer)의 5개의 층들로된 이미지들의 시퀀스를 나타내는 압축된 MPEG-2 비트 스트림을 규정한다. 상기 층들 각각은 제어 정보로 시작된다. 결국, 부 정보(side information)로도 알려진 다른 제어 정보(예컨대, 프레임 타입, 매크로블록 패턴, 이미지 모션 벡터, 계수 지그재그 패턴 및 감량 정보)는 코드화된 비트 스트림에 분산된다.The MPEG-2 standard defines a complex syntax that includes a mixture of data and control information. Part of the control information is used to ensure that signals with several different formats are covered by the standard. The formats define images with different numbers of picture elements (pixels) per line, different numbers of lines per frame or field, and different numbers of frames or fields per minute. In addition, the basic syntax of the MPEG-2 main profile includes a sequence layer, the group of pictures layer, a picture layer, a slice layer, and a macroblock. Defines a compressed MPEG-2 bit stream representing a sequence of images in five layers of a macroblock layer. Each of these layers begins with control information. As a result, other control information, also known as side information (e.g., frame type, macroblock pattern, image motion vector, coefficient zigzag pattern and weight loss information) is distributed over the coded bit stream.

부호화 고해상도 주 프로파일, 고레벨 화상들을 저해상도 주 프로파일, 고레벨 화상들; 주 프로파일, 주 레벨 화상들 또는 다른 저해상도 화상 포맷들로 포맷 변환(format conversion)함으로써, a) 다수의 기존 비디오 포맷들과 함께 사용되는 단일 디코더를 제공하고, b) 주 프로파일, 고레벨 신호들과 퍼스널 컴퓨터 모니터들 또는 기존의 소비자 텔레비젼 수신기들간의 인터페이스를 제공하고, c) HDTV의 수행 비용을 감소시킨다. 예컨대, 변환은 주 프로파일, 고레벨 부호화 화상들과 함께 사용되는 고가의 고해상도 모니터로서 낮은 화상 해상도를 가진 저가의 기존의 모니터를 대체하여, NTSC 또는 525 진보형 모니터와 같은 주 프로파일, 주 레벨 부호화 화상들을 지원할 수 있다. 다운 변환(down conversion)은 고해상도 입력 화상을 저해상도 화상으로 변환하여 저해상도 모니터상에 디스플레이한다.Encoding high resolution main profile, high level pictures low resolution main profile, high level pictures; By format conversion to main profile, main level pictures or other low resolution picture formats, a) provide a single decoder for use with multiple existing video formats, b) main profile, high level signals and personal Provide an interface between computer monitors or existing consumer television receivers, and c) reduce the cost of running HDTV. For example, the conversion is an expensive high-resolution monitor used with main profile, high level encoded pictures, replacing a low cost conventional monitor with low picture resolution, replacing main profile, main level encoded pictures such as NTSC or 525 advanced monitors. Can support Down conversion converts a high resolution input image into a low resolution image for display on a low resolution monitor.

디지털 이미지를 효과적으로 수신하기 위해, 디코더는 비디오 신호 정보를 신속하게 처리해야 한다. 가장 효율적이 되도록, 상기 디코딩 시스템은 비교적 저가이어야 하며, 상기 디지털 신호를 실시간내에 디코딩하도록 여전히 충분한 출력을 가져야 한다. 결국, 다수의 저해상도 포맷들로의 변환을 지원하는 디코더는 반드시 프로세서 메모리를 최소화해야 한다.In order to receive digital images effectively, decoders must process video signal information quickly. To be most efficient, the decoding system should be relatively inexpensive and still have enough output to decode the digital signal in real time. As a result, decoders that support conversion to multiple low resolution formats must minimize processor memory.

도 1A은 본 발명의 양호한 실시예에 따른 비디오 디코딩 및 포맷 변환 시스템의 고레벨 블록도.Is a high level block diagram of a video decoding and format conversion system in accordance with a preferred embodiment of the present invention.

도 1B는 본 발명의 양호한 실시예에 채용된 외부 메모리에 대한 인터페이스를 포함하는 ATV 비디오 디코더의 기능적 블록들을 도시한 고레벨 블록도.1B is a high level block diagram illustrating functional blocks of an ATV video decoder including an interface to an external memory employed in the preferred embodiment of the present invention.

도 2A는 종래 기술의 비디오 디코더의 고레벨 블록도.2A is a high level block diagram of a prior art video decoder.

도 2B는 본 발명의 양호한 실시예에 채용된 다운 변환 시스템의 고레벨 블록도.2B is a high level block diagram of a down conversion system employed in the preferred embodiment of the present invention.

도 2C는 3 인자(factor) 만큼의 다운 변환을 포함하는 750P 포맷의 비디오 신호를 525P/525I 포맷으로 디코딩하는데 사용되는 도 2B에 도시된 디코더의 배치를 도시한 블록도.FIG. 2C is a block diagram illustrating the placement of the decoder shown in FIG. 2B used to decode a video signal in 750P format to a 525P / 525I format including down conversion by three factors.

도 2D는 2 인자 만큼의 다운 변환을 포함하는 750P 포맷의 비디오 신호를 525P/525I 포맷으로 디코딩하는데 사용되는 도 2B에 도시된 디코더의 배치를 도시한 블록도.FIG. 2D is a block diagram illustrating the arrangement of the decoder shown in FIG. 2B used to decode a video signal in 750P format including the down conversion by two factors into a 525P / 525I format.

도 3A는 본 발명의 양호한 실시예에 따른 하위 화소의 위치들(subpixel positions)과 3:1 및 2:1에 대응하는 예측된 화소들을 도시한 화소 차트(pixel chart).FIG. 3A is a pixel chart showing subpixel positions and predicted pixels corresponding to 3: 1 and 2: 1 in accordance with a preferred embodiment of the present invention. FIG.

도 3B는 본 발명의 양호한 실시예에 따라 입력 매크로블록의 각 행에 대해 수행되는 업-샘플링 프로세스(upsampling process)의 흐름도.3B is a flow diagram of an upsampling process performed for each row of an input macroblock in accordance with a preferred embodiment of the present invention.

도 4는 블록 거울 필터의 양호한 실시예의 제 1 및 제 2 출력 화소값들에 대한 곱셈 켤레(multiplication pairs)를 도시한 화소 차트.4 is a pixel chart showing multiplication pairs for the first and second output pixel values of a preferred embodiment of a block mirror filter.

도 5는 캐스케이드 1 차원 IDCT(cascaded one-dimentional IDCT)로 수행되는 수평 및 수직 성분들을 처리하는 2 차원 시스템의 다운 변환을 위한 필터의 양호한 수행을 도시한 블록도.FIG. 5 is a block diagram illustrating a good performance of a filter for down conversion of a two-dimensional system that processes horizontal and vertical components performed with cascaded one-dimentional IDCT (IDCT). FIG.

도 6A는 3:1 감소를 사용하는 4:2:0 비디오 신호에 대한 입력 및 감소된 출력 화소를 도시한 매크로블록도.FIG. 6A is a macroblock diagram illustrating input and reduced output pixels for a 4: 2: 0 video signal using 3: 1 reduction. FIG.

도 6B는 2:1 감소를 사용하는 4:2:0 비디오 신호에 대한 입력 및 감소된 출력 화소를 도시한 화소 블록도.6B is a pixel block diagram illustrating input and reduced output pixels for a 4: 2: 0 video signal using a 2: 1 reduction.

도 6C는 2 만큼 수평 다운 변환되어 메모리내에 저장되도록 2개의 매크로블록들을 1개의 매크로블록으로 병합하는 프로세스를 도시한 매크로블록도.FIG. 6C is a macroblock diagram illustrating a process of merging two macroblocks into one macroblock to be horizontally down-converted by two and stored in memory; FIG.

도 6D는 3 만큼 수평 다운 변환되어 메모리내에 저장되도록 3개의 매크로블록들을 1개의 매크로블록으로 병합하는 프로세스를 도시한 매크로블록도.6D is a macroblock diagram illustrating a process of merging three macroblocks into one macroblock to be horizontally down-converted by three and stored in memory.

도 7A는 본 발명의 일 실시예의 수직 프로그램 가능한 필터(vertical programmable filter)의 블록도.7A is a block diagram of a vertical programmable filter of one embodiment of the present invention.

도 7B는 수직 필터 계수들(vertical filter coefficients)과 도 7A의 수직 프로그램 가능한 필터의 선로들의 화소 샘플 공간(pixel sample space)간의 공간 관계를 도시한 화소도.FIG. 7B is a pixel diagram illustrating the spatial relationship between vertical filter coefficients and pixel sample space of the lines of the vertical programmable filter of FIG. 7A. FIG.

도 8A는 본 발명의 일 실시예의 수평 프로그램 가능한 필터를 도시한 블록도.8A is a block diagram illustrating a horizontal programmable filter of one embodiment of the present invention.

도 8B는 본 발명의 양호한 실시예의 수평 필터 계수들과 화소 샘플값들간의 공간 관계를 도시한 화소도.Fig. 8B is a pixel diagram showing a spatial relationship between horizontal filter coefficients and pixel sample values in a preferred embodiment of the present invention.

도 9A는 본 발명의 양호한 실시예의 재샘플링비 프로파일(resampling ratio profile)을 도시하는 재샘플링비 대 화소수의 그래프.9A is a graph of resampling ratio vs. number of pixels, showing a resampling ratio profile of a preferred embodiment of the present invention.

도 9B는 4:3 화상을 16:9 디스플레이로 사상하는 제 1 비 프로파일을 도시한 그래프.9B is a graph depicting a first ratio profile that maps a 4: 3 picture to a 16: 9 display.

도 9C는 4:3 화상을 16:9 디스플레이로 사상하는 제 2 비 프로파일을 도시한 그래프.9C is a graph depicting a second ratio profile that maps a 4: 3 picture to a 16: 9 display.

도 9D는 16:9 화상을 4:3 디스플레이로 사상하는 제 1 비 프로파일을 도시한 그래프.9D is a graph depicting a first ratio profile that maps a 16: 9 image to a 4: 3 display.

도 9E는 16:9 화상을 4:3 디스플레이로 사상하는 제 2 비 프로파일을 도시한 그래프.9E is a graph depicting a second ratio profile that maps a 16: 9 picture to a 4: 3 display.

도 10은 본 발명의 양호한 실시예에 따른 재샘플링비 프로파일의 사용의 효과를 도시한 이미지 다이어그램의 차트.10 is a chart of an image diagram illustrating the effect of using a resampling ratio profile in accordance with a preferred embodiment of the present invention.

도 11A는 본 발명의 양호한 실시예의 ATV 비디오 디코더의 디스플레이 섹션(display section)의 고레벨 블록도.Is a high level block diagram of a display section of an ATV video decoder of a preferred embodiment of the present invention.

도 11B는 본 발명의 양호한 실시예의 27[MHz] 듀얼 출력 모드(Dual output mode)를 도시한 블록도로서, 비디오 데이터는 525P 또는 525I이고, 제 1 처리 사슬(a first processing chain)은 NTSC 인코더(NTSC encoder) 및 27[MHz] DAC로 비디오 데이터를 제공한다.FIG. 11B is a block diagram illustrating a 27 [MHz] dual output mode of a preferred embodiment of the present invention, wherein video data is 525P or 525I, and a first processing chain is an NTSC encoder (FIG. NTSC encoder) and 27 [MHz] DAC to provide video data.

도 11C는, 본 발명의 양호한 실시예의 27[MHz] 단일 출력 모드에서, 오직 525I 비디오 신호만이 NTSC 인코더로 제공되는 것을 도시한 블록도.FIG. 11C is a block diagram showing that in the 27 [MHz] single output mode of the preferred embodiment of the present invention, only 525I video signals are provided to the NTSC encoder. FIG.

도 11D는 본 발명의 양호한 실시예의 74[MHz]/27[MHz] 모드를 도시한 블록도로서, 출력 포맷은 입력 포맷과 일치하고, 비디오 데이터는 상기 입력 포맷에 따라 27[MHz] DAC 또는 74[MHz] DAC로 제공된다.FIG. 11D is a block diagram illustrating 74 [MHz] / 27 [MHz] mode of a preferred embodiment of the present invention, where the output format matches the input format and video data is 27 [MHz] DAC or 74 depending on the input format. [MHz] Provided as a DAC.

도 12는 ATSC 비디오 신호를 디코딩하도록 본 발명의 양호한 실시예에 의해 채용된 고대역폭 메모리(high bandwidth memory)를 구비한 비디오 디코더의 고레벨 블록도.12 is a high level block diagram of a video decoder with a high bandwidth memory employed by the preferred embodiment of the present invention to decode an ATSC video signal.

본 발명은 디지털 비디오 신호 처리 시스템으로 구현되어, 복수의 상이한 포맷들로 부호화된 비디오 신호를 수신, 디코딩 및 디스플레이한다. 상기 시스템은 디지털 비디오 디코더를 포함함으로써, 상기 부호화 비디오 신호를 디코딩하고, 선택적으로, 상기 디코딩된 비디오 신호의 저감 해상도 버전을 제공하도록 제어될 수 있다. 상기 시스템은 수신된 부호화 비디오 신호를 처리하여, 상기 신호가 디코딩된 경우에 발생되는 이미지의 포맷 및 해상도를 결정한다. 상기 시스템은 제어기를 포함하여, 상기 결정된 포맷 및 해상도 정보를 수신하고, 상기 수신된 이미지가 디스플레이될 디스플레이 장치의 포맷 및 해상도에 관한 정보를 수신한다. 그 후, 상기 제어기는 신호들을 발생함으로써, 디지털 비디오 디코더로 하여금 상기 디스플레이 장치에 적합한 해상도 및 종횡비를 가진 아날로그 비디오 신호를 제공하게 한다.The present invention is implemented with a digital video signal processing system to receive, decode and display a video signal encoded in a plurality of different formats. The system may be controlled to include a digital video decoder to decode the encoded video signal and optionally provide a reduced resolution version of the decoded video signal. The system processes the received encoded video signal to determine the format and resolution of the image generated when the signal is decoded. The system includes a controller to receive the determined format and resolution information and to receive information regarding the format and resolution of a display device on which the received image is to be displayed. The controller then generates signals, causing the digital video decoder to provide an analog video signal having a resolution and aspect ratio suitable for the display device.

본 발명의 일 실시예에 따르면, 부호화 비디오 신호는 주파수 영역 변환 동작의 사용에 의해 부호화되고, 상기 디지털 비디오 디코더는 상기 주파수 영역 변환된 디지털 비디오 신호에 동작하는 저역 통과 필터(low-pass filter)를 포함한다.According to an embodiment of the present invention, an encoded video signal is encoded by using a frequency domain transform operation, and the digital video decoder comprises a low-pass filter that operates on the frequency domain transformed digital video signal. Include.

본 발명의 또다른 실시예에 따르면, 디지털 비디오 디코더는 제어기에 의해 제공된 제어 신호에 응답하는 프로그램 가능한 공간 필터(spatial filter)에 접속됨으로써, 상기 디지털 비디오 디코더에 의해 제공되는 디코딩된 디지털 비디오 신호를 재샘플링(resample)하여, 상기 디스플레이 장치의 종횡비 및 해상도에 일치하는 디지털 비디오 신호를 발생한다.According to another embodiment of the invention, the digital video decoder is connected to a programmable spatial filter responsive to the control signal provided by the controller, thereby reconstructing the decoded digital video signal provided by the digital video decoder. Sampling generates a digital video signal that matches the aspect ratio and resolution of the display device.

본 발명의 또다른 실시예에 따르면, 디지털 비디오 신호는 동화상 전문가 그룹(MPEG)에 의해 지정된 부호화 기술(encoding technique)의 사용에 따라 부호화되고, 상기 부호화 비디오 신호의 종횡비 및 해상도는 디지털 비디오 디코더에 의해 수신된 패킷화 기본 스트림(packetized elementary stream(PES)) 패킷의 헤더(header)로부터 추출된다.According to another embodiment of the present invention, the digital video signal is encoded in accordance with the use of an encoding technique designated by a moving picture expert group (MPEG), and the aspect ratio and resolution of the encoded video signal are converted by a digital video decoder. It is extracted from the header of the received packetized elementary stream (PES) packet.

본 발명의 또 다른 실시예에 따르면, 디지털 비디오 신호는 화상 전문가 그룹(MPEG)에 의해 지정된 부호화 기술의 사용에 따라 부호화되고, 상기 부호화 비디오 신호의 종횡비 및 해상도는 디지털 비디오 디코더에 의해 수신된 비디오 비트 스트림(video bit-stream)의 시퀀스 헤더로부터 추출된다.According to another embodiment of the present invention, the digital video signal is encoded according to the use of an encoding technique specified by a group of picture experts (MPEG), wherein the aspect ratio and resolution of the encoded video signal are received by the digital video decoder. Extracted from the sequence header of the video bit-stream.

본 발명의 또 다른 실시예에 따르면, 시스템은 사용자 입력 장치(user input device)를 포함하여, 사용자로 하여금 디스플레이 장치와 양립 가능한 출력 비디오 신호를 발생하도록 상기 시스템을 배열하게 할 수 있다.According to another embodiment of the present invention, the system may include a user input device to allow the user to arrange the system to generate an output video signal compatible with the display device.

본 발명의 또 다른 실시예에 따르면, 시스템은 디스플레이 장치의 종횡비 및 해상도를 자동적으로 결정하는 장치를 포함한다.According to another embodiment of the invention, the system comprises an apparatus for automatically determining the aspect ratio and resolution of the display device.

본 발명의 또 다른 실시예에 따르면, 시스템은 복수의 디스플레이 장치 타입들에 대응한 비디오 신호들을 계열적으로 발생하는 장치를 포함하고, 사용자에 의해 제공된 선택 신호에 응답하여 디스플레이 장치의 해상도 및 종횡비에 대응하는 디스플레이 타입들 중의 하나를 식별한다.According to still another embodiment of the present invention, a system includes a device for serially generating video signals corresponding to a plurality of display device types, the system being adapted to a resolution and aspect ratio of the display device in response to a selection signal provided by a user. Identifies one of the corresponding display types.

본 발명의 상기 특성들과 장점들은 첨부된 도면들과 후술한 기재 내용들로부터 명백히 이해될 것이다.The above features and advantages of the present invention will be apparent from the accompanying drawings and the description below.

시스템 개관(System Overview)System Overview

본 발명의 양호한 실시예는 MPEG-2 표준(특히, 주 프로파일 고레벨(MP@HL) 및 주 프로파일 주 레벨(MP@ML) 표준)에 따라 부호화된 종래의 HDTV 신호를 디코딩하고, 상기 디코딩된 신호를 수신된 HDTV 신호의 해상도에 비해 낮은 해상도를 가지고 다수의 포맷들 중의 선택된 하나를 가지는 비디오 신호로서 제공한다.A preferred embodiment of the present invention decodes a conventional HDTV signal encoded according to the MPEG-2 standard (especially the Main Profile High Level (MP @ HL) and Main Profile Main Level (MP @ ML) standards), and the decoded signal. It is provided as a video signal having a selected one of a plurality of formats having a lower resolution than the resolution of a received HDTV signal.

MPEG-2 주 프로파일 표준은 이미지들의 시퀀스를 5 레벨로 규정한다: 시퀀스 레벨, 화소 레벨들의 그룹, 화소 레벨, 슬라이스 레벨 및 매크로블록 레벨(macroblock level). 상기 레벨들 각각은 데이터 스트림내에 기록될 수 있으며, 뒤에 열거된 레벨들은 앞에 열거된 레벨들내의 서브 레벨로서 발생된다. 각 레벨에 대한 레코드(record)는 그 서브 레코드(sub-record)의 디코딩에 사용되는 데이터를 수용하는 헤더 섹션(header section)을 포함한다.The MPEG-2 main profile standard defines a sequence of images at five levels: sequence level, group of pixel levels, pixel level, slice level and macroblock level. Each of these levels can be recorded in a data stream, with the levels listed later being generated as sub-levels in the levels listed earlier. The record for each level includes a header section that holds the data used for decoding the sub-record.

부호화된 HDTV 신호의 각 매크로블록은 6개의 블록들을 포함하며, 각 블록은 HDTV 이미지내의 64개의 화상 요소들(화소들)의 이산 코사인 변환(Discrete Cosine Transform(DCT)) 표시의 64개의 개별 계수값들을 표시한다.Each macroblock of an encoded HDTV signal contains six blocks, each of which has 64 discrete coefficient values of a discrete cosine transform (DCT) representation of 64 picture elements (pixels) in the HDTV image. Display them.

부호화 프로세스에서, 상기 이산 코사인 변환에 선행하여 모션 보상 미분 코딩(motion compensated differential coding)에 종속될 수 있으며, 변환된 계수들의 블록들은 런-길이(run-length) 및 변수 길이(variable length) 부호화 기술에 의해 더 부호화된다. 데이터 스트림으로부터 이미지 시퀀스를 복구하는 디코더는 부호화 프로세스를 반전(reverse)한다. 상기 디코더는 엔트로피 디코더(entropy decoder)(예컨대, 변수 길이 디코더), 인버스 이산 코사인 변환 프로세서(inverse discrete cosine transform processor), 모션 보상 프로세서(motion compensation processor) 및 보간 필터(interpolation filter)를 채용한다.In the encoding process, prior to the discrete cosine transform may be subject to motion compensated differential coding, the blocks of transformed coefficients are run-length and variable length coding techniques Is further encoded. A decoder that recovers an image sequence from the data stream reverses the encoding process. The decoder employs an entropy decoder (eg, variable length decoder), an inverse discrete cosine transform processor, a motion compensation processor and an interpolation filter.

본 발명의 비디오 디코더는 다수의 상이한 화상 포맷들을 지원하도록 고안되었으며, 고해상도 부호화 화상 포맷들을 다운 변환하는 최소한의 디코딩 메모리(decoding memory)를 요구한다. 예컨대, 상기 메모리는 48[Mb]의 병행 램버스 다이나믹 임의 접근 메모리(Concurrent Rambus dynamic random access memory (Concurrent RDRAM))가 될 수 있다.The video decoder of the present invention is designed to support a number of different picture formats and requires a minimum decoding memory that down converts high resolution encoded picture formats. For example, the memory may be 48 [Mb] parallel Rambus dynamic random access memory (Concurrent RDRAM).

도 1A에는 MP@HL 또는 MP@ML에서 부호화된 비디오 정보를 수신 및 디코딩하고, 상기 디코딩된 정보를 사용자 선택 출력 비디오 포맷(비디오 및 오디오 정보를 모두 포함)으로 포맷하는 본 발명의 양호한 실시예와, 상기 포맷된 비디오 출력 신호를 디스플레이 장치로 제공하는 인터페이스를 채용하는 시스템이 도시되어 있다. 본 발명의 양호한 실시예는 모든 ATSC 비디오 포맷을 지지하도록 고안되었다. 그리고, 다운 변환(DC) 모드에서 본 발명은 임의의 MPEG 주 프로파일 비디오 비트스트림(FCC 표준에 의해 강제됨)을 수신하고 525P, 525I 또는 NTSC 포맷 화상을 제공한다.1A shows a preferred embodiment of the present invention for receiving and decoding video information encoded in MP @ HL or MP @ ML and formatting the decoded information into a user-selected output video format (including both video and audio information). A system employing an interface for providing the formatted video output signal to a display device is shown. The preferred embodiment of the present invention is designed to support all ATSC video formats. And, in down conversion (DC) mode, the present invention receives any MPEG main profile video bitstream (forced by the FCC standard) and provides a 525P, 525I or NTSC format picture.

도 1A의 양호한 시스템은 전처리 인터페이스(front end interface)(100), 비디오 디코더 섹션(120) 및 디코더 메모리(130), 주 비디오 출력 인터페이스(140), 오디오 디코더 섹션(160), 광 컴퓨터 인터페이스(110) 및 선택적 NTSC 비디오 처리 섹션(150)을 포함한다.The preferred system of FIG. 1A is a front end interface 100, a video decoder section 120 and decoder memory 130, a main video output interface 140, an audio decoder section 160, an optical computer interface 110. ) And an optional NTSC video processing section 150.

도 1A를 참조하면, 상기 양호한 시스템은 전송 디코더(transport decoder)와 메모리(103)를 구비한 프로세서(102)를 가지는 전처리 인터페이스(100)를 포함한다. 또한, 전처리 인터페이스(100)는, 예컨대, IEEE 1394 링크층 프로토콜(IEEE 1394 link layer protocol)로 수신된 제어 정보와 컴퓨터 인터페이스(110)로부터의 컴퓨터 발생된 이미지를 선택하고 디지털 텔레비젼 튜너(도시되지 않음)로부터의 부호화된 전송 스트림을 복구하는 선택적 멀티플렉서(multiplexer)(101)를 포함한다. 전송 디코더(102)는 통신 채널 비트스트림으로부터 수신된 압축 데이터 비트스트림을 압축 비디오 데이터로 변환한다. 예컨대, 이는 MPEG-2 표준에 따른 패킷화 요소 스트림(packetized elementary streams)(PES) 패킷이 될 수 있다. 상기 전송 디코더는 PES 패킷들 모두를 제공하거나 상기 PES 패킷들을 1 이상의 요소 스트림으로 변환한다.With reference to FIG. 1A, the preferred system includes a preprocessing interface 100 having a transport decoder and a processor 102 having a memory 103. In addition, the preprocessing interface 100 selects, for example, control information received in the IEEE 1394 link layer protocol and a computer-generated image from the computer interface 110, and selects a digital television tuner (not shown). An optional multiplexer 101 to recover the encoded transport stream from < RTI ID = 0.0 > The transport decoder 102 converts the compressed data bitstream received from the communication channel bitstream into compressed video data. For example, it may be a packetized elementary streams (PES) packet according to the MPEG-2 standard. The transport decoder provides all of the PES packets or converts the PES packets into one or more elementary streams.

비디오 디코더 섹션은 ATV 비디오 디코더(121) 및 위상 잠금 루프(PLL)(122)를 포함한다. ATV 비디오 디코더(121)는 전처리 인터페이스(100)로부터 요소 스트림 또는 비디오(PES) 패킷을 수신하고, 상기 패킷을 요소 스트림으로 변환한다. 그 후, ATV 비디오 디코더(121)의 전처리 화상 프로세서는 사용된 부호화 방법에 따라 상기 요소 스트림을 디코딩하여, 각 이미지 화상에 대한 휘도 및 색차(chrominance) 화소 정보를 제공한다. PLL(122)은 도 1A에 도시된 시스템에 의해 수행되는 오디오 및 비디오 프로세스에 동기화한다.The video decoder section includes an ATV video decoder 121 and a phase lock loop (PLL) 122. The ATV video decoder 121 receives an element stream or video (PES) packet from the preprocessing interface 100 and converts the packet into an element stream. The pre-processing image processor of the ATV video decoder 121 then decodes the element stream according to the encoding method used to provide luminance and chrominance pixel information for each image image. PLL 122 synchronizes to the audio and video processes performed by the system shown in FIG. 1A.

ATV 비디오 디코더(121)는 이미지 화상 정보를 제공하는 외부 메모리를 사용한 디코딩 동작을 제어하는 메모리 서브-시스템과, 디코딩된 화상 정보를 소정의 화상 포맷으로 처리하는 디스플레이 섹션을 더 포함한다. ATV 비디오 디코더(121)는 디코더 메모리(130)를 채용하여 부호화된 비디오 신호를 처리한다. 디코더 메모리(130)는 메모리 유닛들(131, 132, 133, 134, 135, 136)을 포함하는데, 상기 유닛들 각각은 16[Mb] RDRAM 메모리가 될 수 있다. 본 발명의 양호한 실시예들은 비디오 디코더 섹션(120) 및 디코더 메모리(130)에 관하여 기술된다.The ATV video decoder 121 further includes a memory sub-system for controlling a decoding operation using an external memory for providing image picture information, and a display section for processing the decoded picture information into a predetermined picture format. The ATV video decoder 121 employs a decoder memory 130 to process the encoded video signal. Decoder memory 130 includes memory units 131, 132, 133, 134, 135, and 136, each of which may be a 16 [Mb] RDRAM memory. Preferred embodiments of the present invention are described with respect to video decoder section 120 and decoder memory 130.

주 비디오 출력 인터페이스(140)는, 필터(142)에 앞서고 74[MHz]에서 동작하는 제 1 디지털-아날로그(D/A) 변환기(DAC)(141)(휘도 신호와 CR 및 CB 색차 신호들을 위한 3개의 D/A 유닛들을 구비함)를 포함한다. 상기 인터페이스는 1125I 또는 750P 포맷의 아날로그 비디오 신호를 발생한다. 또한, 인터페이스(140)는, 525I 또는 525P를 가지는 비디오 신호들에 위해, 필터(142)에 앞서고 27[MHz]에서 동작할 수 있는 제 2 D/A 변환기(DAC)(143)을 포함한다. 주 비디오 출력 인터페이스(140)는 소정의 포맷을 가진 디지털 부호화된 비디오 신호를 변환하고, D/A 변환기를 사용하여 소정의 포맷을 가진 색차 및 휘도 성분들을 가지는 아날로그 비디오 신호를 생성하며, 상기 아날로그 비디오 신호를 여파하여 상기 D/A 변환 프로세스의 샘플링 아티팩트(sampling artifact)를 제거한다.The primary video output interface 140 includes a first digital-to-analog (D / A) converter (DAC) 141 (luminance signal and C R and C B chrominance signals) prior to filter 142 and operating at 74 [MHz]. With three D / A units). The interface generates an analog video signal in 1125I or 750P format. The interface 140 also includes a second D / A converter (DAC) 143 that can operate at 27 [MHz] and prior to the filter 142 for video signals having 525I or 525P. The primary video output interface 140 converts a digitally encoded video signal having a predetermined format, and generates an analog video signal having color difference and luminance components having a predetermined format by using a D / A converter. Filtering the signal removes sampling artifacts of the D / A conversion process.

오디오 디코더 섹션(160)은 출력 포트들(163, 164)에 오디오 신호를 제공하는 AC3 오디오 디코더(162)와, 출력 포트(165)에 2 채널 오디오 신호들을 제공하는 선택적 6-2 채널 다운 믹싱 프로세서(6-2 channel down mixing processor)(161)를 포함한다. MP@HL MPEG-2 표준 오디오 신호 성분들을 부호화 디지털 정보로부터 출력 포트들(163, 164, 165)의 아날로그 출력으로 변환하는 오디오 프로세스는 당해 기술 분야에서 주지되어 있고, 디코더(160)로 사용되기에 적합한 오디오 디코더는 캘리포니아주 산타 클라라의 조란 주식회사(Zoran Corporation)의 제품 ZR38500 6 채널 돌비 디지털 서라운드 프로세서(ZR38500 Six Channel Dolby Digital Surround Processor)이다.Audio decoder section 160 includes an AC3 audio decoder 162 for providing audio signals to output ports 163 and 164 and an optional 6-2 channel down mixing processor for providing two channel audio signals to output port 165. A 6-2 channel down mixing processor 161. An audio process for converting MP @ HL MPEG-2 standard audio signal components from encoded digital information to analog output of output ports 163, 164, 165 is well known in the art and is used as decoder 160. A suitable audio decoder is the ZR38500 Six Channel Dolby Digital Surround Processor from Zoran Corporation of Santa Clara, California.

선택적 컴퓨터 인터페이스(110)는, 예컨대, IEEE 1394 표준에 따른 컴퓨터 이미지 신호를 송수신한다. 컴퓨터 인터페이스(110)는 물리 층 프로세서(physical layer processor)(111) 및 링크 층 프로세스(link layer processor)(112)를 포함한다. 물리 층 프로세서(111)는 출력 포트(113)로부터의 전기적 신호를 컴퓨터 발생된 이미지 정보 또는 제어 신호로 변환하고, 링크 층 프로세서(112)에 의해 IEEE 1394 포맷된 데이터로 디코딩되도록 상기 신호들을 제공한다. 또한, 물리 층 프로세서(111)는 전송 디코더(102)로부터 기원하여 링크 층 프로세서(112)에 의해 부호화되는 수신된 제어 신호를 IEEE 1394 표준에 따른 전기적 출력 신호로 변환한다.The optional computer interface 110 transmits and receives computer image signals according to, for example, the IEEE 1394 standard. Computer interface 110 includes a physical layer processor 111 and a link layer processor 112. The physical layer processor 111 converts the electrical signal from the output port 113 into computer generated image information or control signal and provides the signals to be decoded by the link layer processor 112 into IEEE 1394 formatted data. . In addition, the physical layer processor 111 converts the received control signal originating from the transport decoder 102 and encoded by the link layer processor 112 into an electrical output signal in accordance with the IEEE 1394 standard.

NTSC 비디오 프로세싱 섹션(150)은 필터(142)에 의해 제공된 아날로그 HDTV 신호를 525 I 신호로 변환하는 선택적 ATV-NTSC 다운 변환 프로세서(151)를 포함한다. 표준들 사이의 상기 변환은 당해 기술 분야에서 주지되어 있고, 예컨대, 본원에서 레퍼런스로 제시된 Hau 등의 미국 특허(No. 5,613,084), "위상 양자화를 이용한 샘플 비를 변환하는 보간 필터 선택 회로(INTERPOLATION FILTER SELECTION CIRCUIT FOR SAMPLE RATE CONVERSION USING PHASE QUANTIZATION)"에 기재된 공간 필터링 기술의 사용에 의해 성취될 수 있다. 본 발명의 양호한 실시예에서, 상기 프로세싱 섹션은 상기 디코더가 1080I 또는 1125I 신호를 프로세스할 때에만 사용된다.NTSC video processing section 150 includes an optional ATV-NTSC down conversion processor 151 that converts the analog HDTV signal provided by filter 142 into a 525 I signal. Such conversions between standards are well known in the art and are described, for example, in US Pat. No. 5,613,084 to Hau et al., Incorporated herein by reference, “Interpolation filter selection circuit for converting sample ratios using phase quantization (INTERPOLATION FILTER). SELECTION CIRCUIT FOR SAMPLE RATE CONVERSION USING PHASE QUANTIZATION). In a preferred embodiment of the present invention, the processing section is used only when the decoder processes a 1080I or 1125I signal.

NTSC 인코더(152)는 프로세서(151) 또는 디코더(120)로부터 525I 아날로그 신호를 수신하고, 출력 포트들(153(S-비디오), 154(복합 비디오))에서 상기 신호를 NTSC 포맷된 비디오 신호로 변환한다.NTSC encoder 152 receives a 525I analog signal from processor 151 or decoder 120 and converts the signal into an NTSC formatted video signal at output ports 153 (S-video), 154 (composite video). Convert.

디코더 메모리를 구비한 비디오 디코더 섹션Video decoder section with decoder memory

도 1B는 본 발명의 양호한 실시예에 채용된 외부 메모리(130)로의 인터페이스를 포함하는 ATV 비디오 디코더(121)의 기능 블록들을 도시한 고레벨 블록도이다. ATV 비디오 디코더(121)는 화상 프로세서(171), 매크로블록 디코더(172), 디스플레이 섹션(173) 및 메모리 서브-시스템(174)을 포함한다. 화상 프로세서(171)는 인입 MPEG-2 비디오 비트스트림을 수신, 저장 및 부분적 디코딩하고, 상기 부화화된 비트스트림, 온 스크린 디스플레이 데이터 및 모션 벡터를 제공하며, 이들은 메모리 시스템(174)의 제어에 따라 메모리(130)에 저장될 수 있다. 매크로블록 디코더(172)는 예보 인코딩(predictive encoding)이 사용되는 경우에 상기 부호화된 비트스트림, 모션 벡터 및 모션 보상 기준 이미지 데이터를 수신하고, 상기 부호화된 비디오 이미지의 디코딩된 매크로블록을 메모리 서브-시스템(174)으로 제공한다. 디스플레이 섹션(173)은 메모리 서브-시스템(174)으로부터의 디코딩된 매크로블록들을 검색하고, 이들을 디스플레이용 비디오 이미지 화상으로 포맷한다. 이하에서 상기 섹션들의 동작에 대해 상세히 기술하고 있다.1B is a high level block diagram illustrating the functional blocks of ATV video decoder 121 including an interface to external memory 130 employed in the preferred embodiment of the present invention. The ATV video decoder 121 includes a picture processor 171, a macroblock decoder 172, a display section 173 and a memory sub-system 174. The image processor 171 receives, stores and partially decodes the incoming MPEG-2 video bitstream and provides the hatched bitstream, on screen display data and motion vectors, which are under the control of the memory system 174. It may be stored in the memory 130. The macroblock decoder 172 receives the encoded bitstream, the motion vector and the motion compensation reference image data when predictive encoding is used, and stores the decoded macroblock of the encoded video image in memory sub-. To system 174. Display section 173 retrieves the decoded macroblocks from memory sub-system 174 and formats them into a video image picture for display. The operation of the sections is described in detail below.

a) 화상 처리를 위한 주 프로파일 포맷 지원 a) Main profile format support for image processing

본 발명의 ATV 비디오 디코더(121)는 모든 ATSC 비디오 포맷들을 지원하도록 고안되었다. 즉, ATV 디코더(121)의 동작은 다운 변환(Down Conversion(DC))으로 불리우며, ATV 비디오 디코더(121)는 표 1에 도시된 임의의 MPEG 주 프로파일 비디오 비트스트림을 수신하고 525P, 525I 또는 NTSC 포맷 비디오 신호를 제공한다. 도 1A의 양호한 비디오 디코더에 대해, DC 모드에서, 임의의 HDTV 또는 SDTV 신호는 디코딩되고 2 포트들(포트 1은 순차 또는 비월 이미지를 제공하고, 포트 2는 비월 이미지를 제공함)에서 제공된 출력 신호를 디스플레이한다.The ATV video decoder 121 of the present invention is designed to support all ATSC video formats. That is, the operation of the ATV decoder 121 is called Down Conversion (DC), and the ATV video decoder 121 receives any MPEG main profile video bitstream shown in Table 1 and receives 525P, 525I or NTSC. Provides a format video signal. For the preferred video decoder of FIG. 1A, in DC mode, any HDTV or SDTV signal is decoded and output signal provided at 2 ports (port 1 provides sequential or interlaced image, port 2 provides interlaced image). Display.

[표 1]TABLE 1

DC 모드에서, 주 레벨 화상의 고주파 성분들의 저역 통과 여파는 고해상도 화상을 저해상도가 가진 포맷에 적응되도록 디코딩 프로세스의 일부로서 발생한다. 상기 동작은 고해상도 화상의 수평 및 수직 여파를 포함한다. DC 모드에서, 상기 디스플레이 포맷 변환은 4×3 디스플레이상에 16×9 종횡비 소스를 디스플레이 할 수 있으며, 그 역도 가능하다. 상기 프로세스는 비디오 디코더 섹션(120)의 디스플레이 섹션에 관해 계속하여 기술된다. 표 2는 표 1의 각각의 입력 비트스트림에 대한 제 1 및 제 2 출력 화상 포맷들을 제공한다:In the DC mode, the low pass filtering of the high frequency components of the main level picture occurs as part of the decoding process to adapt the high resolution picture to a low resolution format. The operation includes horizontal and vertical filtering of high resolution images. In DC mode, the display format conversion can display a 16x9 aspect ratio source on a 4x3 display, and vice versa. The process continues with respect to the display section of video decoder section 120. Table 2 provides the first and second output picture formats for each input bitstream of Table 1:

[표 2]TABLE 2

b)디코딩, 다운 변환 및 다운 샘플링 b) decoding, down-conversion and down-sampling

1) 개요1) Overview

도 2A는 MPEG-2 부호화된 화상을 처리하는 종래 기술의 전형적인 비디오 디코딩 시스템의 고레벨 블록도이다. 후속 처리, 다운 변환 또는 포맷 변환을 이용하지 않고 MPEG-2 부호화된 화상을 디코딩하는 일반적인 방법은, MPEG-2 표준에 의해 특정된다. 상기 비디오 디코딩 시스템은 파져(parser)(209)를 포함할 수 있는 엔트로피 디코더(ED)(211)와, 가변 길이 디코더(variable length decoder(VLD))(210)와, 실행 길이 디코더(run length decoder)(212)를 포함한다. 상기 시스템은 또한 반전 퀀타이져(inverse quantizer)(214) 및 반전 이산 코사인 변환(IDCT) 프로세서(218)를 포함한다. 제어기(207)는 ED(211)에 의해 입력 비트 스트림으로부터 검색된 제어 정보에 응답하여 디코딩 시스템의 다양한 성분들을 제어한다. 예측 이미지들의 처리를 위해, 상기 시스템은 기준 프레임 메모리(222)와, 합산 네트워크(230)와, 모션 벡터 프로세서(221) 및 반 화소 발생기(half-pixel generator)(228)를 구비할 수 있는 모션 보상 프로세서(206a)를 더 포함한다.2A is a high level block diagram of a typical video decoding system of the prior art for processing MPEG-2 encoded pictures. The general method of decoding an MPEG-2 encoded picture without using subsequent processing, down conversion or format conversion is specified by the MPEG-2 standard. The video decoding system includes an entropy decoder (ED) 211, which may include a parser 209, a variable length decoder (VLD) 210, and a run length decoder. 212. The system also includes an inverse quantizer 214 and an inverse discrete cosine transform (IDCT) processor 218. The controller 207 controls various components of the decoding system in response to the control information retrieved from the input bit stream by the ED 211. For processing of predictive images, the system may include a reference frame memory 222, a summing network 230, a motion vector processor 221, and a half-pixel generator 228. It further includes a compensation processor 206a.

제어기(207)는, 예컨대, 사용자 원격 제어 장치에 의해 제공된 명령 신호를 수신하는 적외선 수신기(infrared receiver)(208)에 접속된다. 제어기(207)는 상기 명령들을 디코딩하고, 도 2A에 도시된 시스템의 잔여부로 하여금 특정 명령을 수행하게 한다. 본 발명의 양호한 실시예에서, 도 2A에 도시된 시스템은 사용자가 상기 시스템에 대한 배치를 특정할 수 있는 설정 모드(set-up mode)를 포함한다. 본 발명의 양호한 실시예에서, 상기 배치는 디스플레이 장치 타입의 명세를 포함할 수 있다. 상기 디스플레이 장치 타입은 디스플레이 해상도 및 종횡비에 관해 특정될 수 있다. 사용자는 가능한 선택 메뉴로부터 특별한 디스플레이 종횡비 및 해상도를 선택하거나 상기 시스템으로 하여금 상이한 디스플레이 포맷에 대응하는 신호들이 디스플레이 장치에 연속 제공되는 모드로 진입하도록 함으로써 상기 디스플레이 타입을 특정할 수 있으며, 상기 사용자는 원격 제어 장치를 이용하여 가장 양호한 디스플레이의 표시를 요구할 수 있다. 정상 동작 동안에, 제어기(207)는 또한 ED(211)의 파져(209)로부터 부호화된 비디오 신호의 해상도 및 종횡비에 관한 정보를 수신한다. 상기 정보와 상기 디스플레이 장치의 해상도 및 종횡비에 관한 저장된 정보를 이용하여, 제어기(207)는 상기 시스템으로 하여금 상기 수신된 부호화된 신호를 처리하여 상기 디스플레이 장치상의 디스플레이에 적합한 아날로그 출력 신호를 발생하게 한다.The controller 207 is connected, for example, to an infrared receiver 208 that receives a command signal provided by the user remote control device. Controller 207 decodes the commands and causes the remainder of the system shown in FIG. 2A to perform a particular command. In a preferred embodiment of the present invention, the system shown in FIG. 2A includes a set-up mode in which a user can specify an arrangement for the system. In a preferred embodiment of the invention, the arrangement may comprise a specification of the display device type. The display device type can be specified in terms of display resolution and aspect ratio. The user can specify the display type by selecting a particular display aspect ratio and resolution from a possible selection menu or by causing the system to enter a mode in which signals corresponding to different display formats are continuously provided to the display device, the user being remote The control device can be used to request the display of the best display. During normal operation, the controller 207 also receives information regarding the resolution and aspect ratio of the encoded video signal from the phage 209 of the ED 211. Using the information and stored information regarding the resolution and aspect ratio of the display device, controller 207 causes the system to process the received encoded signal to generate an analog output signal suitable for display on the display device. .

파져(209)는 MPEG 개시 코드들에 대한 수신된 비트스트림을 주사한다. 상기 코드들은 1 값을 가진 단일 비트에 선행한 0 값을 가진 일련의 비트들 23개의 포맷을 가지는 프리픽스(prefix)를 포함한다. 상기 개시 코드의 값은 상기 프리픽스를 뒤따르고, 수신되는 레코드의 타입을 식별한다. 본 발명의 양호한 실시예에서, 파져(209)가 비트스트림을 메모리(199)에 저장하면, 그 후, 상기 비트스트림은 메모리(199)로부터 VLD로 공급되어 계속 처리된다. 도 2A에 도시된 블록도에서, 상기 파져가 상기 VLD로 직접 상기 비트스트림을 제공하는 것이 도시되어 있다.The parser 209 scans the received bitstream for MPEG start codes. The codes include a prefix having the format of a series of 23 bits of zero value followed by a single bit of one value. The value of the start code follows the prefix and identifies the type of record received. In a preferred embodiment of the present invention, when the parser 209 stores the bitstream in the memory 199, the bitstream is then supplied from the memory 199 to the VLD for further processing. In the block diagram shown in FIG. 2A, it is shown that the phage provides the bitstream directly to the VLD.

파져(209)가 비트스트림내의 개시 코드를 발견하면, 상기 비트스트림은 메모리(199)로 전송되어 VBV 버퍼(VBV buffer)에 저장되고, 제어기(207)에 의해 접근되는 메모리(199)의 일 영역내의 개시 코드에는 포인터가 저장된다. 제어기(207)는 계속하여 개시 코드 포인터에 접근하고, 이를 통해, 레코드 헤더에 접근한다. 제어기(207)가 시퀀스 개시 코드를 발견하면, 이는 부호화된 시퀀스에 의해 나타난 이미지 시퀀스의 종횡비 및 해상도를 표시하는 시퀀스 헤더내의 정보에 접근한다. MPEG 표준에 따르면, 상기 정보는 즉시 시퀀스 헤더내의 시퀀스 개시 코드를 뒤따른다.When the parser 209 finds a start code in the bitstream, the bitstream is transferred to the memory 199, stored in a VBV buffer, and an area of the memory 199 accessed by the controller 207. In the start code therein, a pointer is stored. The controller 207 continues to access the start code pointer and thereby access the record header. When the controller 207 finds the sequence start code, it accesses information in the sequence header that indicates the aspect ratio and resolution of the image sequence represented by the encoded sequence. According to the MPEG standard, this information immediately follows the sequence start code in the sequence header.

부호화된 비디오 신호의 디스플레이 포맷에 관한 정보(즉, 그 해상도 및 종횡비)는 또한 패킷화 요소 스트림(PES) 패킷의 헤더에 수용된다. 본 발명의 또 다른 양호한 실시예에서, 파져(209)는 PES 패킷들을 수용하고, 상기 패킷들로부터 헤더를 이탈시키고, 수신된 비디오 신호의 디스플레이 포맷을 포함한 헤더 정보를 제어기(207)로 전송할 수 있다.Information regarding the display format of the encoded video signal (ie its resolution and aspect ratio) is also received in the header of the packetized element stream (PES) packet. In another preferred embodiment of the present invention, the parser 209 may accept PES packets, detach the headers from the packets, and send header information including the display format of the received video signal to the controller 207. .

후기하는 바와 같이, 제어기(207)는 상기 수신된 비디오 신호의 디스플레이 포맷에 관한 정보와, 디스플레이 장치상의 적절한 디스플레이를 위해 상기 수신된 비디오 신호의 프로세스를 자동 또는 반자동 조절하도록 디코더 시스템에 접속된 상기 디스플레이 장치(도시되지 않음)의 디스플레이 포맷에 관한 정보를 수신한다.As described later, the controller 207 is connected to a decoder system to automatically or semi-automatically adjust information regarding the display format of the received video signal and the process of the received video signal for proper display on a display device. Receive information regarding the display format of the device (not shown).

VLD(210)는 파져(209)로부터의 부호화된 비트스트림을 메모리(199)내의 VBV 버퍼(도시되지 않음)를 통해 수신하고, 부호화 프로세스를 반전하여 양자화 주파수 영역(DCT) 계수값의 매크로블록을 제공한다. VLD(210)는 또한 모션 벡터를 포함하는 제어 정보를 제공한다. 상기 모션 벡터는 현재 디코딩되고 있는 예측된 화상의 매크로블록에 대한 선행 디코딩된 이미지내의 대응 매크로블록의 상대 변위를 기술한다. 반전 퀀타이져(214)는 양자화 DCT 변환 계수를 수신하고, 특정 매크로블록에 대한 양자화 DCT 계수를 재구성한다. 특정 블록에 사용될 양자화 매트릭스(quantization matrix)는 ED(211)로부터 수신된다.The VLD 210 receives the encoded bitstream from the parser 209 through a VBV buffer (not shown) in the memory 199 and inverts the encoding process to obtain a macroblock of quantized frequency domain (DCT) coefficient values. to provide. VLD 210 also provides control information including motion vectors. The motion vector describes the relative displacement of the corresponding macroblock in the preceding decoded image relative to the macroblock of the predicted picture that is currently being decoded. Inverse quantizer 214 receives the quantized DCT transform coefficients and reconstructs the quantized DCT coefficients for a particular macroblock. The quantization matrix to be used for the particular block is received from the ED 211.

IDCT 프로세서(218)는 상기 재구성된 DCT 계수를 공간 영역(매크로블록의 휘도 및 색차 성분들을 나타내는 8×8 매트릭스 값들의 각 블록과, 예측된 매크로블록의 차동 휘도 또는 차동 색차 성분들을 나타내는 8×8 매트릭스 값들의 각 블록에 대해)내의 화소값으로 변환한다.The IDCT processor 218 uses the reconstructed DCT coefficients in the spatial domain (each block of 8x8 matrix values representing the luminance and chrominance components of the macroblock, and 8x8 representing the differential luminance or differential chrominance components of the predicted macroblock. For each block of matrix values).

만약 현재 매크로블록이 예측적으로 부호화되지 않는다면, IDCT 프로세서(218)에 의해 제공되는 출력 매트릭스 값들은 현재 비디오 이미지의 대응 매크로블록의 화소값들이다. 만약 매크로블록이 프레임간 부호화된다면, 선행 비디오 화상 프레임의 대응 매크로블록은 모션 보상 프로세서(206)에 의해 사용되도록 메모리(199)에 저장된다. 모션 보상 프로세서(206)는 상기 모션 벡터에 응답하여 메모리(199)로부터 선행 디코딩된 매크로블록을 수신하고, 그 후, 상기 선행 매크로블록을 합산 네트워크(230)내의 현재 IDCT 매크로블록(현재 예측적으로 부호화된 프레임의 잔류 성분에 대응)에 가산하여 현재 비디오 이미지에 대한 화소들의 대응 매크로블록을 제공하며, 이는 기준 프레임 메모리(222)에 저장된다.If the current macroblock is not predictively encoded, the output matrix values provided by IDCT processor 218 are the pixel values of the corresponding macroblock of the current video image. If a macroblock is inter-frame coded, the corresponding macroblock of the preceding video picture frame is stored in memory 199 for use by motion compensation processor 206. Motion compensation processor 206 receives the predecoded macroblock from memory 199 in response to the motion vector, and then adds the preceding macroblock to the current IDCT macroblock (currently predictively) in summing network 230. Corresponding to the residual component of the encoded frame) to provide a corresponding macroblock of pixels for the current video image, which is stored in the reference frame memory 222.

도 2B는 DCT 여파 동작을 채용하는 본 발명의 양호한 실시예의 다운 변환 시스템의 고레벨 블록도로서, 상기 동작은 DC 모드에서 본 발명의 양호한 실시예에 의해 채용될 수 있다. 도 2B에 도시된 바와 같이, 다운 변환 시스템은 가변 길이 디코더(VLD)(210), 실행 길이(R/L) 디코더(212), 반전 퀀타이져(214) 및 반전 이산 코사인 변환(IDCT) 프로세서(218)를 포함한다. 또한, 상기 다운 변환 시스템은 부호화된 화상을 여파하는 다운 변환 필터(216)와 다운 샘플링 프로세서(232)를 포함한다. 후술하는 바는 MP@HL 부호화 입력에 대한 양호한 실시예에 관한 것이지만, 본 발명은 유사한 임의의 부호화 고해상도 이미지 비트스트림에도 적용된다.2B is a high level block diagram of a down conversion system of the preferred embodiment of the present invention employing a DCT filter operation, which operation may be employed by the preferred embodiment of the present invention in DC mode. As shown in FIG. 2B, the down conversion system includes a variable length decoder (VLD) 210, an execution length (R / L) decoder 212, an inverse quantizer 214, and an inverted discrete cosine transform (IDCT) processor. 218. The down conversion system also includes a down conversion filter 216 and a down sampling processor 232 that filter the encoded picture. Although described below relates to a preferred embodiment for MP @ HL encoded input, the present invention applies to any similar encoded high resolution image bitstream.

상기 다운 변환 시스템은 또한 모션 벡터(MV) 트랜슬레이터(MV Translator)(220)를 구비한 모션 보상 프로세서(206b)와, 업 샘플링 프로세서(226)를 구비한 모션 블록 발생기(224)와, 반 화소 발생기(228)와, 기준 플레임 메모리(222)를 포함한다.The down conversion system also includes a motion compensation processor 206b with a motion vector (MV) translator 220, a motion block generator 224 with an upsampling processor 226, and a half pixel. Generator 228 and reference frame memory 222.

도 2B의 제 1 양호한 실시예의 시스템은 또한 수직 프로그램 가능 필터(VPF)(282) 및 수평 프로그램 가능 필터(HZPF)(284)를 구비한 디스플레이 변환 블록(Display Conversion Block)(280)을 포함한다. 디스플레이 변환 블록(280)은 다운 샘플된 이미지를 원래 이미지보다 낮은 해상도를 가진 특정 디스플레이 장치상에 디스플레이되는 이미지로 변환하며, 이에 대해서는, 디스플레이 변환의 섹션 d)(2)에서 상세히 후술한다.The system of the first preferred embodiment of FIG. 2B also includes a Display Conversion Block 280 with a vertical programmable filter (VPF) 282 and a horizontal programmable filter (HZPF) 284. Display conversion block 280 converts the down sampled image into an image displayed on a particular display device having a lower resolution than the original image, as described in detail in section d) (2) of the display conversion.

다운 변환 필터(216)는 주파수 영역에서 고해상도(예컨대, 주 프로파일, 고레벨 DCT) 계수의 저역 통과 여파를 수행한다. 다운 샘플링 프로세스(232)는 여파된 주 프로파일, 고레벨 화상의 감소에 의해 공간 화소들을 제거함으로써 MP@HL 화상의 디스플레이에 요구되는 것보다 낮은 해상도를 가진 모니터상에서 디스플레이될 수 있는 화소값들의 세트를 발생한다. 양호한 기준 프레임 메모리(222)는 상기 다운 샘플된 화상에 대응한 해상도를 가진 최소한 하나의 선행 디코딩된 기준 프레임에 대응하는 공간 화소값들을 저장한다. 프레임간 부호화에 대해, MV 트랜슬레이터(220)는 해상도의 감소와 일치하는 수신된 화상의 각 블록에 대한 모션 벡터를 스케일(scale)하며, 고해상도 모션 블록 발생기(224)는 기준 프레임 메모리(222)에 의해 제공되는 저해상도 모션 블록을 수신하고, 상기 모션 블록들을 업 샘플하고, 디코딩 및 여파된 차동 화소 블록들에 대응한 화소 위치들을 가진 모션 블록들을 제공하는데 필요한 반 화소 보간(half-pixel interpolation)을 수행한다.The down conversion filter 216 performs low pass filtering of high resolution (eg, main profile, high level DCT) coefficients in the frequency domain. The down sampling process 232 generates a set of pixel values that can be displayed on a monitor with a lower resolution than that required for the display of an MP @ HL image by removing spatial pixels by reducing the filtered main profile, high level image. do. The preferred reference frame memory 222 stores spatial pixel values corresponding to at least one previously decoded reference frame having a resolution corresponding to the down sampled picture. For interframe encoding, MV translator 220 scales a motion vector for each block of a received picture that matches the reduction in resolution, and high resolution motion block generator 224 is used for reference frame memory 222. Half-pixel interpolation is required to receive the low resolution motion block provided by, upsample the motion blocks, and provide motion blocks with pixel positions corresponding to the decoded and filtered differential pixel blocks. Perform.

도 1B의 다운 변환 시스템에서, 다운 샘플된 이미지는 고선명 이미지와는 다르게 저장되므로, 기준 이미지의 저장에 필요한 메모리는 상당히 감소된다.In the down conversion system of FIG. 1B, the down sampled image is stored differently from the high definition image, so that the memory required for storing the reference image is significantly reduced.

이제, 프레임내 부호화(infra-frame encoding)를 위한 본 발명의 다운 변환 시스템의 양호한 실시예의 동작을 기술한다. 상기 MP@HL 비트스트림은 VLD(210)에 의해 수신 및 디코딩된다. HDTV 시스템에 사용되는 헤더 정보에 부가하여, VLD(210)는 각 블록 및 매크로블록에 대한 DCT 계수와 모션 벡터 정보를 제공한다. 상기 DCT 계수는 R/L 디코더(212)에서 실행 길이 부호화되고, 반전 퀀타이져(214)에 의해 반전 양자화된다.The operation of the preferred embodiment of the down conversion system of the present invention for intra-frame encoding is now described. The MP @ HL bitstream is received and decoded by the VLD 210. In addition to the header information used in the HDTV system, the VLD 210 provides DCT coefficients and motion vector information for each block and macroblock. The DCT coefficients are run length coded in R / L decoder 212 and inverse quantized by inverse quantizer 214.

상기 DCT 계수들에 의해 표시되는 수신된 비디오 이미지가 고해상도 화상이므로, 본 발명의 양호한 실시예는 고해상도 비디오 이미지가 감소되기 전에 각 블록의 DCT 계수들의 저역 여파를 채용한다. 반전 퀀타이져(214)는 상기 DCT 계수들을 IDCT 프로세서(218)로 제공하기 전에 소정의 필터 계수들과 비교하여 주파수 영역의 저역 통과 여파를 수행하는 DCT 필터(216)에 DCT 계수들을 제공한다. 본 발명의 양호한 실시예에서, 상기 필터 동작은 블록마다 수행된다.Since the received video image represented by the DCT coefficients is a high resolution image, the preferred embodiment of the present invention employs the low pass of the DCT coefficients of each block before the high resolution video image is reduced. Inverting quantizer 214 provides DCT coefficients to DCT filter 216 that performs low pass filtering in the frequency domain by comparing the DCT coefficients to predetermined filter coefficients before providing them to IDCT processor 218. In a preferred embodiment of the present invention, the filter operation is performed block by block.

IDCT 프로세서(218)는 여파된 DCT 계수들의 반전 이산 코사인 변환을 수행하여 공간 화소 샘플 값들을 제공한다. 다운 샘플링 프로세서(232)는 소정의 감소비(decimation ratio)에 따라 공간 화소 샘플 값들을 소거하여 화상 샘플 크기를 감소시킨다; 따라서, 저해상도 화상의 저장은 고해상도 MP@HL 화상의 저장에 필요한 프레임 메모리에 비해 작은 프레임 메모리를 사용한다.IDCT processor 218 performs inverse discrete cosine transform of the filtered DCT coefficients to provide spatial pixel sample values. The down sampling processor 232 reduces the image sample size by erasing the spatial pixel sample values in accordance with a predetermined reduction ratio; Therefore, the storage of a low resolution image uses a small frame memory compared with the frame memory required for the storage of a high resolution MP @ HL image.

이제, 부호화 표준의 예측된 프레임에 대한 본 발명의 다운 변환 시스템의 양호한 실시예의 동작을 기술한다. 이 경우, 현재 수신된 이미지 DCT 계수들은 예측된 이미지 매크로블록의 잔류 성분들의 DCT 계수들을 나타는데, 편의를 위해, 이는 예측된 프레임(P 프레임)이라 불리운다. 상기 양호한 실시예에서, 메모리에 저장된 선행 프레임들의 저해상도 기준 화상들이 고해상도 예측된 프레임(MP@HL)과 동일한 수의 화소들을 갖지 않기 때문에, 예측된 프레임에 대한 모션 벡터의 수평 성분은 스케일된다.Now, the operation of the preferred embodiment of the down conversion system of the present invention on the predicted frame of the coding standard is described. In this case, the currently received image DCT coefficients represent the DCT coefficients of the residual components of the predicted image macroblock, for convenience, which is called a predicted frame (P frame). In the above preferred embodiment, since the low resolution reference pictures of the preceding frames stored in the memory do not have the same number of pixels as the high resolution predicted frame MP @ HL, the horizontal component of the motion vector for the predicted frame is scaled.

도 2B를 참조하면, VLD(210)에 의해 제공되는 MP@HL 비트스트림의 모션 벡터는 MV 트랜슬레이터(220)에 제공되며, 각 모션 벡터는 메모리(199)의 기준 프레임 메모리(222)내에 저장된 선행 이미지의 기준 프레임의 적절한 예측 블록을 인용하도록 MV 트랜슬레이터(220)에 의해 스케일된다. 상기 검색 블록내의 크기(화소값들의 수)는 IDCT 프로세서(218)에 의해 제공된 블록보다 작다; 따라서, 상기 검색 블록은 상기 블록들이 합산 네트워크(230)에 의해 결합되기 전에 IDCT 프로세서(218)에 의해 제공된 잔여 블록과 동일한 수의 화소들을 가지는 예측 블록을 형성하도록 업샘플된다.2B, the motion vectors of the MP @ HL bitstream provided by the VLD 210 are provided to the MV translator 220, each of which is stored in the reference frame memory 222 of the memory 199. Scaled by MV translator 220 to quote the appropriate predictive block of the reference frame of the preceding image. The size (number of pixel values) in the search block is smaller than the block provided by IDCT processor 218; Thus, the search block is upsampled to form a predictive block having the same number of pixels as the remaining block provided by IDCT processor 218 before the blocks are combined by summing network 230.

예측 블록은 MV 트랜슬레이터(220)로부터의 제어 신호에 응답하여 업샘플링 프로세서(226)에 의해 업샘플됨으로써, 원래의 고해상도 화소 블록에 대응한 블록을 발생하고, 그 후, 예측 블록의 적절한 공간 정렬(spatial alignment)을 보증하도록 (만약 반 화소 발생기(228)내의 업샘플된 예측 블록에 대한 모션 벡터에 의해 발생된다면) 반 화소 값들이 발생된다. 상기 업샘플 및 정렬된 예측 블록은 합산 네트워크(230)내에서 현재 여파된 블록에 가산되는데, 예컨대, 이는 상기 예측 블록으로부터의 저감 해상도 잔여 성분이다. 모든 처리는 매크로블록마다 행해진다. 현재 고해상도 매크로블록에 대한 모션 보상 프로세스가 종료된 후, 재구성된 매크로블록은 다운 샘플링 프로세서(232)에 의해 감소된다. 상기 프로세스는 이미지의 해상도를 감소시키지 않고, 단순히 저해상 여파된 이미지로부터 여분의 화소들을 제거한다.The predictive block is upsampled by the upsampling processor 226 in response to a control signal from the MV translator 220, thereby generating a block corresponding to the original high resolution pixel block, and then appropriate spatial alignment of the predictive block. Half pixel values are generated (if generated by the motion vector for the upsampled prediction block in half pixel generator 228) to ensure spatial alignment. The upsampled and ordered prediction block is added to the currently filtered block in summing network 230, eg, the reduced resolution residual component from the prediction block. All processing is done for each macroblock. After the motion compensation process for the current high resolution macroblock ends, the reconstructed macroblock is reduced by the down sampling processor 232. The process does not reduce the resolution of the image, but simply removes the extra pixels from the low resolution filtered image.

이미지에 대한 다운 샘플된 매크로블록이 이용 가능하면, 디스플레이 변환 블록(280)은 VPF(282) 및 HZPF(284)내의 다운 샘플된 이미지의 수직 및 수평 성분들을 각각 여파하여 저해상도 텔레비젼 디스플레이 유닛상에 디스플레이되도록 이미지를 조절한다.If down sampled macroblocks are available for the image, display conversion block 280 filters the vertical and horizontal components of the down sampled image in VPF 282 and HZPF 284, respectively, to display on the low resolution television display unit. Adjust the image as much as possible.

이제, 도 1A 및 도 1B의 ATV 비디오 디코더(121)의 기능 블록들간의 관계를 기술한다. 도 1B의 화상 프로세서(171)는 비디오 화상 정보 비트스트림을 수신한다. 매크로블록 디코더(172)는 VLD(210), 반전 퀀타이져(214), DCT 필터(216), IDCT(218), 합산 네트워크(230) 및 모션 보상 예측기들(motion compensated predictors)(206a, 206b)을 포함한다. 화상 프로세서(171)는 VLD(210)를 구비할 수 있다. 외부 메모리(130)는 메모리(199)에 대응하며, 기준 프레임 메모리(222)를 수용하는 16[Mb] RDRAM(131-136)을 구비한다.The relationship between the functional blocks of the ATV video decoder 121 of FIGS. 1A and 1B will now be described. The picture processor 171 of FIG. 1B receives the video picture information bitstream. The macroblock decoder 172 includes a VLD 210, an inverted quantizer 214, a DCT filter 216, an IDCT 218, a summing network 230, and motion compensated predictors 206a, 206b. ). The image processor 171 may include a VLD 210. The external memory 130 corresponds to the memory 199 and includes 16 [Mb] RDRAMs 131-136 which accommodate the reference frame memory 222.

도 2C는 DC 모드에서 상기 시스템의 동작을 도시한 도면으로서, 여기서 1125I 신호는 525P/525I 포맷으로 변환된다. 본 시나리오에서, 도 2B를 참조하여 상술한 바와 같이 DCT 필터(216)에 의해 저역 통과 여파된 후, 상기 시스템은 고해상도 신호를 3 인자만큼 다운 샘플하고, 640H 및 1080V의 48[Mb] 메모리내에 화상들을 저장한다. 상기 시스템에 대해, 상기 모션 보상 프로세스는 모션 예보 디코딩(motion-predictive decoding)의 달성 전에 (상기 수신된 모션 벡터들의 병진은 물론) 상기 저장된 화상들을 3 인자만큼 업 샘플한다. 또한, 상기 화상은 디스플레이 변환을 위해 수평 및 수직 여파된다.2C illustrates the operation of the system in DC mode, where the 1125I signal is converted to the 525P / 525I format. In this scenario, after low pass filtering by the DCT filter 216 as described above with reference to FIG. 2B, the system downsamples the high resolution signal by three factors and stores the image into 48 [Mb] memories of 640H and 1080V. Save them. For the system, the motion compensation process upsamples the stored pictures by three factors (as well as the translation of the received motion vectors) before the achievement of motion-predictive decoding. In addition, the picture is horizontally and vertically filtered for display conversion.

도 2D에는 750P로부터 525P/525I 포맷까지의 DC 모드 포맷 다운 변환간의 관계가 도시되어 있다. 상기 변환은 메모리 저장을 위한 다운 샘플링 및 모션 보상을 위한 업 샘플링이 2의 인수에 의한 것임을 제외하고는 1125I-525P/525I 변환과 마찬가지로 동작한다.2D shows the relationship between DC mode format down conversion from 750P to 525P / 525I format. The conversion works like the 1125I-525P / 525I conversion except that downsampling for memory storage and upsampling for motion compensation is by a factor of two.

2) 다운 변환을 위한 매크로블록 예측2) Macroblock Prediction for Down Conversion

다운 변환 프로세스의 예의 경우에, 선행 이미지의 레퍼런스 프레임의 크기가 수평 방향으로 감소되므로, 상기 프레임을 지시하는 수신된 모션 벡터는 변환비에 따라 병진된다. 이하에는 휘도 블록에 대한 수평 방향의 병진이 기술된다. 당업자는 필요하다면 수직 방향의 모션 병진도 용이하게 실시할 수 있다. 원래의 이미지 프레임내의 현재 매크로블록 어드레스가 x 및 y로 표시될 때, Dx는 수평 감소 인자(horizontal decimation factor)이고, mvx는 원래의 이미지 프레임내의 반 화소 수평 모션 벡터(half pixel horizontal motion vector)이면, 원래의 이미지 프레임내의 모션 블록의 탑 레프트 화소(top left pixel)의 어드레스는 반 화소 유닛내의 XH로 표시되며, 그 관계식은 식 (1)로 주어진다:In the case of the example of the down conversion process, since the size of the reference frame of the preceding image is reduced in the horizontal direction, the received motion vector pointing to the frame is translated according to the conversion ratio. In the following, translation in the horizontal direction with respect to the luminance block is described. Those skilled in the art can also easily perform motion translation in the vertical direction if necessary. When the current macroblock address in the original image frame is represented by x and y, Dx is the horizontal decimation factor and mv x is the half pixel horizontal motion vector in the original image frame. In this case, the address of the top left pixel of the motion block in the original image frame is represented by XH in the half pixel unit, and the relation is given by equation (1):

상기 모션 볼록에 대응하는 화소는 다운 샘플된 이미지로 개시하고, 식 (2)에 의해 결정되는 x* 및 y*로 표시되는 어드레스를 가진다.The pixel corresponding to the motion convex starts with a down sampled image and has an address represented by x * and y * determined by equation (2).

식 (2)의 값은 트렁케이션(truncation)으로 된 정수값이다.The value of equation (2) is an integer value of truncation.

양호한 필터(216) 및 다운 샘플링 프로세서(232)가 이미지의 수평 성분만을 감소시키므로, 모션 벡터의 수직 성분은 영향을 받지 않는다. 색차 데이터에 대해, 모션 벡터는 원래의 화상내의 휘도 모션 벡터의 1/2이 된다. 따라서, 색차 모션 벡터의 병진에 대한 규정도 두 개의 식 (1) 및 (2)를 사용한다.Since the preferred filter 216 and down sampling processor 232 reduce only the horizontal component of the image, the vertical component of the motion vector is not affected. For chrominance data, the motion vector is half of the luminance motion vector in the original image. Thus, the specification for translation of chrominance motion vectors also uses two equations (1) and (2).

모션 예측은 2 단계 프로세스에 의해 수행된다: 먼저, 원래의 이미지 프레임내의 화소 정확도 모션 평가(pixel accuracy motion estimation)는 도 2A 및 2B의 업 샘플링 프로세서(226)내의 다운 샘플된 이미지 프레임의 업 샘플링에 의해 성취되며, 그 후, 반 화소 발생기(228)는 근사 화소 값들을 평균하여 반 화소 보간을 수행한다.Motion prediction is performed by a two-step process: first, pixel accuracy motion estimation in the original image frame is subjected to upsampling of the down sampled image frame in the upsampling processor 226 of FIGS. 2A and 2B. Half pixel generator 228 then averages approximate pixel values to perform half pixel interpolation.

기준 이미지 데이터는 IDCT 프로세서(218)에 의해 제공되는 출력 데이터에 가산된다. 합산 네트워크(230)의 출력값들이 고해상도 포맷과 일치하는 다수의 화소들을 가진 이미지에 대응하므로, 상기 값들은 저해상도를 가지 디스플레이상의 디스플레이를 위해 다운 샘플될 수 있다. 다운 샘플링 프로세서(232)내의 다운 샘플링은 이미지 프레임의 서브 샘플링과 실질적으로 균등하지만, 조정(adjustment)은 변환비에 기초하여 수행된다. 예컨대, 3:1 다운 샘플링에서, 수평 다운 샘플된 화소들의 수는 각 입력 매크로블록에 대해 6 또는 5가 되며, 제 1 다운 샘플된 화소들은 항상 상기 입력 매크로블록내의 제 1 화소가 되지는 않는다.Reference image data is added to output data provided by IDCT processor 218. Since the output values of summing network 230 correspond to an image with multiple pixels that match the high resolution format, the values can be down sampled for display on a display with low resolution. Downsampling in downsampling processor 232 is substantially equivalent to subsampling of image frames, but adjustments are performed based on the conversion ratio. For example, in 3: 1 down sampling, the number of horizontal down sampled pixels is 6 or 5 for each input macroblock, and the first down sampled pixels do not always become the first pixel in the input macroblock.

다운 샘플된 이미지로부터의 정정 모션 예측 블록을 얻은 후, 업 샘플링은 고해상도 화상내의 대응 예측 블록을 얻는데 사용된다. 따라서, 모션 블록 예측의 서브 화소 정확도(subpixel accuracy)는 다운 샘플된 화상에서 바람직하다. 예컨대, 3:1 감소를 사용하면, 적절한 모션 예측에 대한 다운 변환된 화상에는 1/3(또는 1/6) 서브 화소 정확도를 가지는 것이 바람직하다. 다운 샘플된 모션 블록에 부가하여, 모션 벡터에 의해 얻어지는 제 1 화소인 상기 서브 화소가 결정된다. 그 후, 후속 서브 화소 위치들은 후기하는 모듈로 연산의 사용에 의해 결정된다. 상기 서브 화소 위치들은 xs로 표시되며, 식 (3)에 의해 주어진다:After obtaining the corrected motion prediction block from the down sampled image, upsampling is used to obtain the corresponding prediction block in the high resolution image. Thus, subpixel accuracy of motion block prediction is desirable in down sampled pictures. For example, using 3: 1 reduction, it is desirable to have 1/3 (or 1/6) sub-pixel accuracy for down-converted pictures for proper motion prediction. In addition to the down sampled motion block, the sub-pixel which is the first pixel obtained by the motion vector is determined. Subsequent sub-pixel positions are then determined by the use of later modulo operations. The sub pixel positions are denoted by x s , given by equation (3):

여기서, "%"는 모듈로 제법을 표시한다.Here, "%" represents a modulo manufacturing method.

예컨대, xs의 범위는 3:1 업 샘플링에 대해 0, 1, 2이고, 2:1 업 샘플링에 대해 0, 1이다. 도 3A에는 서브 화소 위치들과 상기 3:1 및 2:1의 경우에 대응한 17개의 예측된 화소들이 도시되어 있으며, 표 3에는 도 3A에 대한 범례가 나타난다.For example, the range of x s is 0, 1, 2 for 3: 1 upsampling and 0, 1 for 2: 1 upsampling. FIG. 3A shows the sub-pixel locations and the 17 predicted pixels corresponding to the 3: 1 and 2: 1 cases, and Table 3 shows the legend for FIG. 3A.

[표 3]TABLE 3

상술한 바와 같이, 업 샘플링 필터들은 업 샘플링 다상 필터들(upsampling polyphase filters)이 될 수 있으며, 표 4에는 상기 업 샘플링 다상 보간 필터들(upsampling polyphase interpolation filters)의 특성들이 제공되어 있다.As described above, the upsampling filters can be upsampling polyphase filters, and Table 4 provides the characteristics of the upsampling polyphase interpolation filters.

[표 4]TABLE 4

이하의 표 5 및 표 6에는 양호한 3:1 및 2:1 업 샘플링 다상 필터들에 대한 다상 필터 계수들이 개시되어 있다.Tables 5 and 6 below describe polyphase filter coefficients for good 3: 1 and 2: 1 upsampling polyphase filters.

[표 5]TABLE 5

[표 6]TABLE 6

고정 점 표시에서, 표 5 및 표 6의 괄호안의 숫자들은 좌측의 이중 세차 숫자들에 대응하는 9 비트내 2의 보조 표시이다. 상기 다운 샘플된 기준 이미지 프레임내의 모션 예측 블록의 서브 화소에 따라, 상기 다상 보간 필터의 대응 위상이 사용된다. 또한, 양호한 실시예에 대해, 좌측 및 우측의 부가 화소들은 17개의 수평 화소들을 원래의 이미지 프레임에 내삽하는데 사용된다. 예컨대, 3:1 감소의 경우, 최대 6개의 수평 다운 샘플된 화소들은 각 입력 매크로블록에 대해 제공된다. 그러나, 업 샘플링시, 업 샘플링 필터는 필터의 동작을 위해 경계의 외측에 보다 많은 좌측 및 우측 화소들을 요구하기 때문에, 9개의 수평 화소들은 대응 모션 예측 블록 값들을 제공하는데 사용된다. 양호한 실시예는 반 화소 모션 평가(half pixel motion estimation)를 채용하므로, 약 2개의 화소 샘플들의 평균값들인 16개의 반 화소들을 얻도록 17개의 화소들이 필요하다. 반 화소 보간 회로(half pixel interpolator)는 보간 동작을 수행하여 반 화소 해상도의 화소들의 블록을 제공한다. 표 7A는 서브 화소 위치들과 다상 필터 소자들간의 양호한 사상을 도시하고, 업 샘플링 프로세스를 위해 업 샘플된 블록내의 화소들에 부가해 필요한 다수의 좌측 화소들을 도시한 도면이다.In the fixed point notation, the numbers in parentheses of Tables 5 and 6 are auxiliary signs of 2 in 9 bits corresponding to the left double precession numbers. According to the sub-pixels of the motion prediction block in the down sampled reference image frame, the corresponding phase of the polyphase interpolation filter is used. Also, for the preferred embodiment, the left and right additional pixels are used to interpolate 17 horizontal pixels into the original image frame. For example, in the case of a 3: 1 reduction, up to six horizontal down sampled pixels are provided for each input macroblock. However, in upsampling, since the upsampling filter requires more left and right pixels outside the boundary for the operation of the filter, nine horizontal pixels are used to provide corresponding motion prediction block values. Since the preferred embodiment employs half pixel motion estimation, 17 pixels are needed to obtain 16 half pixels, which are average values of about two pixel samples. A half pixel interpolator performs an interpolation operation to provide a block of pixels of half pixel resolution. Table 7A shows a good idea between the sub pixel positions and the polyphase filter elements and shows the number of left pixels needed in addition to the pixels in the up sampled block for the up sampling process.

[표 7A]TABLE 7A

도 3B는 입력 매크로블록의 각 행에 대해 수행되는 업 샘플링 프로세스를 요약한다. 먼저, 단계 310에서, 처리되는 이미지 프레임의 블록에 대한 모션 벡터는 수신된다. 단계 312에서, 상기 모션 벡터는 메모리내의 다운 샘플된 기준 프레임에 대응하도록 병진된다. 단계 314에서, 스케일된 모션 벡터는 메모리(130)에 저장된 소정의 기준 이미지 반 매크로블록의 좌표를 계산하는데 사용된다. 단계 316에서 반 매크로블록에 대한 서브 화소 점이 결정되고, 그 후, 단계 318에서 업 샘플링에 대한 초기 다상 필터 값들이 결정된다. 그 후, 단계 320에서는 저장된 다운 샘플된 기준 프레임의 기준 반 매크로블록에 대한 식별된 화소들이 메모리(130)로부터 검색된다.3B summarizes the upsampling process performed for each row of the input macroblock. First, in step 310, a motion vector for a block of the image frame to be processed is received. In step 312, the motion vector is translated to correspond to a down sampled reference frame in memory. In step 314, the scaled motion vector is used to calculate the coordinates of a predetermined reference image half macroblock stored in memory 130. In step 316 the subpixel point for the half macroblock is determined, and then in step 318 initial polyphase filter values for upsampling are determined. Thereafter, in step 320, the identified pixels for the reference half macroblock of the stored down sampled reference frame are retrieved from the memory 130.

여파 단계(filtering step) 324의 제 1 통과(pass) 전에, 필터의 레지스터는 단계 322에서 초기화되는데, 여기서, 양호한 실시예는 초기의 3 또는 5 화소 값들로 레지스터를 로딩하는 단계를 포함한다. 그 후, 상기 여파 단계 324가 끝나면, 단계 326에서 프로세스는 모든 화소들(양호한 실시예에서 17개의 화소들)이 처리되었는지 여부를 판정한다. 만약 모든 화소들이 처리되었다면, 상기 업 샘플된 블록은 완료된다. 양호한 실시예에서, 17×9 화소 반 매크로블록은 복귀된다. 상기 시스템은 상측 또는 하측 반 매크로블록들을 복귀하여 순차 주사 및 비월 주사 이미지들 모두의 모션 예측 디코딩을 허용한다. 만약 모든 화소들이 처리되지 않았다면, 위상은 단계 328에서 갱신되고, 상기 위상이 0 값을 가지는지 여부가 검색된다. 만약 상기 위상이 0이라면, 레지스터는 화소 값들의 후속 세트에 대해 갱신된다. 단계 328에서 상기 위상의 갱신은 3:1 업 샘플링의 경우 필터 루프 주기에 대해 위상값을 0, 1 및 2로 갱신하고, 2:1 업 샘플링의 경우 필터 루프 주기에 대해 위상값을 0 및 1로 갱신한다. 최좌측 화소가 이미지 화상의 경계의 외측에 있으면, 이미지 화상내의 제 1 화소값은 반복된다.Prior to the first pass of the filtering step 324, the register of the filter is initialized in step 322, where the preferred embodiment includes loading the register with initial 3 or 5 pixel values. Then, at the end of the filter step 324, in step 326 the process determines whether all pixels (17 pixels in a preferred embodiment) have been processed. If all the pixels have been processed, the upsampled block is complete. In the preferred embodiment, the 17x9 pixel half macroblock is returned. The system returns the upper or lower half macroblocks to allow motion prediction decoding of both sequential and interlaced scanned images. If all pixels have not been processed, the phase is updated at step 328 and it is retrieved whether the phase has a value of zero. If the phase is zero, the register is updated for the subsequent set of pixel values. In step 328, updating the phase updates the phase values to 0, 1, and 2 for the filter loop period for 3: 1 upsampling, and sets the phase values 0 and 1 for the filter loop period for 2: 1 upsampling. Update to. If the leftmost pixel is outside the boundary of the image image, the first pixel value in the image image is repeated.

양호한 실시예에 대해, 업 샘플 여파 동작은 이하의 가이드라인을 따라 수행될 수 있다. 먼저, 몇 개의 인자들이 사용된다: 1) 반 화소 모션 예측 동작은 2개의 완비된 화소들을 평균하고, 대응한 필터 계수들도 평균화되어 반 화소 필터 계수를 제공하고; 2) 필터 탭들(filter taps)의 수와 동등할 수 있는 필터 계수들의 고정된 수(예컨대, 5)는 특정한 다운 변환에 무관하게 채용될 수 있고; 3) 하나의 출력 화소를 제공하도록 대응 필터 계수들과 결합되는 각 기준 블록에 대한 각 클록 천이(clock transition)를 위한 5개의 입력 화소들(LWR(0)-LWR(4))과 함께, 5개의 평행 입력 포트들(parallel input ports)은 각 정방향 및 역방향 하측 및 상측 블록에 대한 업 샘플링 블록에 제공될 수 있고; 4) 각각의 화소들(LWR(0)-LWR(4))과 결합된 필터 계수들(h(0)-h(4))의 합은 샘플링 블록의 출력 화소를 제공한다.For the preferred embodiment, the upsample filter operation can be performed according to the following guidelines. First, several factors are used: 1) the half pixel motion prediction operation averages two complete pixels, and corresponding filter coefficients are also averaged to provide half pixel filter coefficients; 2) a fixed number of filter coefficients (eg, 5), which may be equivalent to the number of filter taps, may be employed regardless of the particular down conversion; 3) 5 input pixels (LWR (0) -LWR (4)) for each clock transition for each reference block combined with corresponding filter coefficients to provide one output pixel. Parallel input ports may be provided to the upsampling block for each forward and reverse lower and upper block; 4) The sum of the filter coefficients h (0) -h (4) combined with each of the pixels LWR (0) -LWR (4) provides an output pixel of the sampling block.

곱셈 명령이 필터 계수들의 정상 명령과 상반되므로, 필터 계수들은 반전되는 것이 바람직하고, 일부 계수들은 0인 것이 바람직하다. 표 7B는 3:1 업 샘플링 필터에 대한 양호한 계수들을 개시하고 있으며, 표 7C는 2:1 업 샘플링 필터에 대한 양호한 계수들을 개시하고 있다:Since the multiplication instruction is contrary to the normal instruction of the filter coefficients, the filter coefficients are preferably inverted and some coefficients are preferably zero. Table 7B discloses good coefficients for a 3: 1 upsampling filter, and Table 7C discloses good coefficients for a 2: 1 upsampling filter:

[표 7B]TABLE 7B

[표 7C]TABLE 7C

표 7B 및 7C에서, x*는 식 (1) 및 (2)에서 규정된 다운 샘플된 화소 위치이고, 서브 화소 위치 xs는 식 (3')과 같은 식 (3)에 의해 재규정된다.In Tables 7B and 7C, x * is the down sampled pixel position defined in equations (1) and (2), and the sub pixel position x s is redefined by equation (3), such as equation (3 ').

양호한 수행의 색차 값들에 대해, XH는 2로 스케일되고, 식 (1), (2), (3')이 적용된다. 일 실시예에서, 위상 및 반 화소 정보(각각 2 비트 및 1 비트로 코딩됨)는 도 2B의 모션 보상 프로세서(220) 및 반 화소 발생기(228)에 의해 사용된다. 예컨대, 기준 블록 화소들은 먼저 U 화소들로 제공되고, 다음 V 화소들로 제공되며, 최종적으로 Y 화소들로 제공된다. U 및 V 화소들은 40 사이클로 클록되고, Y 화소들은 144 사이클로 클록된다. 기준 블록들은 5개의 제 1 화소들을 제공하고, 2회 반복하고, 데이터를 1 만큼 천이하고, 행이 종결될 때까지 반복함으로써 3:1 감소에 대해 제공될 수 있다. 동일한 방법이 2:1 감소에도 사용될 수 있는데, 다만, 여기서는 2회 반복되지 않고 1회 반복된다는 점이 다르다. 감소가 모션 보상으로부터의 출력과 잔여값의 반 화소 발생의 합에 따르므로, 입력 화소들은 반복된다. 따라서, 3:1 감소에 대해, 3개의 화소들 중의 2개는 삭제되며, 상기 화소값들에 대한 의사 화소들(dummy pixels)은 중요하지 않다.For color difference values of good performance, XH is scaled to 2, and equations (1), (2) and (3 ') apply. In one embodiment, phase and half pixel information (coded with 2 bits and 1 bit, respectively) is used by motion compensation processor 220 and half pixel generator 228 of FIG. 2B. For example, reference block pixels are first provided in U pixels, then V pixels, and finally Y pixels. U and V pixels are clocked in 40 cycles, and Y pixels are clocked in 144 cycles. The reference blocks may be provided for a 3: 1 reduction by providing five first pixels, repeating twice, transitioning the data by one, and repeating until the row is terminated. The same method can be used for a 2: 1 reduction, except that here it is repeated twice rather than twice. Since the reduction depends on the sum of the output from the motion compensation and the half pixel generation of the residual value, the input pixels are repeated. Thus, for a 3: 1 reduction, two of the three pixels are deleted, and dummy pixels for the pixel values are not important.

3) DCT 계수들의 가중치를 채용하는 DCT 영역 여파3) DCT domain aftermath employing weights of DCT coefficients

본 발명의 양호한 실시예는 주파수 영역에서 DCT 계수들을 처리하는 도 2A의 DCT 필터(216)를 포함하는데, 상기 필터는 공간 영역의 저역 통과 필터를 대체한다. DCT 부호화된 화상들에 대한 공간 영역 여파에 대신하는 DCT 영역 여파에는 몇가지 장점이 있으며, 이는 MPEG 또는 JPEG 표준들에 의해 고려되었다. DCT 영역 필터는 검퓨터를 사용함에 있어 보다 효율적이며, 공간 화소 샘플 값들에 적용된 공간 영역 필터에 비해 더욱 작은 하드웨어를 요구한다. 예컨대, N개의 탭을 가진 공간 여파는 각 공간 화소 샘플 값에 대한 N개의 부가적 곱셈 및 덧셈 만큼 많이 사용된다. 이는 DCT 영역 필터의 오직 하나의 부가적 곱셈을 비교한다.A preferred embodiment of the present invention includes the DCT filter 216 of FIG. 2A which processes DCT coefficients in the frequency domain, which replaces the low pass filter in the spatial domain. There are several advantages to the DCT domain filter in place of the spatial domain filter for DCT coded pictures, which have been considered by the MPEG or JPEG standards. The DCT domain filter is more efficient in using a computer and requires less hardware than the spatial domain filter applied to spatial pixel sample values. For example, a spatial filter with N taps is used as many as N additional multiplications and additions for each spatial pixel sample value. This compares only one additional multiplication of the DCT domain filters.

종래 기술의 가장 단순한 DCT 영역 필터는 고주파 DCT 계수들의 타절(truncation)이다. 그러나, 고주파 DCT 계수들의 타절은 매끄러운 필터로 귀착되지 않으며, 디코딩된 화상의 에지 근방의 "링잉(ringing)"과 같은 결점들을 가진다. 본 발명의 양호한 실시예의 DCT 영역 저역 통과 필터는 공간 영역의 블록 거울 필터로부터 유도된다. 상기 블록 거울 필터에 대한 필터 계수 값들은, 예컨대, 공간 영역내의 수치 분석에 의해 활용될 수 있으며, 그 후, 상기 값들은 DCT 영역 필터의 계수들로 변환된다.The simplest DCT domain filter of the prior art is the truncation of high frequency DCT coefficients. However, breaks in the high frequency DCT coefficients do not result in a smooth filter, and have drawbacks such as "ringing" near the edge of the decoded picture. The DCT region low pass filter of the preferred embodiment of the present invention is derived from a block mirror filter in the spatial region. Filter coefficient values for the block mirror filter can be utilized, for example, by numerical analysis in the spatial domain, and the values are then converted into coefficients of the DCT domain filter.

비록 상기 양호한 실시예는 오직 수평 방향의 DCT 영역 여파만을 개시하였으나, DCT 영역 여파는 수평 또는 수직 방향 중의 일 방향이나 수평 및 수직 필터들의 결합에 의해 수행될 수 있다.Although the preferred embodiment only discloses the DCT region filter in the horizontal direction, the DCT region filter can be performed by one of the horizontal or vertical directions or by a combination of horizontal and vertical filters.

4) DCT 영역 필터 계수들의 유도4) Derivation of DCT Domain Filter Coefficients

본 발명의 양호한 필터는 2개의 제한 조건으로부터 유도된다:Preferred filters of the present invention are derived from two limitation conditions:

첫 째, 화상의 선행 블록으로부터의 정보를 사용하지 않고 상기 이미지의 각 블록에 대한 블록당 기초에 이미지 데이터를 처리하는 것이며; 둘 째, 필터가 경계 화소값들을 처리할 때 발생하는 블록 경계의 가시도(visibility)를 감소하는 것이다.First, to process the image data on a per block basis for each block of the image without using information from the preceding block of the picture; Second, the visibility of the block boundary that occurs when the filter processes the boundary pixel values is reduced.

제 1 제한 조건에 따르면, MPEG 이미지 시퀀스의 압축에 기초한 DCT에서, 예컨대, N×N DCT 계수들은 N×N 공간 화소 값들을 제공한다. 따라서, 본 발명의 양호한 실시예는 수신된 화상의 현재 블록만을 처리하는 DCT 영역 필터를 수행한다.According to the first constraint, in DCT based on the compression of an MPEG image sequence, for example, N × N DCT coefficients provide N × N spatial pixel values. Thus, the preferred embodiment of the present invention performs a DCT area filter that processes only the current block of the received picture.

제 2 제한 조건에 따르면, 만약 상기 필터가 단순히 공간 주파수 계수들의 블록에 제공된다면, 경계를 넘어서는 불충분한 수의 공간 화소 값들에 의해 야기되는 블록 경계에서의 여파 동작의 천이가 발생되어 상기 필터의 잔여부를 채운다. 즉, N-탭 필터가 오직 N/2 탭들에 대한 값들만을 가지므로, 블록의 에지에서의 계수값들은 적절히 여파될 수 없다. 빠진 화소 값들을 공급하는 몇가지 방법들이 존재한다: 1) 경계를 넘어서는 소정의 일정 화소값을 반복하고; 2) 경계 화소값과 동일한 화소값을 반복하고; 3) 상기 블록의 화소값을 반사하여 처리된 블록에 인접한 화소값들의 선행 및 후속 블록들을 시뮬레이션한다. 상기 선행 및 후속 블록의 내용에 관한 사전 정보 없이, 반복 화소값들의 반사 방법(mirroring method)은 양호한 방법으로 간주된다. 따라서, 본 발명의 일 실시예는 상기 필터에 대한 반사 방법을 채용하며, 이는 "블록 거울 필터(block mirror filter)"로 불리운다.According to a second constraint condition, if the filter is simply provided to a block of spatial frequency coefficients, a transition of the filter operation at the block boundary caused by an insufficient number of spatial pixel values beyond the boundary is generated, resulting in the remaining of the filter. Fill your wealth. That is, since the N-tap filter has only values for N / 2 taps, the coefficient values at the edge of the block cannot be filtered properly. There are several ways of supplying missing pixel values: 1) repeating certain constant pixel values across boundaries; 2) repeating the same pixel value as the boundary pixel value; 3) Reflect the pixel values of the block to simulate preceding and subsequent blocks of pixel values adjacent to the processed block. Without prior information on the contents of the preceding and subsequent blocks, the mirroring method of repeating pixel values is considered a good method. Thus, one embodiment of the present invention employs a reflection method for the filter, which is called a "block mirror filter".

이하는 양호한 실시예에 관한 기재로서, 이는 수평 블록 거울 필터로 하여금 저역 통과 필터(8)가 블록의 공간 화소 샘플값을 입력하게 한다. 만약 입력 블록의 크기가 화소 샘플 값들의 8×8 블록 행렬이라면, 수평 여파는 블록 거울 필터를 8개의 화소 샘플 값들의 각 행에 적용함으로써 수행될 수 있다. 필터 계수들을 상기 블록 행렬에 인가함으로써 여파 프로세스가 수행된다는 사실과, 다차원 여파(multidimentional filtering)가 상기 블록 행렬의 열(row)을 여파한 후에 상기 행령의 행(column)을 여파함으로써 성취될 수 있다는 사실은 본 기술 분야의 당업자에게 명백하다.The following is a description of the preferred embodiment, which causes the horizontal block mirror filter to cause the low pass filter 8 to input the spatial pixel sample values of the block. If the size of the input block is an 8x8 block matrix of pixel sample values, horizontal filtering can be performed by applying a block mirror filter to each row of eight pixel sample values. The fact that the filtering process is performed by applying filter coefficients to the block matrix, and that multidimentional filtering can be achieved by filtering the rows of the command after filtering the rows of the block matrix. The fact is apparent to those skilled in the art.

도 4에는, 입력 화소 값들 x0 내지 x7(그룹 X0)와, h0 내지 h14로 표시되는 탭 값들을 가진 15개의 탭 공간 필터를 채용하는 8개의 입력 화소들의 양호한 거울 필터에 대한 필터 탭들간의 양호한 대응이 도시되어 있다. 입력 화소들은 그룹 X0의 좌측으로 반사되고(그룹 X1), 그룹 X0의 우측으로 반사된다(그룹 X2). 상기 필터의 출력 화소 값은 상기 필터 탭 계수 값들과 대응 화소 샘플 값들간의 15개의 곱들의 합이다. 도 4에는 제 1 및 제 2 출력 화소 값들에 대한 곱셈 켤레들이 도시되어 있다.4 shows a filter tap for a good mirror filter of eight input pixels employing input pixel values x 0 to x 7 (group X 0 ) and 15 tap spatial filters with tap values represented by h 0 to h 14 . Good correspondence between them is shown. The input pixels are reflected to the left of group X0 (group X1) and to the right of group X0 (group X2). The output pixel value of the filter is the sum of fifteen products between the filter tap coefficient values and the corresponding pixel sample values. 4 shows multiplication conjugates for the first and second output pixel values.

이하는 공간 영역에서의 블록 거울 필터가 DCT 영역 필터와 등가임을 보여준다. 거울 여파는 2N(N = 8)개의 점들의 원형 컨볼류션(circular convolution)과 관련이 있다.The following shows that the block mirror filter in the spatial domain is equivalent to the DCT domain filter. The mirror filter is related to the circular convolution of 2N (N = 8) points.

벡터 x'를 식 (4)로 보여준다.The vector x 'is shown in equation (4).

본 경우, N = 8,In this case, N = 8,

x' = (x0, x1, x2, x3, x4, x5, x6, x7, x7, x6, x5, x4, x3, x2, x1, x0)x '= (x0, x1, x2, x3, x4, x5, x6, x7, x7, x6, x5, x4, x3, x2, x1, x0)

상기 필터 탭 값들 h0 내지 h14를 재배열하고, 상기 재배열된 값들을 h'로 표시한다.Rearrange the filter tap values h 0 to h 14 and mark the rearranged values with h '.

h'=(h7, h8, h9, h10, h11, h12, h13, h14, 0, h0, h1, h2, h3, h4, h5, h6)h '= (h7, h8, h9, h10, h11, h12, h13, h14, 0, h0, h1, h2, h3, h4, h5, h6)

따라서, 거울 여파된 출력 y(n)은 x'(n)와 h'(n)의 원형 컨볼류션이며, 이는 식 (5)로 주어진다.Thus, the mirror filtered output y (n) is a circular convolution of x '(n) and h' (n), which is given by equation (5).

이 식은 식 (6)과 동일하다.This equation is the same as that in equation (6).

여기서, x'[n-k]는 x'(n)의 원형 모듈로(circular modulo)이고,Where x '[n-k] is the circular modulo of x' (n),

x'[n] = x'(n); n ≥ 0x '[n] = x' (n); n ≥ 0

x'[n] = x'(n+2N); n < 0.x '[n] = x' (n + 2N); n <0.

식 (5)로 표시되는 공간 영역내의 원형 컨볼류션은 이산 푸리에 변환(DFT) 영역내의 스칼라 곱과 동일하다. y(n)의 DFT를 Y(k)라고 하면, 식 (5)는 DFT 영역에서 식 (7)이 된다.The circular convolution in the spatial domain represented by equation (5) is equal to the scalar product in the Discrete Fourier Transform (DFT) domain. If the DFT of y (n) is Y (k), equation (5) becomes equation (7) in the DFT region.

여기서, X'(k) 및 H'(k)는 각각 x'(n) 및 y'(n)의 DFT들이다.Where X '(k) and H' (k) are the DFTs of x '(n) and y' (n), respectively.

식 (4) 내지 (7)은 2N 보다 작은 수의 탭들을 가진 필터에 대해 유효하다. 또한, 필터는 홀수의 탭들을 가진 대칭형 필터로 되면, H'(k)가 실수가 된다. 따라서, x'(n)의 DFT인 X'(k)는, 여파 동작의 수행을 위한 공간 영역내의 2N 곱셈 및 2N 덧셈 동작 대신, DFT 주파수 영역내의 실수 H'(k)로 가중될 수 있다. X'(k)의 값들은 원래의 N-포인트 x(n)의 DCT 계수들과 매우 밀접하게 관련되는데, 이는 x(n)의 N-포인트 DCT가 x(n) 및 이의 거울인 x(2N-1-n)으로 구성된 결합 시퀀스인 x'(n)의 2N-포인트 DFT에 의해 얻어지기 때문이다.Equations (4) to (7) are valid for filters with taps less than 2N. Also, if the filter is a symmetric filter with odd taps, H '(k) becomes a real number. Thus, X '(k), which is the DFT of x' (n), can be weighted with real H '(k) in the DFT frequency domain, instead of 2N multiplication and 2N addition operations in the spatial domain for performing the filtering operation. The values of X '(k) are very closely related to the DCT coefficients of the original N-point x (n), which is x (2N) where the N-point DCT of x (n) is x (n) and its mirror. This is because it is obtained by a 2N-point DFT of x '(n), which is a binding sequence composed of -1-n).

이하에는, 홀수의 탭들 2N-1을 가지는 대칭형 필터를 가정함으로써, 공간 필터의 DFT 계수들의 도함수(derivation)인 H'(k)를 기술한다(h(n) = h(2N-2-n), h'(n) = h'(2N-n), h'(N) = 0). 식 (8)에서 H'(k)를 정의한다.The following describes H '(k), which is the derivative of the DFT coefficients of the spatial filter, assuming a symmetric filter with odd taps 2N-1 (h (n) = h (2N-2-n) , h '(n) = h' (2N-n), h '(N) = 0). In Eq. (8), H '(k) is defined.

여기서, W2N kn = exp{-2πkn/(2N)}; 그리고, H'(k) = H'(2N-k).Where W 2N kn = exp {-2 pi kn / (2N)}; And H '(k) = H' (2N-k).

본 발명자는 x'(n)의 2N-포인트 DFT인 X'(k)를 결정하였고, 이는 식 (9)와 같이 그 DCT 계수들에 의해 표현될 수 있다.The inventor has determined X '(k), which is a 2N-point DFT of x' (n), which can be represented by its DCT coefficients as shown in equation (9).

한편, x(n), C(k)의 DCT 계수는 식 (10)에 의해 주어진다.On the other hand, the DCT coefficients of x (n) and C (k) are given by equation (10).

그리고, 여타의 경우는 C(k) = 0.And in other cases C (k) = 0.

x'(n)의 DFT 계수들인 X'(k)의 값들은 x'(n)의 DCT 계수들인 C(k)로 표현될 수 있으며, 이는 식 (11)에 나타난다.The values of X '(k), which are the DFT coefficients of x' (n), can be represented by C (k), which is the DCT coefficients of x '(n), which are represented in equation (11).

원래의 공간 화소 샘플 값들인 x(n)은 IDCT(역 이산 코사인 변형(Inverse Discrete Cosine Transformation))에 의해 얻어질 수도 있으며, 이는 식 (12)에 나타난다.The original spatial pixel sample values x (n) may be obtained by IDCT (Inverse Discrete Cosine Transformation), which is represented by equation (12).

여기서, k = 0에 대해 α(k) = 1/2이고, 다른 경우에는 1이다.Here, α (k) = 1/2 for k = 0, and 1 otherwise.

0 ≤ n ≤ N-1에 대한 y(n)의 값들은 X'(k)H'(k)의 IDFT에 의해 얻어지며, 이는 식 (13)에 나타난다:The values of y (n) for 0 ≦ n ≦ N-1 are obtained by IDFT of X '(k) H' (k), which is shown in equation (13):

식 (13)의 값들 y(n)은 C(k)H'(k)의 IDCT의 공간 값들이다. 따라서, 상기 공간 여파는 이미지 블록을 표시하는 입력 주파수 영역 계수들의 DCT 가중(DCT weighting)에 의해 H'(k)로 대체될 수 있고, 그 후, 가중된 값들의 IDCT를 수행하여 공간 영역내의 여파된 화소 값들을 재구성한다.The values y (n) of equation (13) are the spatial values of IDCT of C (k) H '(k). Thus, the spatial filter can be replaced by H '(k) by DCT weighting of the input frequency domain coefficients representing the image block, and then performing the IDCT of the weighted values to perform the filter in the spatial domain. Reconstructed pixel values.

본 발명의 양호한 블록 거울 여파의 일 실시예는 다음 단계들에 의해 유도된다: 1) 일차원 저역 통과 대칭형 필터가 2N개의 탭들 보다 수가 적은 홀수의 탭들과 함께 선택되고; 2) 필터 계수들이 0들의 패딩(padding)에 의해 2N까지 증가되고; 3) 필터 계수들이 좌측 원형 천이에 의해 원래의 중간 계수가 0번째 위치로 가도록 재배열되고; 4) 상기 재배열된 필터 계수들이 DFT 계수들은 결정되고; 5) DCT 계수들이 필터의 실수 DFT 계수들에 곱해지고; 6) 여파된 DCT 계수들의 역 이산 코사인 변환(IDCT)이 수행되어 감소를 위해 마련된 저역 통과 여파된 화소들의 블록을 제공한다.One embodiment of the preferred block mirror filter of the present invention is derived by the following steps: 1) a one-dimensional low pass symmetric filter is selected with an odd number of taps less than 2N taps; 2) the filter coefficients are increased to 2N by padding of zeros; 3) the filter coefficients are rearranged so that the original intermediate coefficients go to the 0 th position by the left circular transition; 4) the rearranged filter coefficients are DFT coefficients are determined; 5) DCT coefficients are multiplied by the real DFT coefficients of the filter; 6) Inverse Discrete Cosine Transform (IDCT) of the filtered DCT coefficients is performed to provide a block of low pass filtered pixels prepared for reduction.

저역 통과 필터의 차단 주파수(cutoff frequency)는 감소비에 의해 결정된다. 양호한 실시예에 대해, 상기 차단 주파수는 3:1 감소에 대해 π/3이고, 2:1 감소에 대해 π/2인데, 여기서 π는 샘플링 주파수의 1/2에 대응한다.The cutoff frequency of the low pass filter is determined by the reduction ratio. For a preferred embodiment, the cutoff frequency is π / 3 for 3: 1 reduction and π / 2 for 2: 1 reduction, where π corresponds to half of the sampling frequency.

MPEG 및 JPEG 디코더의 DCT 영역 필터는 메모리 장비의 감소를 허용하는데, 이는 반전 퀀타이져와 블록들의 IDCT가 이미 종래 기술의 디코더내에 존재하며, 단지 DCT 영역 필터에 의한 DCT 계수들의 추가 스칼라 곱이 필요하기 때문이다. 따라서, 단독 DCT 영역 필터 블록 곱은 특정 수행에 있어 물리적으로 요구되지 않는다; 본 발명의 또 다른 실시예는 단순히 DCT 영역 필터 계수들을 IDCT 프로세싱 계수들과 결합하고, 상기 결합된 계수들을 IDCT 동작에 인가한다.The DCT region filter of MPEG and JPEG decoders allows for reduction of memory equipment, which requires that the inverted quantizer and the IDCT of blocks already exist in the prior art decoder, requiring only additional scalar product of DCT coefficients by the DCT region filter. Because. Thus, a single DCT domain filter block product is not physically required for a particular implementation; Another embodiment of the present invention simply combines DCT domain filter coefficients with IDCT processing coefficients and applies the combined coefficients to an IDCT operation.

본 발명의 양호한 다운 변환 시스템에 대해, DCT 계수들의 감소 및 수평 여파가 고려된다; 그리고, 이하는 두 개의 양호한 수행들이다:For the preferred down conversion system of the present invention, reduction of DCT coefficients and horizontal filtering are considered; And the following are two good practices:

1. 1920H 대 1080V 인터레이스(interlace)에서 640 대 1080 인터레이스 변환(수평 3:1 감소)1.640 to 1080 interlaced conversion from 1920H to 1080V interlace (3: 1 horizontal reduction)

2. 1280H 대 720V 순차에서 640 대 720 순차 변환(수평 3:1 감소)2.640 to 720 sequential conversion from 1280H to 720V sequential (horizontal 3: 1 reduction)

표 8에는 DCT 블록 거울 필터 (가중) 계수들이 도시되어 있다; 표 8에서 괄호내의 숫자들은 10 비트 2의 보조 표시이다. 표 8의 "*"는 10 비트 2의 보조 표시에 대한 속박값(bound value)을 넘어섬을 표시한다. 왜냐하면, 상기 값은 1을 초과하기 때문이다; 그러나, *에 의해 표시된 값에 블록의 컴럼 계수들을 곱하는 것은 필터값의 분수값(잔여부)을 곱한 계수에 상기 계수값의 부가에 의해 용이하게 수행될 수 있다는 것은 당해 기술 분야의 당업자에게 알려져 있다.Table 8 shows the DCT block mirror filter (weighted) coefficients; In Table 8, the numbers in parentheses are the secondary signs of 10-bit 2. "*" In Table 8 indicates beyond the bound value for the secondary indication of 10-bit 2. Because the value exceeds 1; However, it is known to those skilled in the art that multiplying the column coefficients of the block by the value indicated by * can be easily performed by adding the coefficient value to the coefficient multiplied by the fractional value of the filter value. .

[표 8]TABLE 8

상기 수평 DCT 필터 계수들은 부호화된 비디오 이미지의 DCT 계수들의 8×8 블록내의 각 칼럼을 가중한다. 예컨대, 칼럼 0의 DCT 계수들은 H[0]에 의해 가중되고, 제 1 칼럼의 DCT 계수들은 H[1]에 의해 가중된다.The horizontal DCT filter coefficients weight each column in an 8x8 block of DCT coefficients of the encoded video image. For example, the DCT coefficients of column 0 are weighted by H [0] and the DCT coefficients of the first column are weighted by H [1].

상술한 내용은 1 차원 DCT들을 사용하는 수평 필터 수행을 기술하였다. 디지털 신호 처리 기술 분야에 알려진 것처럼, 상기 처리는 2 차원 시스템에도 적용될 수 있다. 식 (12)에는 1 차원에 대한 IDCT가 기술되어 있으며, 따라서, 식 (12')에는 보다 일반적인 2 차원 IDCT가 기술되어 있다:The foregoing has described horizontal filter performance using one-dimensional DCTs. As is known in the digital signal processing art, the processing can also be applied to two-dimensional systems. Equation (12) describes the IDCT for one dimension, and therefore, more general two-dimensional IDCT is described in Equation (12 '):

여기서 또는 1(여타의 경우)이다.here Is Or 1 (in other cases).

여기서, f(x,y)는 공간 영역 표시이며, x 및 y는 샘플 영역내의 공간 좌표이고, u 및 v는 변환 영역내의 좌표들이다. 계수들 C(u), C(v)가 코사인 항들의 값으로서 알려졌으므로, 상기 처리 알고리즘에는 오직 변환 영역 계수들만이 제공되어야 한다.Where f (x, y) is a spatial domain representation, x and y are spatial coordinates in the sample domain, and u and v are coordinates in the transform domain. Since the coefficients C (u), C (v) are known as the values of the cosine terms, only the transform domain coefficients should be provided to the processing algorithm.

2 차원 시스템에 대해, 입력 시퀀스는 변환 영역의 개별적 좌표를 표시하는 값들의 행렬로 표시되며, 상기 행렬은 주기 M의 열 시퀀스(column sequence)와 주기 N의 행 시퀀스(row sequence)로 된(M, N은 정수) 주기적 시퀀스를 가질 수 있다. 2 차원 DCT는 입력 시퀀스의 열에서 수행되는 1 차원 DCT로서 수행될 수 있으며, 그 후, 제 2의 1 차원 DCT는 입력 시퀀스 처리된 DCT의 행에서 수행될 수 있다. 또한, 당해 기술 분야에서 공지된 바와 같이, 2 차원 IDCT는 단일 프로세스로서 수행될 수 있다.For a two-dimensional system, the input sequence is represented by a matrix of values representing the individual coordinates of the transform region, which matrix consists of a column sequence of period M and a row sequence of period N (M , N may be an integer). The two-dimensional DCT may be performed as a one-dimensional DCT performed on a column of the input sequence, and then the second one-dimensional DCT may be performed on a row of the input sequenced DCT. In addition, as is known in the art, two-dimensional IDCT can be performed as a single process.

도 5에는 캐스케이드된 1 차원 IDCT로서 수행되는 수평 및 수직 성분들을 처리하는 2 차원 시스템에 대한 다운 변환용 필터의 양호한 수행이 도시되어 있다. 도 5에 도시된 바와 같이, 도 2의 DCT 필터 마스크(DCT Filter Mask)(216) 및 IDCT(218)는 수직 DCT 필터(530) 및 수직 IDCT(540)을 포함하는 수직 프로세서(Vertical Processor)(510)와, 수직 성분들을 위해 수행되는 것과 동일한 수평 IDCT 및 수평 DCT 필터를 포함하는 수평 프로세서(Horizontal Processor)(520)에 의해 수행된다. 상기 여파 및 IDCT 프로세스는 선형적이므로, 상기 프로세스를 수행하는 순서는 재배열될 수 있다(예컨대, 수평 및 수직 DCT 여파가 먼저이고 수평 및 수직 IDCT가 나중이 되거나, 그 역순이 되거나, 수직 프로세서(520)가 먼저이고 수평 프로세서(510)이 나중이 된다).5 shows a good performance of the down conversion filter for a two-dimensional system that processes horizontal and vertical components performed as a cascaded one-dimensional IDCT. As shown in FIG. 5, the DCT filter mask 216 and IDCT 218 of FIG. 2 may include a vertical processor including a vertical DCT filter 530 and a vertical IDCT 540. 510 and a horizontal processor 520 that includes the same horizontal IDCT and horizontal DCT filter as performed for vertical components. Since the filter and IDCT processes are linear, the order in which the processes are performed can be rearranged (e.g., horizontal and vertical DCT filters first and horizontal and vertical IDCT later, or vice versa, or vertical processor 520). ) And the horizontal processor 510 later.

도 5에 도시된 특정한 수행에서, 수직 프로세서(510)는 블록 이항 연산자(block Transpose Operator)(550)에 선행하며, 수직 프로세서에 의해 제공된 수직 처리된 값들의 블록의 행 및 열을 교환한다. 상기 동작은 수평 프로세서(520)에 의한 처리를 위해 블록을 마련함으로써 계산의 효율성을 제고하도록 사용된다.In the particular implementation shown in FIG. 5, vertical processor 510 precedes block transpose operator 550, exchanging rows and columns of blocks of vertically processed values provided by the vertical processor. This operation is used to increase the efficiency of computation by arranging blocks for processing by the horizontal processor 520.

예컨대, 행렬 값들의 8×8 블록과 같은 부호화된 비디오 블록은 수직 DCT 필터(530)에 의해 수신되며, 이는 소정의 수직 감소에 대응한 DCT 필터 값들에 의해 블록의 각 행 엔트리를 가중한다. 그 후, 수직 IDCT(540)는 상기 블록의 수직 성분들에 대해 역 DCT를 수행한다. 상술한 바와 같이, 양 프로세스는 단순히 행렬 곱셈 및 덧셈을 수행하므로, DCT LPF 계수들은 행렬 곱셈 및 덧셈 조작을 위해 상기 수직 DCT 계수들과 결합될 수 있다. 그 후, 수직 프로세서(510)는 수직 처리된 블록들을 이항 연산자(550)에 제공하며, 이는 수직 처리된 값들의 이항된 블록을 수평 프로세서(520)에 제공한다. IDCT 동작이 행 또는 열에 의해서만 수행되는 경우가 아니면, 이항 연산자(550)는 필수적인 것은 아니다. 수평 프로세서(520)는 소정의 수평 여파에 대응한 DCT 필터 값들에 의해 상기 블록의 각 열 엔트리의 가중을 수행하고, 그 후, 상기 블록의 수평 성분에 대해 역 DCT를 수행한다.For example, an encoded video block, such as an 8x8 block of matrix values, is received by vertical DCT filter 530, which weights each row entry of the block by DCT filter values corresponding to some vertical reduction. Vertical IDCT 540 then performs an inverse DCT on the vertical components of the block. As mentioned above, both processes simply perform matrix multiplication and addition, so that DCT LPF coefficients can be combined with the vertical DCT coefficients for matrix multiplication and addition operations. The vertical processor 510 then provides the vertically processed blocks to the binomial operator 550, which provides the horizontal processor 520 with the binomial block of vertically processed values. The binary operator 550 is not essential unless the IDCT operation is performed solely by row or column. Horizontal processor 520 performs weighting of each column entry of the block by DCT filter values corresponding to a predetermined horizontal filter, and then performs inverse DCT on the horizontal component of the block.

식 (12')를 참조하여 상술한 바와 같이, 오직 변환 영역내의 계수들만이 상기 프로세싱 알고리즘에 제공되고; 상기 동작들은 선형적이므로 상기 계수들에 대해서만 수학적 조작을 허용한다. 식 (12')로부터 명백하듯이, 상기 IDCT에 대한 조작은 적들(products)의 합산을 형성한다. 따라서, 하드웨어 도입은, ROM(도시되지 않음)과 같은 메모리내에 저장될 공지의 계수들과, 입력 변환 좌표들로부터의 선택된 계수들은 물론 ROM으로부터의 상기 계수들을 받아들이는 곱셈 및 덧셈 회로들의 그룹을 요구한다. 보다 진보된 시스템에 대해, ROM 어큐뮬레이터 방법은 수학적 연산의 순서가 분배된 산술에 따라 변형되는 경우에 사용되어 적들의 합산 도입으로부터 비트-직렬(bit-serial) 도입으로 변환시킬 수 있다. 예컨대, 상기 기술은 스탠리 에이 화이트(Stanley A. White)의 논문(Application of Distributed Arithmetic to Digital Signal Processing: A Tutorial Review, IEEE ASSP Magazine, July, 1989)에 기재되어 있으며, 이는 계산내의 대칭성을 이용하여 적들의 합산 도입의 총 게이트 총수를 감소시킨다.As described above with reference to equation (12 '), only coefficients in the transform domain are provided to the processing algorithm; The operations are linear and allow mathematical manipulation only on the coefficients. As is evident from equation (12 '), the manipulation to the IDCT forms a summation of the products. Thus, hardware introduction requires a group of known coefficients to be stored in a memory, such as a ROM (not shown), and multiplication and addition circuits that accept the coefficients from the ROM as well as selected coefficients from the input transform coordinates. do. For more advanced systems, the ROM accumulator method can be used when the order of mathematical operations is modified in accordance with distributed arithmetic to convert from the summation introduction of enemies to the bit-serial introduction. For example, the technique is described in Stanley A. White's Application of Distributed Arithmetic to Digital Signal Processing: A Tutorial Review, IEEE ASSP Magazine, July, 1989, using symmetry in calculations. Decreases the total gate count of the enemy's summation introduction.

본 발명의 대안적 실시예에서, DCT 필터 동작은 역 DCT(IDCT) 동작과 결합될 수 있다. 상기 실시예에 대해, 여파 및 역 변환 동작들이 선형이므로, 상기 필터 계수들은 IDCT의 계수들과 결합하여 변형된 IDCT를 형성할 수 있다. 당해 기술 분야에 공지된 바와 같이, 상기 변형된 IDCT, 상기 결합된 IDCT 및 DCT 다운 변형 여파는 단순한 IDCT 동작의 도입과 유사한 하드웨어 도입을 통해 수행될 수 있다.In alternative embodiments of the present invention, the DCT filter operation may be combined with an inverse DCT (IDCT) operation. For this embodiment, since the filter and inverse transform operations are linear, the filter coefficients can be combined with the coefficients of IDCT to form a modified IDCT. As is known in the art, the modified IDCT, the combined IDCT, and the DCT down transform filter can be performed through hardware introduction similar to the introduction of a simple IDCT operation.

c) 메모리 서브 시스템(Memory Subsystem) c) Memory Subsystem

1) 화상 데이터 및 비트스트림의 저장 및 메모리 접근1) Storage and memory access of image data and bitstream

도 1B에 도시된 바와 같이, 본 발명의 양호한 실시예는 메모리(130)로부터 정보를 판독하거나 메모리(130)에 정보를 저장하는 것을 제어하는 메모리 서브 시스템(174)을 구비한 ATV 비디오 디코더(121)를 채용한다. 메모리 서브 시스템(174)은 비디오 디코딩 동작을 위해 화상 데이터 및 비트스트림 데이터를 메모리(130)에 제공하며, 양호한 실시예에서는, 적어도 2개의 화상들(또는 프레임들)이 MPEG-2 부호화된 비디오 데이터의 적절한 디코딩에 사용된다. 메모리(130)내의 선택적 온 스크린 디스플레이(OSD) 섹션은 OSD 데이터를 지원하는데 이용될 수 있다. 메모리 서브 시스템(174)과 메모리(130)간의 인터페이스는 500[Mbps] 채널을 제공하는 동시 RDRAM 인터페이스가 될 수 있고, 3개의 RAMBUS 채널은 필요한 대역폭(bandwidth)을 지원하는데 사용될 수 있다. 외부 메모리(130)과 함께 동작하는 화상 프로세서(171), 매크로블록 디코더(172) 및 메모리 서브 시스템(174)을 구비한 본 발명의 실시예는 본 명세서의 참조문헌으로서 제시된 미국 특허 No. 5,623,311, N.V.Philips, "MPEG VIDEO DECODER HAVING A HIGH BANDWIDTH MEMORY")에 기재된 시스템을 채용할 수 있다. 도 12는 MP@ML MPEG-2 화상을 디코딩하도록 본 발명의 양호한 실시예에 의해 채용된 고 대역폭 메모리를 가진 비디오 디코더의 상기 시스템의 고 레벨 블록도이다.As shown in FIG. 1B, a preferred embodiment of the present invention is an ATV video decoder 121 having a memory subsystem 174 that controls reading information from or storing information in the memory 130. ) Is adopted. Memory subsystem 174 provides picture data and bitstream data to memory 130 for video decoding operations, and in preferred embodiments, at least two pictures (or frames) are MPEG-2 encoded video data. Is used for proper decoding of. An optional on screen display (OSD) section in memory 130 may be used to support OSD data. The interface between memory subsystem 174 and memory 130 may be a simultaneous RDRAM interface providing 500 [Mbps] channels, and three RAMBUS channels may be used to support the required bandwidth. Embodiments of the present invention having an image processor 171, a macroblock decoder 172, and a memory subsystem 174 that operate in conjunction with an external memory 130 are disclosed in US Pat. 5,623,311, N.V.Philips, " MPEG VIDEO DECODER HAVING A HIGH BANDWIDTH MEMORY " 12 is a high level block diagram of the system of a video decoder with a high bandwidth memory employed by the preferred embodiment of the present invention to decode MP @ ML MPEG-2 pictures.

요약하면, 도 1A 및 도 1B에 기재된 바와 같이, 미국 특허 No. 5,623,311는 단일 메모리 포트를 구비한 단일한 고 대역폭 메모리를 기술한다. 메모리(130)는 입력 비트스트림과, 모션 보상 프로세스에 사용되는 제 1 및 제 2 기준 프레임과, 현재 디코딩되고 있는 필드(field)를 표시하는 이미지 데이터를 유지한다. 상기 디코더는, 1) 비트스트림 데이터를 저장 및 추출하는 회로(화상 프로세서(171))와, 2) 블록 포맷내의 현재 디코딩된 필드를 위해 기준 프레임 데이터를 추출하고 이미지 데이터를 저장하며(매크로블록 디코더(172)), 비월 주사 포맷으로의 변환을 위해 상기 이미지 데이터를 추출하는(디스플레이 섹션(173)) 회로를 포함한다. 메모리 동작은 규정된 메모리 접근 시간 주기(제어 동작을 위한 매크로블록 시간(MblkT))와 함께 단일 공통 메모리 포트를 사용하여 멀티플렉스된 시분할(time division)이다. 디지털 위상 잠금 루프(DPLL)(122)는 MPEG-2 표준에서 규정된 27[MHz] 시스템 클록 신호의 펄스들을 셈하여 셈값을 발생한다. 상기 셈값은 외부 공급된 시스템 클록 기준(SCR) 값들의 연속과 비교되어, 상기 디지털 위상 잠금 루프에 의해 발생된 신호의 주파수의 조정에 사용되는 위상차 신호를 발생한다.In summary, as described in FIGS. 1A and 1B, US Pat. 5,623,311 describes a single high bandwidth memory with a single memory port. Memory 130 maintains an input bitstream, first and second reference frames used in the motion compensation process, and image data indicating a field that is currently being decoded. The decoder comprises: 1) circuitry for storing and extracting bitstream data (image processor 171), and 2) extracting reference frame data and storing image data for the current decoded field in the block format (macroblock decoder). 172), the circuitry for extracting the image data for conversion to an interlaced scan format (display section 173). Memory operations are time division multiplexed using a single common memory port with a defined memory access time period (macroblock time (MblkT) for control operations). The digital phase lock loop (DPLL) 122 counts the pulses of the 27 [MHz] system clock signal defined in the MPEG-2 standard to generate a count. The count value is compared with a series of externally supplied system clock reference (SCR) values to generate a phase difference signal used to adjust the frequency of the signal generated by the digital phase lock loop.

표 9에는 다중 포맷을 지원하는 DC 배치에 필요한 화상 저장 장비가 요약되어 있다:Table 9 summarizes the image storage equipment required for DC deployments that support multiple formats:

[표 9]TABLE 9

DC 모드에 대해, 1920×720 화상들이 3 인자 만큼 수평 감소하여 640×1080 화상을 제공하고; 1280×720 화상들이 2 인자 만큼 수평 감소하여 640×720 화상을 제공한다. 704×480 및 640×480 화상들은 DC 모드에서 감소될 필요가 없다.For DC mode, 1920 × 720 pictures are horizontally reduced by 3 factors to provide a 640 × 1080 picture; 1280 × 720 images are horizontally reduced by 2 factors to provide a 640 × 720 image. 704x480 and 640x480 images do not need to be reduced in DC mode.

메모리(130)내에 복수의 DC 화상들을 수용하는 것은 대응하는 화상 디스플레이 타이밍에 따라 각각의 디코딩 동작을 지원하는 것을 요구한다. 예컨대, 순차 화상들은 비월 화상들의 속도의 2배로 발생하고(60 또는 59.94[Hz] 순차 대 30 또는 29.97[Hz] 비월), 따라서, 순차 화상들은 비월 화상 보다 빠르다(분당 60 또는 59.94 프레임 순차 대 분당 30 또는 29.97 프레임 비월). 따라서, 디코딩 속도는 포맷에 대한 디스플레이 속도에 의해 제한되며, 만약 분당 60 또는 30 프레임이 아닌 보다 덜 엄격한 분당 59.97 또는 29.97 프레임의 디코딩 속도가 사용된다면, 매 1001 프레임들 중의 하나는 변환으로부터 누락된다. 즉, 포맷을 위한 디코딩 동작은 매크로블록에 대한 모든 디코딩 동작이 완료되는 시간 주기로 규정된 "매크로블록 시간(MblkT)"의 단위로 측정될 수 있다. 식 14에 규정된 것처럼, 상기 시간 주기를 이용하여 제어 신호 및 메모리 접근 동작은 MblkT 시간 주기가 규칙적으로 발생하는 동안 규정될 수 있다.Accommodating a plurality of DC pictures in the memory 130 requires supporting each decoding operation in accordance with the corresponding picture display timing. For example, sequential pictures occur at twice the speed of interlaced pictures (60 or 59.94 [Hz] sequential versus 30 or 29.97 [Hz] interlaced), and therefore, sequential pictures are faster than interlaced pictures (60 or 59.94 frame sequential per minute). 30 or 29.97 frames interlaced). Thus, the decoding rate is limited by the display rate for the format, and if a less stringent decoding rate of 59.97 or 29.97 frames per minute is used rather than 60 or 30 frames per minute, one of every 1001 frames is missing from the conversion. That is, the decoding operation for the format may be measured in units of "macroblock time (MblkT)" defined as a time period in which all decoding operations for the macroblock are completed. As defined in Equation 14, the control signal and memory access operation using the time period can be defined while the MblkT time period occurs regularly.

또한, 블랭킹 간격(blanking interval)은 비월 화상들의 화상 디코딩에 사용되지 않을 수 있고, 상기 시간 주기에 대한 8-라인 마진(8-line margine)은 8개의 라인들(비월)을 동시에 디코딩하고 16개의 라인들(프로그레시브)을 동시에 디코딩하기 위해 부가된다. 따라서, 식 (15) 및 (16)에 주어진 바와 같이, 조정 인자(AdjFact)는 상기 MblkT에 부가될 수 있다.In addition, a blanking interval may not be used for picture decoding of interlaced pictures, and an 8-line margin for the time period decodes 8 lines (interlaced) simultaneously and 16 Added to decode lines (progressive) simultaneously. Thus, as given in equations (15) and (16), an adjustment factor AdjFact can be added to the MblkT.

표 10에는 지원된 포맷들 각각에 대한 MblkT가 열거되어 있다:Table 10 lists the MblkT for each of the supported formats:

[표 10]TABLE 10

본 발명의 양호한 실시예에서, 241 클록들의 MblkT는 작은 마진을 포함하는 가장 빠른 디코딩 시간의 요건에 맞도록 모든 포맷들을 위해 채용된다. 상기 선택된 MblkT 시간 주기에 대해, 느린 포맷 디코딩은 디코딩 활동이 없는 시간 주기를 포함한다; 따라서, 선택된 MblkT 시간 주기에서 디코딩을 중지하도록 발생되는 기능 정지(stall)와 함께 선형 디코딩을 반사하도록 채용될 수 있다.In a preferred embodiment of the present invention, MblkT of 241 clocks is employed for all formats to meet the requirements of the fastest decoding time including a small margin. For the selected MblkT time period, slow format decoding includes a time period with no decoding activity; Thus, it can be employed to reflect linear decoding with a stall that occurs to stop decoding in the selected MblkT time period.

도 1B를 참조하면, 메모리 시스템(174)은 내부 화상 데이터 인터페이스를 매크로블록 디코더(172) 및 디스플레이 섹션(173)에 제공할 수 있다. 디코딩된 매크로블록 인터페이스는 디코딩된 매크로블록 데이터를 허용하고, 주어진 포맷에 대해 규정된 메모리 맵(memory map)에 따라 메모리(130)의 정확한 메모리 어드레스 위치로 상기 디코딩된 매크로블록 데이터를 저장한다. 메모리 어드레스는 매크로블록 번호(macroblock number) 및 화상 번호(picture number)로부터 유도된다. 매크로블록들은 3개의 채널상의 매크로블록 행으로서 수신될 수 있는데, 시스템 클록 속도(system clock rate)에서는 16[Mb] 메모리 장치당 하나의 채널이다(도 1a의 131 내지 136). 각 메모리 장치는 각 화상에 대해 두 개의 구획(partition)을 가질 수 있으며, 각 구획은 상부 및 하부 어드레스를 이용한다. 비월 화상에 대해, 한 구획은 필드 0 데이터(Field 0 data)를 반송하고 다른 구획은 필드 1 데이터(Field 1 data)를 반송하며, 순차 화상에 대해, 상부 및 하부 구획들 모두는 단일 구획으로 취급되고 전체 프레임에 대해 데이터를 반송한다. 매 매크로블록은 매 화상에 대해 디코딩 및 저장되는데, 디코딩이 전체 필드 시간 주기 동안 일시 정지되는 3:2 풀 다운 모드(3:2 pulldown mode)는 예외이다. 3:2 풀 다운 모드에서, 초당 24 프레임의 프레임 속도를 가진 신호는 하나의 프레임을 두 번 디스플레이하고 후속 프레임을 세 번 디스플레이함으로써 분당 60 프레임(또는 필드)에서 디스플레이된다.Referring to FIG. 1B, the memory system 174 may provide an internal image data interface to the macroblock decoder 172 and the display section 173. The decoded macroblock interface accepts decoded macroblock data and stores the decoded macroblock data in the correct memory address location of memory 130 in accordance with a memory map defined for a given format. The memory address is derived from the macroblock number and the picture number. Macroblocks may be received as macroblock rows on three channels, one channel per 16 [Mb] memory device at the system clock rate (131-136 in FIG. 1A). Each memory device may have two partitions for each picture, each partition using a top and bottom address. For interlaced images, one compartment carries Field 0 data and the other carries Field 1 data, and for sequential images, both upper and lower compartments are treated as a single compartment. And data is returned for the entire frame. Every macroblock is decoded and stored for every picture, with the exception of a 3: 2 pulldown mode where decoding is paused for the entire field time period. In 3: 2 pull down mode, a signal with a frame rate of 24 frames per second is displayed at 60 frames per minute (or field) by displaying one frame twice and the subsequent frames three times.

기준 매크로블록 인터페이스는 모션 보상을 위해 저장 및 선행 디코딩된 화상 데이터를 매크로블록 디코더(172)에 공급한다. 상기 인터페이스는 양방향 예측(B) 인코딩, 일방향 예측(P) 인코딩 또는 내부(I) 인코딩에 대응하여 2개, 1개 또는 0개의 매크로블록을 공급한다. 각 기준 블록은 두 개의 채널의 사용에 의해 공급되며, 각 채널은 매크로블록의 반을 포함한다. 2 인자 감소를 채용하는 DC 모드에 대해, 각 검색된 반 매크로블록 14×9(Y), 10×5(CR) 및 10×5(CB)는 업 샘플링 및 반 화소 해상도를 허용하도록 제공된다.The reference macroblock interface supplies the macroblock decoder 172 with stored and previously decoded picture data for motion compensation. The interface supplies two, one or zero macroblocks corresponding to bidirectional prediction (B) encoding, unidirectional prediction (P) encoding or inner (I) encoding. Each reference block is supplied by the use of two channels, each containing half of the macroblock. For DC mode employing two factor reduction, each retrieved half macroblock 14 × 9 (Y), 10 × 5 (C R ) and 10 × 5 (C B ) are provided to allow upsampling and half pixel resolution. .

디스플레이 인터페이스는 검색된 화소 데이터를 디스플레이 섹션(173)에 제공하고, Y, CR 및 CB 화소 데이터를 단일 채널로 멀티플렉스(multiplex)한다. 두 개의 디스플레이 채널들이 제공되어 순차 포맷들로부터 비월 포맷들로의 변환이나 비월 포맷들로부터 순차 포맷들로의 변환을 지원한다. DC 모드에서, 제 1 채널은 4 라인까지의 비월 또는 순차 데이터를 동시에 제공할 수 있고, 제 2 채널은 4 라인까지의 비월 데이터를 제공할 수 있다.The display interface provides the retrieved pixel data to the display section 173 and multiplexes the Y, C R and C B pixel data into a single channel. Two display channels are provided to support conversion from sequential formats to interlaced formats or from interlaced formats to sequential formats. In the DC mode, the first channel can provide up to four lines of interlaced or sequential data and the second channel can provide up to four lines of interlaced data.

다운 변환에 대해, 다운 샘플된 매크로블록들은 저장을 위한 단일 매크로블록으로 병합된다. DC 모드의 다운 샘플링 프로세스는 도 6A 및 도 6B를 참조하여 후술된다. 도 6C에는 2 인자 수평 다운 변환하여 메모리(130)내에 저장하기 위해 두 개의 매크로블록들을 한 개의 매크로블록으로 병합하는 프로세스가 도시되어 있다. 도 6D에는 3 인자 수평 다운 변환하여 메모리(130)내에 저장하기 위해 세 개의 매크로블록들을 한 개의 매크로블록으로 병합하는 프로세스가 도시되어 있다.For down conversion, down sampled macroblocks are merged into a single macroblock for storage. The down sampling process in DC mode is described below with reference to FIGS. 6A and 6B. 6C shows a process of merging two macroblocks into one macroblock for two factor horizontal down conversion to store in memory 130. 6D shows a process of merging three macroblocks into one macroblock for three factor horizontal down conversion to store in memory 130.

d) 디스플레이 섹션의 다운 샘플링 및 디스플레이 변환 d) downsampling and display conversion of the display section;

1) 저해상도 포맷을 위한 다운 샘플링1) Downsampling for Low Resolution Formats

다운 샘플링은 도 2B의 다운 샘플링 프로세스(232)에 의해 성취되어 다운 변환된 이미지내의 화소들의 수를 감소시킨다. 도 6A는 3:1 감소의 4:2:0 신호 포맷을 위한 입력 및 감소된 출력 화소들을 도시한다. 도 6B는 2:1 감소의 4:2:0 색차 타입의 입력 및 감소된 출력 화소들을 도시한다. 표 11은 도 6A 및 도 6B의 휘도 및 색차 화소들에 대한 범례를 제공한다. 도 6A 및 도 6B의 다운 변환 전후의 화소 위치들은 각각 비월(3:1 감소) 및 순차(2:1 감소) 케이스들이다.Down sampling is accomplished by the down sampling process 232 of FIG. 2B to reduce the number of pixels in the down converted image. 6A shows input and reduced output pixels for a 4: 2: 0 signal format with a 3: 1 reduction. 6B shows input and reduced output pixels of a 4: 2: 0 color difference type of 2: 1 reduction. Table 11 provides a legend for the luminance and chrominance pixels of FIGS. 6A and 6B. The pixel positions before and after down conversion of FIGS. 6A and 6B are interlaced (3: 1 reduced) and sequential (2: 1 reduced) cases, respectively.

[표 11]TABLE 11

1920×1080 화소 이미지로부터 640×1080 화소 수평 압축 이미지까지의 변환일 수 있는 비월 이미지의 다운 샘플링에 대해, 매 3개의 화소들 중의 2개는 수평축상 감소된다. 양호한 3:1 감소에 대해, 다운 변환 프로세스후에는 3개의 상이한 매크로블록 타입들이 있다. 도 6A에서, 원래의 매크로블록들은 MB0, MB1, MB2로 표시된다. MB0의 다운 샘플된 휘도 화소들은 상기 원래의 매크로블록의 제 1 화소에서 출발하나, MB1 및 MB2에서는 상기 다운 샘플된 화소들은 제 3 및 제 2 화소에서 출발한다. MB0에서, 6개의 수평의 다운 샘플된 화소들이 있으나, MB1 및 MB2에서는 5개의 화소들이 있다. 상기 3개의 MB 타입들은 반복하고, 따라서, 모듈로 3 산술(Module 3 arithmetic)이 적용된다. 표 12는 각 입력 매크로블록 MB0, MB1, MB2에 대한 다운 샘플링 화소들 및 오프세트의 수를 요약한다.For down sampling of an interlaced image, which can be a conversion from a 1920x1080 pixel image to a 640x1080 pixel horizontal compressed image, two of every three pixels are reduced on the horizontal axis. For a good 3: 1 reduction, there are three different macroblock types after the down conversion process. In Fig. 6A, the original macroblocks are indicated as MB0, MB1, MB2. The down sampled luminance pixels of MB0 start from the first pixel of the original macroblock, but in MB1 and MB2 the down sampled pixels start from the third and second pixels. In MB0, there are six horizontal down-sampled pixels, while in MB1 and MB2 there are five pixels. The three MB types repeat and thus modulo 3 arithmetic is applied. Table 12 summarizes the number of down sampling pixels and offsets for each input macroblock MB0, MB1, MB2.

[표 12]TABLE 12

순차 포맷 이미지의 다운 샘플링에 대해, 휘도 신호는 매 분마다 샘플에 대해 수평 서브 샘플된다. 색차 신호에 대해, 다운 샘플된 화소는 원래의 이미지내의 화소 위치에 비해 반 화소 위치만큼 낮은 공간 위치를 가진다.For down sampling of sequential format images, the luminance signal is horizontal subsampled to the sample every minute. For the chrominance signal, the down sampled pixel has a spatial position as low as a half pixel position relative to the pixel position in the original image.

2) 디스플레이 변환2) display conversion

도 1B의 AVT 디코더(121)의 디스플레이 섹션(173)은 특정 디스플레이 포맷을 위해 저장된 화상 정보(디코딩된 화상 정보)의 포맷에 사용된다. 도 11A는 본 발명의 양호한 실시예에 대한 ATV 비디오 디코더(121)의 디스플레이 섹션을 도시한 고레벨 블록도이다.The display section 173 of the AVT decoder 121 of FIG. 1B is used for the format of picture information (decoded picture information) stored for a specific display format. 11A is a high level block diagram illustrating the display section of an ATV video decoder 121 for a preferred embodiment of the present invention.

도 11A를 참조하면, 두 개의 출력 비디오 신호들이 지원되는데, 이들은 임의의 선택된 비디오 포맷을 지원하는 제 1 출력 신호 VIDout1과, 525I(CCIR-601)만을 지원하는 제 2 출력 신호 VIDout2이다. 각 출력 신호는 각각 디스플레이 프로세싱 소자(1101, 1102)의 독립된 세트에 의해 처리되는데, 이는 수평 및 수직 업 샘플링/다운 샘플링을 수행한다. 상기 배치는 디스플레이 종횡비(aspect ratio)가 입력 화상의 종횡비와 일치하지 않을 때 바람직하다. 선택적 온 스크린 디스플레이(OSD) 섹션(1104)이 포함되어, 디스플레이 신호들(Vout1 및 Vout2)를 형성하도록 온 스크린 정보를 지원된 출력 신호들(VIDout1 및 VIDout2) 중의 하나에 제공한다. 모든 프로세싱은 내부 클록 속도(internal clock rate)로 수행되나, 출력 제어기(1126, 1128)에서의 출력 신호들(Vout1 및 Vout2)의 제어는 예외이며, 이는 화소 클록 속도(pixel clock rate)로 수행된다. 양호한 실시예에 대해, 상기 화소 클록 속도는 휘도 화소 속도(luminance pixel rate)가 되거나 상기 휘도 화소 속도의 두배가 될 수 있다.Referring to FIG. 11A, two output video signals are supported, the first output signal VID out1 supporting any selected video format and the second output signal VID out2 supporting only 525I (CCIR-601). Each output signal is processed by a separate set of display processing elements 1101 and 1102, respectively, which perform horizontal and vertical upsampling / downsampling. This arrangement is desirable when the display aspect ratio does not match the aspect ratio of the input image. An optional on screen display (OSD) section 1104 is included to provide on screen information to one of the supported output signals VID out1 and VID out2 to form display signals V out1 and V out2 . All processing is performed at an internal clock rate, except for the control of the output signals V out1 and V out2 at the output controllers 1126 and 1128, which are at the pixel clock rate. Is performed. For the preferred embodiment, the pixel clock rate may be a luminance pixel rate or twice the luminance pixel rate.

프로세싱 소자들(1101, 1102)의 디스플레이 세트들이 유사하게 동작하므로, 오직 디스플레이 프로세싱 세트(1101)의 동작만이 기술된다. 디스플레이 프로세싱 세트(1101)를 참조하면, 4 라인의 화소 데이터가 레스터(raster) 크기로 메모리(130)(도 1A에 도시됨)로부터 수직 프로세싱 블록(282)(도 2B에 도시됨)으로 제공된다. 각 라인은 동시에 CR, Y, CB, Y 데이터 32 비트를 공급한다. 그 후, 수직 프로세싱 블록(282)은 상기 4 라인을 1 라인으로 여파하고, 상기 여파된 데이터를 32 비트 CRYCBY 포맷으로 수평 프로세싱 블록(284)(도 2B에 도시됨)에 제공한다. 수평 프로세싱 블록(284)은 포맷된 화소 데이터로서 선택된 래스터 포맷에 대한 정확한 수의 화소들을 제공한다. 따라서, 수평 프로세싱 블록(284)을 입력하는 여파된 데이터 속도는 출력 데이터 속도와 동일할 필요가 없다. 업 샘플링 케이스에서, 입력 데이터 속도는 출력 데이터 속도 보다 낮을 것이다. 다운 샘플링 케이스에서, 입력 데이터 속도는 출력 데이터 속도 보다 높을 것이다. 포맷된 화소 데이터는 선택적 배경 프로세싱 블록(background processing block)(1110)에 의해 삽입된 배경 정보를 가질 수 있다.Since the display sets of the processing elements 1101 and 1102 operate similarly, only the operation of the display processing set 1101 is described. Referring to the display processing set 1101, four lines of pixel data are provided from the memory 130 (shown in FIG. 1A) to the vertical processing block 282 (shown in FIG. 2B) in raster size. . Each line supplies 32 bits of C R , Y, C B , and Y data at the same time. Vertical processing block 282 then filters the four lines into one line and provides the filtered data to horizontal processing block 284 (shown in FIG. 2B) in a 32-bit C R YC B Y format. . Horizontal processing block 284 provides the correct number of pixels for the selected raster format as formatted pixel data. Thus, the filtered data rate entering horizontal processing block 284 need not be the same as the output data rate. In the up sampling case, the input data rate will be lower than the output data rate. In the down sampling case, the input data rate will be higher than the output data rate. The formatted pixel data may have background information inserted by the optional background processing block 1110.

당해 기술 분야의 통상의 지식을 가진 자가 알고 있듯이, 디스플레이 섹션(173)의 소자들은 제어기(1150)에 의해 제어되며, 이는 마이크로 프로세서 인터페이스로부터 판독되거나 상기 인터페이스에 기록되는 매개 변수들에 의해 설정된다. 상기 제어기는 신호(CNTRL)을 발생하고, 상기 제어는 적절한 회로 동작과, 화소들의 로딩 및 전이와, 신호 프로세싱에 영향을 미치고 이들을 조정하는데 필요하다.As will be appreciated by those skilled in the art, the elements of display section 173 are controlled by controller 1150, which is set by parameters that are read from or written to the microprocessor interface. The controller generates a signal CNTRL, and the control is necessary to influence and adjust the proper circuit operation, loading and transitioning of pixels, signal processing.

수평 프로세싱 블록(284)로부터의 데이터와, 제 2 수평 프로세싱 블록(284a)으로부터의 데이터와, HD 바이패스(HD Bypass)(1122)상의 HD(비순차) 비디오 데이터는 멀티플렉서(Multiplexer)(118)에 제공되며, 상기 멀티플렉서는 프로세서 제어(도시되지 않음)에 따라 하나의 비디오 데이터 스트림을 선택함으로써 비디오 데이터와 OSD 프로세서(1104)로부터의 선택적 OSD 데이터를 결합하여 복합 출력 비디오 데이터를 형성하도록 믹서(mixer)(116)에 제공한다. 그 후, 상기 복합 비디오 출력 데이터는 MUX들(1120, 1124)에 제공된다.The data from the horizontal processing block 284, the data from the second horizontal processing block 284a, and the HD (non-sequential) video data on the HD Bypass 1122 are multiplexer 118. And a multiplexer to combine the video data with the optional OSD data from the OSD processor 1104 to form a composite output video data by selecting one video data stream under processor control (not shown). (116). The composite video output data is then provided to MUXs 1120 and 1124.

프로세싱 소자들의 제 1 세트(1101)에 대해, MUX(1120)는 복합 출력 비디오 데이터나, HD 바이패스(1122)상에 제공되는 HD 데이터나, 배경 삽입 블록(1110)으로부터의 데이터를 선택할 수 있다. 상기 선택된 데이터는 화소 클록도 수신하는 출력 제어 프로세서(1126)에 제공된다. 그 후, 출력 제어 프로세서(1126)는 소정의 출력 모드에 따라 내부 프로세싱 영역으로부터의 데이터 클록 속도를 화소 클록 속도로 변화시킨다.For the first set of processing elements 1101, the MUX 1120 may select composite output video data, HD data provided on the HD bypass 1122, or data from the background insertion block 1110. . The selected data is provided to an output control processor 1126 that also receives a pixel clock. The output control processor 1126 then changes the data clock rate from the internal processing region to the pixel clock rate in accordance with the desired output mode.

제 2 프로세싱 소자들(1102)에 대해, MUX(1124)는 복합 출력 비디오 데이터나, 배경 삽입 블록(1110a)으로부터의 데이터를 선택할 수 있다. 상기 선택된 데이터는 화소 클록도 수신하는 출력 제어 프로세서(1128)에 제공된다. 그 후, 출력 제어 프로세서(1128)는 소정의 출력 모드를 따라 내부 프로세싱 영역으로부터의 데이터 클록 속도를 화소 클록 속도로 변화시킨다. MUX(1132)는 MUX(1124)의 수신된 선택된 데이터(601 데이터 아웃)나 OSD 프로세서(1104)로부터의 선택적 OSD 데이터를 제공한다.For the second processing elements 1102, the MUX 1124 may select composite output video data or data from the background insertion block 1110a. The selected data is provided to an output control processor 1128 that also receives a pixel clock. The output control processor 1128 then changes the data clock rate from the internal processing region to the pixel clock rate according to the predetermined output mode. MUX 1132 provides received selected data (601 data out) of MUX 1124 or optional OSD data from OSD processor 1104.

래스터 발생 및 제어 프로세서(1130)는 화소 클록도 수신하며, 래스터 공간을 발생하는 계수기(counter)(도시되지 않음)들을 포함하고, 제어 명령을 라인마다 디스플레이 제어 프로세서(1140)에 전송한다. 디스플레이 제어 프로세서(1140)는 외부 메모리(130)와 함께 타이밍을 조정하고, 래스터 라인들에 동기화되어 라인마다 각 프로세싱 사슬(1101, 1102)에 대한 프로세싱을 개시한다.The raster generation and control processor 1130 also receives a pixel clock, includes counters (not shown) that generate raster space, and sends control commands to the display control processor 1140 line by line. Display control processor 1140 adjusts timing with external memory 130 and initiates processing for each processing chain 1101, 1102 per line in synchronization with raster lines.

도 11B 내지 11D는 비디오 디코더(121)의 도 11A에 도시된 디스플레이 섹션(173)에 의해 제공된 출력 모드들을 도 1A의 활성 블록들에 연관시킨다. 도 11B는, 비디오 데이터가 525P 또는 525I이면, 제 1 프로세서(1101)(도 11A에 도시됨)가 525I 데이터(601 데이터 아웃)를 NTSC 인코더(152)에 제공함은 물론 525P 비디오 데이터를 27[MHz] DAC(143)에 제공하는 27[MHz] 쌍 출력 모드(Dual output mode)를 도시한 도면이다. 도 11C는 27[MHz] 단일 출력 모드에서는 오직 525I 데이터(601 데이터 아웃)만이 NTSC 인코더(152)에 제공되는 것을 도시한 도면이다. 도 11D는 출력 모드가 입력 모드와 일치하고 출력 포맷에 따라 비디오 데이터가 27[MHz] DAC(143)이나 74[MHz] DAC(141)에 제공되는 74[MHz]/27[MHz] 모드를 도시한 도면이다. 상기 74[MHz] DAC는 1920×1088 및 1280×720 화상들에 사용되며; 상기 27[MHz] DAC는 여타 모든 출력 포맷들에 사용된다.11B-11D associate the output modes provided by the display section 173 shown in FIG. 11A of the video decoder 121 to the active blocks of FIG. 1A. 11B shows that if the video data is 525P or 525I, the first processor 1101 (shown in FIG. 11A) provides 525I data (601 data out) to NTSC encoder 152 as well as providing 525P video data at 27 [MHz]. FIG. 27 shows the 27 [MHz] dual output mode provided to the DAC 143. FIG. 11C shows that only 525I data (601 data out) is provided to NTSC encoder 152 in 27 [MHz] single output mode. FIG. 11D shows a 74 [MHz] / 27 [MHz] mode in which the output mode matches the input mode and video data is provided to the 27 [MHz] DAC 143 or 74 [MHz] DAC 141 depending on the output format. One drawing. The 74 [MHz] DAC is used for 1920 × 1088 and 1280 × 720 pictures; The 27 [MHz] DAC is used for all other output formats.

다운 샘플된 이미지 플레임의 디스플레이 변환은 이미지를 특정한 포맷으로 디스플레이하는데 이용된다. 상술한 바와 같이, 도 2B에 도시된 디스플레이 변환 블록(280)은 저해상도 스크린상에 디스플레이되도록 다운 변환 및 다운 샘플된 이미지를 조정하는 수직 프로세싱 블록(VPF)(282)와 수평 프로세싱 블록(HZPF)(284)을 포함한다.Display conversion of down sampled image frames is used to display an image in a particular format. As described above, the display conversion block 280 shown in FIG. 2B is a vertical processing block (VPF) 282 and a horizontal processing block (HZPF) (which adjusts down-converted and down-sampled images to be displayed on a low resolution screen). 284).

양호한 실시예에 대해, VPF(282)는 프로그램 가능한 다상 수직 필터로서 수행되는 수직 라인 보간 프로세서이고, 양호한 실시예에 대해, HZPF(284)는 프로그램 가능한 다상 수평 필터로서 수행되는 수평 라인 보간 프로세서이다. 필터들은 프로그램 가능하며, 이는 다수의 디스플레이 포맷들에 대한 디스플레이 변환을 수용하기 위한 디자인 선택이다.For the preferred embodiment, VPF 282 is a vertical line interpolation processor performed as a programmable polyphase vertical filter, and for the preferred embodiment, HZPF 284 is a horizontal line interpolation processor performed as a programmable polyphase horizontal filter. The filters are programmable, which is a design choice to accommodate display conversions for multiple display formats.

도 2B에 도시된 바와 같이, 4 라인의 다운 샘플된 화소 데이터는 래스터 크기로 VPF(282)로 입력된다. 양호한 실시예에서, 상기 데이터는 VPF(282) 32 비트로 동시에 입력되는 휘도(Y) 및 색차(CR 및 CB) 화소 켤레를 포함한다. VPF(282)는 4 라인의 데이터를 1 라인으로 여파하고, 상기 라인을 YCRYCB 내의 휘도 및 색차 데이터를 각각 포함하는 32 비트 값들로서 HZPF(284)에 전송하고, 그 후, HZPF(284)는 정확한 수의 화소들을 발생하여 소정의 래스터 포맷에 일치시킨다.As shown in Fig. 2B, four lines of down-sampled pixel data are input to the VPF 282 in raster size. In a preferred embodiment, the data includes a pair of luminance (Y) and color difference (C R and C B ) pixels that are simultaneously input in 32 bits of VPF 282. The VPF 282 filters four lines of data into one line, sends the line to the HZPF 284 as 32-bit values each containing luminance and chrominance data in YC R YC B , and then HZPF 284. ) Generates an exact number of pixels to match a given raster format.

도 7A는 본 발명의 양호한 실시예의 VPF(282)로서 사용하기 적합한 양호한 필터를 도시한 고레벨 블록도이다. 이하에서, VPF(282)는 출력 화소들의 켤레를 발생하도록 입력 화소들(각 켤레는 두 개의 휘도 화소들(Y 화소 및 휘도(CR 및 CB) 화소)의 켤레를 처리한다. 이는 4:2:0 포맷의 프로세싱을 촉진하는데, 왜냐하면, 컬러 화소들은 그들의 대응 휘도 화소들과 용이하게 연합될 수 있기 때문이다. 그러나, 당해 기술 분야의 당업자는 오직 휘도 화소만이나 오직 색차 화소만이 상기 방식으로 처리될 수 있다는 것을 알 것이다. 또한, VPF(282)는 순차 포맷으로 라인들을 발생한다. 또 다른 실시예는 2중 출력(dual output)을 채용하고, 주 출력 채널과 부 출력 채널 모두를 지원하며, 제 2 VPF(282)가 부가된다.7A is a high level block diagram illustrating a preferred filter suitable for use as the VPF 282 of the preferred embodiment of the present invention. In the following, VPF 282 processes the pair of input pixels (each pair of two luminance pixels (Y pixel and luminance CR and C B pixels) to generate a pair of output pixels. Facilitate the processing of the 2: 0 format because color pixels can be easily associated with their corresponding luminance pixels, however, those skilled in the art will appreciate that only luminance pixels or only chrominance pixels can be employed in this manner. Also, the VPF 282 generates lines in sequential format Another embodiment employs a dual output and supports both primary and secondary output channels. And a second VPF 282 is added.

도 7A를 참조하면, VPF(282)는 VPF 제어기(702)와; 휘도 화소 MUX들(LP MUX들)(706, 708, 710, 712) 및 색차 화소 MUX들(CP MUX들)(714, 716, 718, 720)을 포함하는 제 1 멀티플렉서 네트워크와; 휘도 필터 MUX들(LF MUX들)(726, 728, 730, 732) 및 색차 필터 MUX들(CF MUX들)(734, 736, 738, 740)을 포함하는 제 2 멀티플렉서 네트워크와; 휘도 계수 RAM(704)과; 색차 계수 RAM(724)과; 휘도 계수 곱셈기(742, 744, 746, 748)와; 색차 계수 곱셈기(750, 752, 754, 756)와; 휘도 덧셈기(760, 762, 764)와; 색차 덧셈기(766, 768, 770)와; 라운드 및 클립 프로세서(Round and Clip processor)(772, 776)와; 디먹스(Demux)/레지스터(Register)(774, 778)와; 출력 레지스터(780)를 포함한다.7A, VPF 282 includes a VPF controller 702; A first multiplexer network comprising luminance pixel MUXs (LP MUXs) 706, 708, 710, 712 and chrominance pixel MUXs (CP MUXs) 714, 716, 718, 720; A second multiplexer network comprising luminance filter MUXs (LF MUXs) 726, 728, 730, 732 and chrominance filter MUXs (CF MUXs) 734, 736, 738, 740; A luminance coefficient RAM 704; Color difference coefficient RAM 724; Luminance coefficient multipliers 742, 744, 746, and 748; Color difference coefficient multipliers 750, 752, 754, 756; Luminance adders 760, 762, and 764; Color difference adders 766, 768, and 770; Round and clip processors 772 and 776; Demux / Register 774, 778; An output register 780.

이제, VPF(282)의 동작을 기술한다. 수직 재 샘플링은 2개의 4-탭 다상 필터들을 이용하여 성취되는데, 하나는 휘도 화소들을 위한 것이며, 하나는 색차 화소들을 위한 것이다. 이하에는 휘도 화소들을 위한 필터의 동작만이 기술되는데, 왜냐하면, 색차 화소들을 위한 동작도 이와 유사하기 때문이다. 그러나, 이들이 발생되는 경로상의 차이는 있다는 점을 지적한다. 양호한 실시예에서, 휘도 화소들의 수직 여파는 4-탭 다상 필터내의 8 위상까지 사용할 수 있고, 색차 화소들의 여파는 상기 4-탭 다상 필터내의 16 위상까지 사용할 수 있다. 필드 또는 프레임의 개시부에서, VPF 제어기(702)는 수직 다상 필터를 설정하고, 제어 타이밍을 제 1 및 제 2 멀티플렉서 네트워크에 제공하고, 다상 필터 위상들을 위한 휘도 계수 RAM(704) 및 색차 계수 RAM(724)로부터 계수 세트를 선택하고, 프로세싱되는 필드 또는 프레임의 각 라인을 셈하는 계수기를 포함한다.Now, the operation of the VPF 282 is described. Vertical resampling is accomplished using two four-tap polyphase filters, one for the luminance pixels and one for the chrominance pixels. Only the operation of the filter for the luminance pixels is described below, since the operation for the chrominance pixels is similar. However, it is pointed out that there are differences in the paths through which they occur. In a preferred embodiment, the vertical filtering of luminance pixels can use up to eight phases in a four-tap polyphase filter, and the filtering of chrominance pixels can use up to sixteen phases in the four-tap polyphase filter. At the beginning of the field or frame, the VPF controller 702 sets up a vertical polyphase filter, provides control timing to the first and second multiplexer networks, luminance coefficient RAM 704 and chrominance coefficient RAM for polyphase filter phases. Select a coefficient set from 724 and include a counter that counts each line of the field or frame being processed.

MUX 및 다상 필터의 네트워크의 동작을 조정함에 부가하여, VPF 제어기(702)는 디코딩된 화상의 수직 위치의 정수 및 분수 부분의 트랙킹에 의해 디스플레이 라인의 트랙을 유지한다. 상기 정수 부분은 어떤 라인이 접근되어야 하는가를 표시하고, 상기 분수 부분은 어떤 필터가 사용되어야 하는가를 표시한다. 더욱이, 분수 부분이 16 미만의 위상들을 허용할 때 모듈로 N 산술의 사용은 9에서 5까지와 같은 정확한 다운 샘플링 비에 효과적일 수 있다. 상기 분수부는 언제나 사용되고 있는 모듈로 N 위상들 중의 하나를 트렁케이션(truncation)할 수 있다.In addition to adjusting the operation of the network of MUX and polyphase filters, the VPF controller 702 keeps track of the display lines by tracking integer and fractional portions of the vertical position of the decoded picture. The integer part indicates which line should be accessed, and the fraction part indicates which filter should be used. Moreover, the use of modulo N arithmetic can be effective for accurate down-sampling ratios such as 9 to 5 when the fractional portion allows for phases less than 16. The fraction can always truncate one of the N phases with the module being used.

도 7A에 도시된 바와 같이, 4개의 이미지 라인들로부터의 휘도 및 색차 화소 켤레들은 색차 경로 및 휘도 경로로 분리된다. 휘도 경로내의 16 비트 화소 켤레 데이터는 LP MUX들(706, 708, 710, 712)에 의해 8 비트 짝수(Y 짝수) 및 8 비트 홀수(Y 홀수) 포맷으로 더 멀티플렉스되고, 색차 경로내의 16 비트 화소 켤레는 CP MUX들(714, 716, 718, 720)에 의해 8 비트 CR 및 8 비트 CB 포맷으로 된다. 휘도 필터 MUX들(706, 708, 710, 712)은 필터 화소 경계가 다상 필터 동작에 중첩하도록 디코딩된 이미지의 경계의 수부(top) 및 기부(bottom)에서 라인의 화소 값들을 반복한다.As shown in Fig. 7A, luminance and chrominance pixel pairs from four image lines are separated into a chrominance path and a luminance path. 16-bit pixel conjugate data in the luminance path is further multiplexed in 8-bit even (Y even) and 8-bit odd (Y odd) formats by LP MUXs 706, 708, 710, and 712, and 16-bit in the chrominance path. The pixel pair is in 8-bit C R and 8-bit C B formats by CP MUXs 714, 716, 718, 720. Luminance filter MUXs 706, 708, 710, 712 repeat the pixel values of the line at the top and bottom of the decoded image's boundary such that the filter pixel boundary overlaps the polyphase filter operation.

그 후, 휘도 화소 정보 및 색차 화소 정보에 대응한 4 라인에 대한 화소 켤레는 각각의 다상 필터들을 통과한다. 필터 위상을 위한 화소들의 가중을 위해 곱셈기들(742, 744, 746, 748)에 의해 이용되는 계수들은 프로그램된 업 또는 다운 샘플링 인자에 기초하여 VPF 제어기(702)에 의해 선택된다. 덧셈기들(760, 762, 764)내에서 가중된 휘도 화소 정보를 결합한 후, 상기 값은 8 비트 값들을 제공하는 라운드 및 클립 프로세서(772)에 인가된다(왜냐하면, 계수 곱셈은 높은 정확도를 가지고 발생하기 때문이다). DEMUX 레지스터(774)는 보간된 8 비트 짝수(Y 짝수) 휘도 값에 대응한 제 1의 8 비트 값과 보간된 8 비트 홀수(Y 홀수) 값에 대응한 제 2의 8 비트 값을 수신하고, 16 비트로된 수직 여파된 휘도 화소 켤레를 제공한다. 레지스터(780)는 수직 여파된 화소를 휘도 및 색차 경로로 제공하고, 그들을 휘도 및 색차 화소 켤레를 수용하는 수직 여파된 32 비트 값들로서 제공한다.Thereafter, the pixel pairs for four lines corresponding to the luminance pixel information and the chrominance pixel information pass through respective polyphase filters. The coefficients used by the multipliers 742, 744, 746, 748 for weighting the pixels for the filter phase are selected by the VPF controller 702 based on the programmed up or down sampling factor. After combining the weighted luminance pixel information in the adders 760, 762, 764, the value is applied to a round and clip processor 772 providing 8 bit values (because coefficient multiplication occurs with high accuracy). Because). The DEMUX register 774 receives the first 8-bit value corresponding to the interpolated 8-bit even (Y even) luminance value and the second 8-bit value corresponding to the interpolated 8-bit odd (Y odd) value, It provides a pair of vertically filtered luminance pixels of 16 bits. Register 780 provides the vertically filtered pixels in the luminance and chrominance paths and provides them as vertically filtered 32 bit values that receive a pair of luminance and chrominance pixels.

도 7B는 라인들의 화소 샘플 공간 및 계수들간의 공간 관계를 도시한 도면이다. 휘도 및 색차 다상 필터 경로에 대한 계수들 각각은 각 계수 세트에 할당된 40 비트를 가지며, 각 위상에 대한 하나의 계수 세트가 있다. 상기 계수들은 512의 분모를 가진 분수들로 해석된다. 상기 계수들은 40 비트 워드로 좌에서 우로 위치된다(C0에서 C3까지). C0 및 C3는 사인된 10 비트 2의 보조 값들이고, C1 및 C2는 주어진 범위(예컨대, -256에서 767까지)를 가지는 10 비트인데, 이들 각각은 11 비트 2의 보조 값들까지 순차적으로 변환된다.7B is a diagram illustrating the spatial relationship between pixel sample space and coefficients of lines. Each of the coefficients for the luminance and chrominance polyphase filter path has 40 bits assigned to each coefficient set, and there is one coefficient set for each phase. The coefficients are interpreted as fractions with a denominator of 512. The coefficients are located from left to right in a 40-bit word (C0 to C3). C0 and C3 are signed 10 bit 2 auxiliary values, and C1 and C2 are 10 bits with a given range (e.g., -256 to 767), each of which is sequentially converted to 11 bit 2 auxiliary values.

도 7A는 선택적 휘도 계수 조정(782) 및 색차 계수 조정(784)를 포함한다. 상기 계수 조정(782, 784)은 C1 및 C2에 대한 11 비트 2의 보조 수를 유도하는데 사용된다. 만약 비트 8 및 9(최상위 비트)가 모두 1이라면, 11 비트 수의 사인은 1(음(negative))이고, 다른 경우에 상기 값은 양이다.7A includes an optional luminance coefficient adjustment 782 and a chrominance coefficient adjustment 784. The coefficient adjustments 782 and 784 are used to derive an auxiliary number of 11 bits 2 for C1 and C2. If bits 8 and 9 (most significant bit) are both 1, the sine of the 11 bit number is 1 (negative), otherwise the value is positive.

도 8A는 본 발명의 일 실시예의 HZPF(284)로서 사용되기에 적합한 양호한 필터를 도시한 고레벨 블록도이다. HZPF(284)는 VPD(282)로부터 (32 비트 데이터가 될 수 있는) 휘도 및 색차 화소 정보 켤레를 수신한다. HZPF(284)는 HZPF 제어기(802)와; CR 랫치(804)와; CB 랫치(806)와; Y 랫치(808)와; 선택 MUX(810)와; 수평 필터 계수 RAM(812)과; 곱셈 네트워크(814)와; 덧셈 네트워크(816)와; 라운드 및 클립 프로세서(818), DEMUX 레지스터(820) 및 출력 레지스터(822)를 포함한다.8A is a high level block diagram illustrating a preferred filter suitable for use as the HZPF 284 in one embodiment of the present invention. HZPF 284 receives a pair of luminance and chrominance pixel information (which may be 32-bit data) from VPD 282. HZPF 284 includes HZPF controller 802; A C R latch 804; C B latch 806; Y latch 808; Select MUX 810; Horizontal filter coefficient RAM 812; Multiplication network 814; An addition network 816; A round and clip processor 818, a DEMUX register 820, and an output register 822.

수평 재 샘플링은 8 탭, 8 위상 다상 필터를 채용함으로써 성취된다. 디스플레이 화소들의 발생은 디코딩 및 다운 샘플된 화상내의 수평 위치의 정수 및 분수부를 트랙킹함으로써 HZPF 제어기(802)에 의해 조정된다. 상기 정수부는 어떤 정수부가 접근될지를 표시하고, 상기 분수부는 어떤 필터 위상이 사용되어야 할지를 표시한다. 상기 분수부를 계산할 때 모듈로 N 산술을 사용하면 8 미만의 위상들이 사용되도록 할 수 있다. 예컨대, 만약 9에서 5까지와 같은 정확한 다운 샘플링 비가 사용된다면 상기 산술의 사용은 유용할 수 있다. 만약 상기 다운 샘플링 비가 단순 분수로 표시될 수 없다면, 상기 분수부는 N 위상들 중의 하나로 트렁케이션된다. 본 발명의 양호한 실시예의 HZPF(284)는 화소 켤레들을 여파하고, 짝수 화소 경계상 정열을 이용하여 4:2:0 포맷된 화상의 프로세싱을 촉진하고 CR 및 CB 화소들(컬러 화소들)과 함께 대응 Y 화소들의 유지를 촉진한다.Horizontal resampling is achieved by employing an 8 tap, 8 phase polyphase filter. The generation of display pixels is adjusted by the HZPF controller 802 by tracking the integer and fractional portions of the horizontal position in the decoded and down sampled picture. The water purification unit indicates which water purification unit is to be accessed, and the water fountain unit indicates which filter phase should be used. Modulo N arithmetic can be used to calculate the fractions so that less than 8 phases are used. For example, the use of arithmetic may be useful if an accurate down sampling ratio such as 9 to 5 is used. If the down sampling ratio cannot be represented by a simple fraction, the fraction is truncated to one of the N phases. The HZPF 284 of the preferred embodiment of the present invention filters pixel pairs, facilitates processing of a 4: 2: 0 formatted image using alignment on even pixel boundaries, and C R and C B pixels (color pixels). Together with the maintenance of the corresponding Y pixels.

도 8A를 참조하여 HZPF(284)의 동작을 기술한다. 수평 라인의 개시부에서, HZPF 제어기(802)는 수평 다상 필터를 리셋하고, 제어 타이밍을 제 1 및 제 2 멀티플렉서 네트워크에 제공하고, 각각의 다상 필터 위상을 위한 CR, CB 및 Y 필터 계수들에 대한 수평 계수 RAM(812)으로부터 계수 세트들을 선택하고, 프로세싱을 위해 CR, CB 및 Y 값들의 각 세트를 선택한다. 또한, 수평 위치가 라인의 좌측 또는 우측 근방에 있을 때, HZPF 제어기(802)는 8 탭 다상 필터에 의해 사용되도록 에지 화소 값들이 반복되거나 0으로 설정되게 한다. 상기 단순화에 의해 야기되는 이미지내의 임의의 왜곡은 디스플레이된 이미지의 오버스캔부(overscan portion)에 잠복되는 것이 보통이다.The operation of the HZPF 284 is described with reference to FIG. 8A. At the beginning of the horizontal line, the HZPF controller 802 resets the horizontal polyphase filter, provides control timing to the first and second multiplexer networks, and C R , C B and Y filter coefficients for each polyphase filter phase. Select coefficient sets from horizontal coefficient RAM 812 for each of them, and select each set of C R , C B and Y values for processing. Also, when the horizontal position is near the left or right side of the line, the HZPF controller 802 causes the edge pixel values to be repeated or set to zero for use by the 8 tap polyphase filter. Any distortion in the image caused by this simplification is usually hidden in the overscan portion of the displayed image.

VPD(282)로부터 수신된 화소 데이터는 Y, CR 및 CB 값들로 분리되고, 상기 값들은 여파를 위해 CR 랫치(804), CB 랫치(806) 및 Y 랫치(808)로 개별적으로 랫치된다. 그 후, HZPF 제어기(802)는 선택 MUX(810)으로의 적절한 신호에 의해 Y, CR 및 CB 값들을 선택한다. 양호한 실시예에서, CR 또는 CB 보다 많은 Y 값들이 있어, 필터는 Y 휘도 랫치(808)내의 추가적 랫치들을 사용한다. 동시에, HZPF 제어기(802)는, 수평 필터 계수 RAM(812)로의 제어 신호에 의해 프로그램된 업 샘플링 또는 다운 샘플링 값에 기초하여, 필터 위상과 CR 또는 CB 또는 Y 값들을 위한 적절한 필터 계수들을 선택한다.The pixel data received from the VPD 282 is separated into Y, C R and C B values, which are individually separated into the C R latch 804, C B latch 806 and Y latch 808 for filter purposes. It is latched. HZPF controller 802 then selects Y, C R and C B values by appropriate signal to select MUX 810. In a preferred embodiment, there are more Y values than C R or C B so that the filter uses additional latches within the Y luminance latch 808. At the same time, the HZPF controller 802 can generate the appropriate filter coefficients for the filter phase and the C R or C B or Y values based on the up sampling or down sampling value programmed by the control signal to the horizontal filter coefficient RAM 812. Choose.

그 후, 수평 필터 계수 RAM(812)은 입력 화소 값들과의 곱셈을 위한 곱셈 네트워크(814)의 각각의 소자들로 상기 계수들을 출력하여, 가중된 화소 값들을 발생하고, 상기 가중된 화소 값들은 덧셈 네트워크(816)에서 결합되어 수평 여파된 CR, CB 또는 Y 값을 제공한다.The horizontal filter coefficient RAM 812 then outputs the coefficients to respective elements of the multiplication network 814 for multiplication with the input pixel values, generating weighted pixel values, the weighted pixel values being Combined in addition network 816 to provide horizontally filtered C R , C B or Y values.

덧셈 네트워크(816)에서 상기 가중된 화소들을 결합한 후, 수평 여파된 화소 값은 8 비트 값들을 제공하는 라운드 및 클립 프로세서에 인가된다(왜냐하면, 계수 곱셈은 고주파수에서 발생하기 때문이다). DEMUX 레지스터(820)는 CR 값에 대응한 일련의 8 비트 값들과, 8 비트 짝수(Y 짝수) Y 값과, 8 비트 CB 값과, 8 비트 홀수(Y 홀수) Y 값에 대응한 8 비트 값을 수신하고; DEMUX 레지스터(820)는 상기 값들을 32 비트 값(Y 짝수, CR, CB 또는 Y 홀수)을 가진 수평 여파된 휘도 및 색차 화소 켤레로 멀티플렉스한다. 레지스터(822)는 상기 화소 켤레를 수직 및 수평 여파된 32 비트 화소 휘도 및 색차 화소 켤레로서 제공한다.After combining the weighted pixels in the addition network 816, the horizontal filtered pixel value is applied to a round and clip processor providing 8 bit values (since coefficient multiplication occurs at high frequencies). DEMUX register 820 includes a series of 8-bit values corresponding to a C R value, an 8-bit even (Y even) Y value, an 8-bit C B value, and an 8-bit odd (Y odd) Y value. Receive a bit value; DEMUX register 820 multiplexes these values into horizontally filtered luminance and chrominance pairs of 32-bit values (Y even, C R , C B or Y odd). Register 822 provides the pixel pairs as vertical and horizontal filtered 32-bit pixel luminance and chrominance pixel pairs.

도 8B는 수평 필터 계수 RAM(812)에 저장되고 수평 라인을 위한 다운 샘플된 이미지의 화소 샘플 값들과 다상 필터에서 사용되는 계수들간의 공간 관계를 도시한 도면이다. 양호한 실시예에 대한 계수들은 64 비트 워드로 좌에서 우까지(C0에서 C7까지) 위치된다. 계수들(C0, C1, C6 및 C7)은 사인된 7 비트 2의 보조 값들이고, C2 및 C5는 사인된 8 비트 2의 보조이고, C3 및 C4는 사인된 10 비트 2의 보조 값들이며, -256에서 767까지의 범위를 표시한다. C3 및 C4는 11 비트 2의 보조 값들을 유도하도록 조정된다. 만약 비트 8 및 비트 9(최상위 비트)가 1이라면, 상기 11 비트 값의 사인은 1(음)이고, 여타의 경우에 상기 값은 0(양)이다. 모든 계수들은 512의 분모를 가진 분수들로 해석될 수 있다.FIG. 8B shows the spatial relationship between pixel sample values of the down sampled image stored in the horizontal filter coefficient RAM 812 and the coefficients used in the polyphase filter. The coefficients for the preferred embodiment are located from left to right (C0 to C7) in 64-bit words. The coefficients C0, C1, C6 and C7 are auxiliary values of signed 7 bit 2, C2 and C5 are auxiliary signals of signed 8 bit 2, C3 and C4 are auxiliary values of signed 10 bit 2,- Display the range from 256 to 767. C3 and C4 are adjusted to derive auxiliary values of 11 bits 2. If bit 8 and bit 9 (most significant bit) are 1, the sine of the 11 bit value is 1 (negative) and in other cases the value is 0 (positive). All coefficients can be interpreted as fractions with a denominator of 512.

표 13은 표시된 포맷 변환을 수행하는 본 발명의 양호한 실시예를 위한 VPF(282) 및 HZPF(284)에 대한 계수를 열거한다.Table 13 lists the coefficients for VPF 282 and HZPF 284 for the preferred embodiment of the present invention performing the indicated format conversion.

[표 13]TABLE 13

디스플레이 변환 시스템의 양호한 실시예에서, 수평 변환은 도 2B의 DCT 영역 필터(216)와 다운 샘플링 프로세서(232)에 의해 일부 수행된다. 이로써, 상기 변환이 1125I 또는 750P에 따라 동일한 수의 수평 화소들을 제공한다. 따라서, HZPF(284)는 상기 신호들을 업 샘플하여 라인당 720개의 활성 화소들을 제공하고 525P 또는 525I 신호들을 비변조 통과시키는데, 상기 신호들은 표 1 및 2에 개시된 바와 같이 라인당 720개의 활성 화소들을 가지며, 수평 필터의 계수의 값들은 480P/480I/525P/525I로의 변환에 대해 변화되지 않는다. 상기 수평 필터 계수들은 표 14에 주어졌다.In a preferred embodiment of the display conversion system, horizontal conversion is performed in part by the DCT region filter 216 and down sampling processor 232 of FIG. 2B. As such, the conversion provides the same number of horizontal pixels in accordance with 1125I or 750P. Thus, HZPF 284 upsamples the signals to provide 720 active pixels per line and unmodulates the 525P or 525I signals, which signals 720 active pixels per line as shown in Tables 1 and 2. The values of the coefficients of the horizontal filter do not change for conversion to 480P / 480I / 525P / 525I. The horizontal filter coefficients are given in Table 14.

[표 14]TABLE 14

또한, HZPF(284)의 프로그램 가능 능력은 비선형 수평 주사를 허용한다. 도 9A는 본 발명에 채용될 수 있는 재샘플링 비 프로파일을 도시한 도면이다. 도시된 바와 같이, HZPF(284)의 재샘플링 비는 수평 주사선을 따라 변할 수 있고, 선형적으로 변할 수 있다. 도 9A의 양호한 실시예를 참조하면, 상기 주사선의 시작부에서, 상기 재샘플링 비는 상기 주사선의 제 1 점까지 선형적으로 증가(또는 감소)하며, 상기 재샘플링 비는 제 2 점에 도달할 때까지 일정하게 유지되며, 상기 제 2 점에서부터 상기 재샘플링 비는 선형적으로 감소한다. 도 9A를 참조하면, h 초기 재샘플링 비는 화상에 대한 초기 재샘플링 비이며, h 재샘플링 비 변화는 재샘플링 비의 제 1 화소당 변화이며, -h 재샘플링 비 변화는 재샘플링 비의 제 2 화소당 변화이며, h 재샘플링 비 유지 열(h resampling ratio hold column) 및 h 재샘플링 비 반전 열(h resampling ratio hold column)은 재샘플링 비가 일정하게 유지되는 디스플레이 열 화소 점들이다. 값 디스플레이 폭(value display width)은 화소 라인의 마지막 화소(열)이다.In addition, the programmable capability of the HZPF 284 allows for nonlinear horizontal scanning. 9A illustrates a resampling ratio profile that may be employed in the present invention. As shown, the resampling ratio of HZPF 284 may vary along a horizontal scan line and may vary linearly. Referring to the preferred embodiment of FIG. 9A, at the beginning of the scan line, the resampling ratio linearly increases (or decreases) to the first point of the scan line, and the resampling ratio will reach a second point. It remains constant until the resampling ratio decreases linearly from the second point. 9A, h initial resampling ratio is the initial resampling ratio for the image, h resampling ratio change is the change per first pixel of the resampling ratio, and -h resampling ratio change is The change per two pixels, h resampling ratio hold column and h resampling ratio hold column are display column pixel points where the resampling ratio is kept constant. The value display width is the last pixel (column) of the pixel line.

도 9B 및 9C는 4:3 화상을 16:9 디스플레이로 사상(mapping)하는 비 프로파일을 도시한다. 상기 비들은 입력 값 대 출력 값으로 규정되며, 따라서, 4/3는 4를 3으로 다운 샘플링한 것이고, 1/3은 1을 3으로 업 샘플링한 것이다. 도 9B 및 9C에 도시된 비 프로파일은 720개의 활성 화소들을 가진 입력 화상 이미지를 720개의 활성 화상들을 가진 디스플레이로 사상한다. 예컨대, 도 9B에서 4:3 종횡비 디스플레이의 16×9 종횡비 디스플레이로의 사상은 4/3 다운 샘플링을 이용하나, 상기 디스플레이의 모든 샘플들을 채우려면 수평 라인상 1/1 평균이 필요하다. 따라서, 도 9B의 프로파일은 디스플레이 화소들 240 및 480간의 중심내에 정확한 종횡비를 가지며, 측면의 값들은 업 샘플되어 상기 디스플레이를 채운다. 도 9D 및 9E는 16×9 디스플레이 이미지로부터 4:3 디스플레이로의 크기 변경에 사용되는 프로파일을 도시하며, 이는 도 9B 및 9C에 도시된 프로파일의 역이다.9B and 9C show ratio profiles for mapping a 4: 3 picture to a 16: 9 display. The ratios are defined as input values to output values, so 4/3 is downsampled 4 to 3 and 1/3 is upsampled 1 to 3. The non-profiles shown in Figures 9B and 9C map an input picture image with 720 active pixels to a display with 720 active pictures. For example, the mapping of a 4: 3 aspect ratio display to a 16x9 aspect ratio display in FIG. 9B uses 4/3 downsampling, but a 1/1 average on the horizontal line is needed to fill all the samples of the display. Thus, the profile of FIG. 9B has an accurate aspect ratio in the center between display pixels 240 and 480, with the values of the sides being upsampled to fill the display. 9D and 9E show the profile used for resizing from a 16x9 display image to a 4: 3 display, which is the inverse of the profile shown in FIGS. 9B and 9C.

본 발명의 양호한 실시예에 따른 재샘플링 비 프로파일들을 사용한 효과는 도 10에 도시되어 있다.16×9 또는 4×3 종횡비를 가진 비디오 전송 포맷은 16×9 또는 4×3으로 디스플레이될 수 있으나, 원래의 비디오 화상은 상기 디스플레이 영역에 맞도록 적응될 수 있다. 따라서, 상기 원래의 비디오 화상은 전부(full), 줌(zoom), 스퀴즈(squeeze) 또는 가변(variable) 팽창(expand)/수축(shrink)이 될 수 있다.The effect of using resampling ratio profiles according to a preferred embodiment of the present invention is shown in FIG. 10. A video transmission format having a 16x9 or 4x3 aspect ratio may be displayed in 16x9 or 4x3, The original video picture can be adapted to fit the display area. Thus, the original video picture may be full, zoom, squeeze or variable expand / shrink.

상기 시스템은 사용자가 수신된 비디오 신호의 종횡비와 디스플레이 장치의 종횡비간의 소정의 사상을 선택하게 할 수 있다(상기 종횡비들이 양립할 수 없는 경우). 상술한 바와 같이, 제어 프로세서(207)(도 2A)에 도시됨)는 파져(parser) (209)로부터 수신된 이미지의 종횡비를 수신한다. 제어 프로세서(207)는 또한 상기 시스템의 출력 신호를 수신하도록 연결되는 디스플레이 장치(도시되지 않음)의 종횡비를 결정한다. 만약, 예컨대, 상기 디스플레이 장치가 S-비디오 출력(S-video output)(153) 또는 복합 비디오 출력(composite video output)(154)(양자 모두는 도 1A에 도시됨)에 연결된다면, 디스플레이 장치의 종횡비는 4×3일 것이다. 그러나, 만약, 상기 디스플레이 장치가 주 비디오 출력 포트(primary video output port)(146)에 연결된다면, 상기 종횡비는 4×3 또는 16×9가 될 것이다.The system may allow the user to select a predetermined mapping between the aspect ratio of the received video signal and the aspect ratio of the display device (if the aspect ratios are not compatible). As described above, control processor 207 (shown in FIG. 2A) receives the aspect ratio of the image received from parser 209. The control processor 207 also determines the aspect ratio of the display device (not shown) connected to receive the output signal of the system. For example, if the display device is connected to an S-video output 153 or a composite video output 154 (both of which are shown in FIG. 1A), The aspect ratio will be 4 × 3. However, if the display device is connected to a primary video output port 146, the aspect ratio will be 4x3 or 16x9.

본 발명의 양호한 실시예에서, 사용자는 디스플레이 장치의 종횡비를 원격 제어 IR 수신기(remote control IR receiver)(208)(도 2A)를 통해 발생될 수 있는 스타트-업 프로세스(start-up process)의 일부로서 특정한다. 상기 스타트-업 프로세스는 비디오 디코더 시스템이 주 출력 포트를 포함하고 상기 시스템이 상기 주 출력 포트에 연결되는 디스플레이 장치가 있다고 감지하는 경우에만 실행된다. 상기 스타트-업 프로세스는 디스플레이 장치의 디스플레이 포맷(즉, 종횡비 및 최대 비디오 해상도)를 몇가지 방식으로 결정한다. 먼저, 상기 프로세스는 사용자에게 가능한 디스플레이 장치들의 메뉴를 제공할 수 있으며, 예컨대, 그 각각은 제작자 이름 및 모델 번호에 의해 표시된다. 그 후, 사용자는 원격 제어 장치를 사용하여 상기 디스플레이 장치들 중의 하나를 선택한다. 디코더 시스템은 디스플레이 타입의 갱신된 리스트는 물론 제어기(207)의 프로그래밍의 다른 갱신된 리스트를 수신하도록 중심 위치(central location)에 주기적으로 접촉하는 모뎀과 함께 배치될 수 있다. 선택적으로, 상기 타입의 정보는 수신된 ATSC 비디오 신호의 사용자 데이터에 부호화될 수 있고, 상기 디코더는 상기 정보에 접근하여 그 내부 프로그래밍을 갱신하도록 프로그램될 수 있다.In a preferred embodiment of the present invention, the user can select the aspect ratio of the display device as part of a start-up process that can be generated via a remote control IR receiver 208 (FIG. 2A). It is specified as. The start-up process is executed only when the video decoder system detects that there is a display device including a main output port and the system is connected to the main output port. The start-up process determines the display format (ie, aspect ratio and maximum video resolution) of the display device in several ways. First, the process may present a menu of possible display devices to the user, for example each of which is indicated by the manufacturer name and model number. The user then selects one of the display devices using the remote control device. The decoder system may be arranged with a modem that periodically contacts the central location to receive an updated list of display types as well as other updated lists of programming of the controller 207. Optionally, the type of information can be encoded in user data of the received ATSC video signal and the decoder can be programmed to access the information and update its internal programming.

대안적으로, 디스플레이 장치의 종횡비를 결정하기 위해, 사용자에게 4×3 직사각형 및 16×9 직사각형이 제공되며, 사용자가 어떤 것이 디스플레이 장치에 보다 적합한지 표시하도록 요구받는다. 또 다른 선택 예로서, 사용자는 두 개의 메뉴 선택을 요구받는데, 하나는 가능한 비디오 디스플레이 해상도들의 열거이고, 다른 하나는 가능한 종횡비들의 열거이다.Alternatively, to determine the aspect ratio of the display device, the user is provided with 4 × 3 rectangles and 16 × 9 rectangles, and the user is required to indicate which is more suitable for the display device. As another example of selection, the user is required to select two menus, one of which is an enumeration of possible video display resolutions, and the other of which is an enumeration of possible aspect ratios.

또다른 선택 예로서, 제어 프로세서(207)는 온 스크린 디스플레이 발생기를 프로그램하여 (예컨대, 원과 같은) 형태를 몇 가지 다른 신호 해상도들(예컨대, 525I, 525P, 750P, 1180I 및 1180P) 및 몇 가지 다른 종횡비들(예컨대, 4×3 및 16×9)로 발생하며, 텍스트(text)는 시청자에게 최선의 원이 디스플레이될 때 원격 제어 장치(도시되지 않음)상의 버튼을 누를 것을 요구할 수 있다. 상기 시스템은 수 분 동안 주 출력에서 상기 이미지들 각각을 순차적으로 제공하여 원격 제어 장치상의 버튼의 누름과 특정 이미지의 디스플레이를 상호 연관시킬 수 있다. 이로써, 디스플레이 장치를 위한 이미지 해상도 및 종횡비에 관한 필요 정보가 제공된다.As another alternative, the control processor 207 may program the on-screen display generator to form (eg, circles) some other signal resolutions (eg, 525I, 525P, 750P, 1180I and 1180P) and some With different aspect ratios (e.g., 4x3 and 16x9), the text may require the viewer to press a button on the remote control (not shown) when the best circle is displayed. The system may provide each of the images sequentially at the main output for several minutes to correlate the display of a particular image with the press of a button on a remote control device. This provides the necessary information regarding the image resolution and aspect ratio for the display device.

디스플레이 장치의 디스플레이 포맷에 관한 정보와 함께, 상기 시스템은 디스플레이 장치상의 가능한 최선의 프레젠테이션(presentation)을 위해 수신된 비디오 신호를 자동적으로 적응시킬 수 있다. 예컨대, 수신된 비디오 신호의 종횡비 및 디스플레이 장치의 종횡비 간의 오정합(mismatch)이 있다면, 이는 원격 제어 장치(도시되지 않음)를 사용한 명령의 발생에 의해 시청자에게 표시되거나, 시청자들이 상기 두 종횡비들 간의 가능한 모든 변환들을 순차적으로 본 후(도 9A 내지 9E 및 도 10) 상기 변환들 중의 하나가 사용되도록 선택하게 할 수 있다. 이는 수신된 신호의 종횡비가 16×9이고 디스플레이 장치의 종횡비가 4×3일 때는 물론 수신된 비디오 신호의 종횡비가 4×3이고 디스플레이 장치의 종횡비가 16×9일 때에 적용된다.With information regarding the display format of the display device, the system can automatically adapt the received video signal for the best possible presentation on the display device. For example, if there is a mismatch between the aspect ratio of the received video signal and the aspect ratio of the display device, it may be displayed to the viewer by the generation of a command using a remote control device (not shown), or the viewer may have a relationship between the two aspect ratios. After seeing all possible transforms sequentially (FIGS. 9A-9E and 10), one can choose to use one of the transforms. This applies when the aspect ratio of the received signal is 16x9 and the aspect ratio of the display device is 4x3, as well as when the aspect ratio of the received video signal is 4x3 and the aspect ratio of the display device is 16x9.

최종의 선택 예로서, 시스템은 디스플레이 포맷을 결정하기 위해 디스플레이 장치에 의해 제공된 정보를 감지하도록 배치될 수 있다. 예컨대, 양방향 경로는 디스플레이 장치내의 디지털 레지스터내의 데이터가 판독될 수 있는 디코더 시스템의 출력 신호 라인들(Y, CR, CB) 중의 하나를 통해 제공될 수 있다. 상기 레지스터내의 데이터는 제작자 및 모델 번호나 디스플레이 장치의 최대 해상도 및 종횡비를 표시할 수 있다. 선택적으로, 디스플레이 장치는 직류(DC) 신호를 1 이상의 상기 라인들에 인가할 수 있으며, 상기 신호는 디코더 장치에 의해 디스플레이 장치의 디스플레이 포맷의 표시로서 감지될 수 있다.As a final optional example, the system may be arranged to sense the information provided by the display device to determine the display format. For example, the bidirectional path may be provided through one of the output signal lines Y, C R , C B of the decoder system from which data in a digital register in the display device can be read. The data in the register can indicate the manufacturer and model number or the maximum resolution and aspect ratio of the display device. Optionally, the display device may apply a direct current (DC) signal to one or more of the lines, which may be sensed by the decoder device as an indication of the display format of the display device.

몇 가지 다른 디스플레이 포맷들을 가진 비디오 신호들을 디스플레이할 수 있는 다중 동기 모니터(multi-sync monitor)는 비디오 디코더의 주 출력 포트에 접속될 수 있다. 이 경우, 제어 프로세서(207)에 의해 복원된 디스플레이 타입 정보의 비디오 해상도 성분은 디스플레이가 다중 동기 장치라는 표시를 포함함으로써, 수신된 비디오 신호의 종횡비가 디스플레이 장치의 종횡비와 일치하지 않을 때, 발생된 유일한 포맷 변환은 도 9A 내지 9E 및 도 10에 도시된 종횡비 적응인 것이 바람직하다.A multi-sync monitor capable of displaying video signals with several different display formats can be connected to the main output port of the video decoder. In this case, the video resolution component of the display type information reconstructed by the control processor 207 includes an indication that the display is a multi-sync device, so that when the aspect ratio of the received video signal does not match the aspect ratio of the display device, The only format conversion is preferably the aspect ratio adaptation shown in FIGS. 9A-9E and 10.

본 발명의 양호한 실시예가 상술되고 도시되었지만, 상기 실시예들은 단지 예시로서 제공되었다는 것을 알아야 한다. 당해 기술 분야의 통상의 지식을 가진 자는 본 발명의 정신으로부터 벗어남 없이 수 많은 변형례들, 대체례들, 치환례들을 고안할 수 있다. 따라서, 본원의 청구항들은 상기 모든 변형례들이 본 발명의 범위에 포함되도록 기재되어 있다.While the preferred embodiments of the present invention have been described and illustrated above, it should be understood that the above embodiments have been provided by way of example only. Those skilled in the art can devise numerous variations, alternatives, and substitutions without departing from the spirit of the invention. Accordingly, the claims herein are written such that all such modifications fall within the scope of the present invention.

Claims (8)

단일의 미리 정해진 비디오 디스플레이 포맷으로 디스플레이하기에 적합한 디코딩된 비디오 신호를 생성하기 위해 제 1 시간 간격 동안 제 1 비디오 디스플레이 포맷을 가지고 제 2 시간 간격 동안 제 2 비디오 디스플레이 포맷을 가진 베이스밴드 부호화된 디지털 비디오 신호를 디코딩하고 재포맷하는 디지털 비디오 신호 변환 시스템으로서, 상기 제 1 비디오 디스플레이 포맷은 상기 제 2 비디오 디스플레이 포맷과 다르고 상기 제 1 및 제 2 비데오 디스플레이 포맷들은 상기 미리 정해진 비디오 디스플레이 포맷과 다르며, 각 비디오 디스플레이 포맷은 종횡비 및 해상도를 가지는, 상기 디지털 비디오 신호 변환 시스템에 있어서,Baseband coded digital video with a first video display format for a first time interval and a second video display format for a second time interval to produce a decoded video signal suitable for display in a single predetermined video display format. A digital video signal conversion system for decoding and reformatting a signal, wherein the first video display format is different from the second video display format and the first and second video display formats are different from the predetermined video display format, each video In the digital video signal conversion system, the display format has an aspect ratio and a resolution. 상기 부호화된 디지털 비디오 신호를 수신하도록 연결된 입력 단자와,An input terminal connected to receive the encoded digital video signal, 상기 부호화된 디지털 비디오 신호로부터 상기 제 1 시간 간격 동안 상기 제 1 비디오 포맷을 식별하는 데이터를 추출하고 상기 제 2 시간 간격 동안 상기 제 2 비디오 디스프레이 포맷을 식별하는 데이터를 추출하는 데이터 검색 회로와,A data retrieval circuit for extracting data identifying said first video format during said first time interval from said encoded digital video signal and extracting data identifying said second video display format during said second time interval; 상기 단일의 미리 정해진 비디오 디스플레이 포맷에 따라 출력 비디오 신호를 생성하기 위해 상기 부호화된 디지털 비디오 신호를 복호화하는 신호 처리 회로를 포함하는 디지털 비디오 신호 디코더로서, 상기 신호 처리 회로는 상기 제 1 및 제 2 시간 간격들 동안 제 1 및 제 2 차단 주파수들을 각각 가진 주파수 영역 필터, 및 상기 제 1 시간 간격 동안에는 제 1 다운 변환 처리에 따라 그리고 상기 제 2 시간 간격 동안에는 제 2 다운 변환 처리에 따라 상기 필터링된 디지털 비디오 신호를 처리하기 위한 다운 샘플링 프로세서를 구비하는, 상기 디지털 비디오 신호 디코더; 및A digital video signal decoder comprising signal processing circuitry for decoding the encoded digital video signal to produce an output video signal in accordance with the single predetermined video display format, wherein the signal processing circuit is configured to perform the first and second time periods. The filtered digital video according to a first down conversion process during the first time interval and a second down conversion process during the second time interval, and a frequency domain filter having first and second cutoff frequencies, respectively, during the intervals. A digital video signal decoder having a down sampling processor for processing a signal; And 상기 추출된 제 1 및 제 2 비디오 디스플레이 포맷들을 식별하는 상기 식별 데이터를 수신하도록 연결된 제어기를 포함하고, 상기 제어기는 상기 디코더로 하여금 상기 추출된 제 1 및 제 2 디스플레이 포맷들에 대응하는 상기 부호화된 디지털 비디오 신호를 상기 제 1 및 제 2 시간 간격들 동안 상기 미리 정해진 비디오 디스플레이 포맷을 가지는 상기 출력 비디오 신호로 변환하게 하는 상기 디지털 비디오 신호 디코더를 위한 제어 신호들을 생성하는, 디지털 비디오 신호 변환 시스템.A controller coupled to receive the identification data identifying the extracted first and second video display formats, the controller causing the decoder to cause the encoded to correspond to the extracted first and second display formats. Generating control signals for the digital video signal decoder to convert a digital video signal to the output video signal having the predetermined video display format during the first and second time intervals. 제 1 항에 있어서,The method of claim 1, 상기 디지털 비디오 신호 디코더는 상기 미리 정해진 비디오 디스플레이 포맷을 가진 상기 출력 비디오 신호를 발생하도록 상기 디지털 비디오 디코더에 의해 제공되는 상기 디코딩된 디지털 비디오 신호를 재샘플하도록 상기 제어기에 의해 제공되는 포맷 변환 제어 신호에 응답하는 프로그램 가능한 공간 필터를 포함하는, 디지털 비디오 신호 변환 시스템.The digital video signal decoder is coupled to a format conversion control signal provided by the controller to resample the decoded digital video signal provided by the digital video decoder to generate the output video signal having the predetermined video display format. And a responsive programmable spatial filter. 제 2 항에 있어서,The method of claim 2, 상기 디지털 비디오 신호는 상기 부호화된 디지털 비디오 신호가 복수의 패킷화된 기본 스트림(PES) 패킷들에 수용되는 동화상 전문가 그룹(MPEG)에 의해 특정된 부호화 기술을 사용하여 부호화되고, 각 PES 패킷은 헤더를 가지며, 상기 디지털 비디오 신호 디코더의 상기 데이터 검색 회로는 상기 제 1 및 제 2 시간 간격들 동안 각각 수신된 각각의 PES 패킷들의 헤더들로부터 상기 제 1 및 제 2 비디오 디스플레이 포맷들을 식별하는 데이터를 추출하는 수단을 포함하는, 디지털 비디오 신호 변환 시스템.The digital video signal is encoded using an encoding technique specified by a moving picture expert group (MPEG) in which the encoded digital video signal is received in a plurality of packetized elementary stream (PES) packets, each PES packet being a header. Wherein the data retrieval circuitry of the digital video signal decoder extracts data identifying the first and second video display formats from headers of respective PES packets respectively received during the first and second time intervals. And means for performing digital video signal conversion. 제 2 항에 있어서,The method of claim 2, 상기 디지털 비디오 신호는 상기 부호화된 디지털 비디오 신호가 시퀀스 레코드들을 포함하는 디지털 비트스트림내에 수용되는 동화상 전문가 그룹(MPEG)에 의해 특정된 부호화 기술을 사용하여 부호화되고, 각 시퀀스 레코드는 헤더를 가지며, 상기 디지털 비디오 신호 디코더의 상기 데이터 검색 회로는 상기 제 1 및 제 2 시간 간격들 동안 각각 수신된 각각의 시퀀스 레코드들로부터 상기 제 1 및 제 2 비디오 디스플레이 포맷들을 식별하는 데이터를 추출하는 수단을 포함하는, 디지털 비디오 신호 변환 시스템.The digital video signal is encoded using an encoding technique specified by a Moving Picture Experts Group (MPEG) in which the encoded digital video signal is contained in a digital bitstream containing sequence records, each sequence record having a header, and The data retrieval circuit of the digital video signal decoder includes means for extracting data identifying the first and second video display formats from respective sequence records received during the first and second time intervals, respectively; Digital video signal conversion system. 제 1 항에 있어서,The method of claim 1, 사용자가 상기 단일의 미리 정해진 비디오 디스플레이 포맷을 식별하는 데이터를 입력할 수 있는 사용자 입력 장치를 더 포함하는, 디지털 비디오 신호 변환 시스템.And a user input device capable of a user inputting data identifying said single predetermined video display format. 제 1 항에 있어서,The method of claim 1, 상기 단일의 미리 정해진 비디오 디스플레이 포맷을 갖는 비디오 디스플레이 장치를 더 포함하고, 상기 비디오 디스플레이 장치는 식별 신호를 유지하는 레지스터를 포함하며, 상기 제어기는 상기 디스플레이 장치에 연결되어 상기 식별 신호를 판독하고, 상기 식별 신호를 사용하여 상기 미리 정해진 비디오 디스플레이 포맷을 식별하는 데이터를 발생하는, 디지털 비디오 신호 변환 시스템.And further comprising a video display device having said single predetermined video display format, said video display device including a register holding said identification signal, said controller being coupled to said display device to read said identification signal, and And use the identification signal to generate data identifying the predetermined video display format. 제 1 항에 있어서, 상기 단일의 미리 정해진 비디오 디스플레이 포맷을 갖는 비디오 디스플레이 장치를 더 포함하고, 상기 디지털 비디오 신호 디코더는,The video display device of claim 1, further comprising a video display device having the single predetermined video display format, wherein the digital video signal decoder comprises: 상기 비디오 디코더의 신호 처리 회로의 출력 신호를 아날로그 신호로 변환하는 아날로그-디지털 변환 수단과,Analog-digital conversion means for converting an output signal of the signal processing circuit of the video decoder into an analog signal; 상기 아날로그 신호를 상기 디스플레이 장치에 인가하는 전송 수단과,Transmission means for applying the analog signal to the display device; 상기 제어기에 연결되어, 상기 디스플레이 장치에 의해 상기 전송 수단에 인가되는 직류(DC) 전위를 감지하는 수단을 더 포함하며,Means for sensing a direct current (DC) potential connected to said controller and applied to said transmission means by said display device, 상기 제어기는 상기 감지 수단에 응답하여 상기 디지털 비디오 신호 디코더에 의해 사용될 상기 단일의 미리 정해진 비디오 디스플레이 포맷을 식별하는, 디지털 비디오 신호 변환 시스템.The controller identifies the single predetermined video display format to be used by the digital video signal decoder in response to the sensing means. 제 5 항에 있어서,The method of claim 5, 상기 비디오 신호 디코더는 각각 상이한 상기 복수의 비디오 디스플레이 포맷들에 각기 대응하는 복수의 출력 비디오 신호들을 생성하도록 프로그램될 수 있는 온 스크린 디스플레이 프로세서를 더 포함하고,The video signal decoder further comprises an on screen display processor that can be programmed to generate a plurality of output video signals respectively corresponding to the plurality of different video display formats, respectively; 상기 제어기는, 상기 사용자 입력 장치를 통해 제공된 제 1 사용자 제어 신호에 응답하여, 상기 온 스크린 디스플레이 장치로 하여금 각각 상이한 비디오 디스플레이 포맷들을 가지는 비디오 신호들을 순차적으로 제공하게 하고, 상기 사용자 입력 장치를 통해 제공된 제 2 선택 신호에 응답하여, 상기 각각의 비디오 디스플레이 포맷들 중 하나를 상기 미리 정해진 비디오 디스플레이 포맷으로서 규정하는 수단을 포함하는, 디지털 비디오 신호 변환 시스템.The controller, in response to the first user control signal provided through the user input device, causes the on-screen display device to sequentially provide video signals each having different video display formats, and provided through the user input device. Means for defining, in response to a second selection signal, one of the respective video display formats as the predetermined video display format.
KR1019980709105A 1997-03-12 1998-03-11 HDTV Down Conversion System KR100518477B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019980709105A KR100518477B1 (en) 1997-03-12 1998-03-11 HDTV Down Conversion System

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US60/040,517 1997-03-12
KR1019980709105A KR100518477B1 (en) 1997-03-12 1998-03-11 HDTV Down Conversion System

Publications (2)

Publication Number Publication Date
KR20000010956A KR20000010956A (en) 2000-02-25
KR100518477B1 true KR100518477B1 (en) 2006-03-24

Family

ID=41739722

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019980709105A KR100518477B1 (en) 1997-03-12 1998-03-11 HDTV Down Conversion System

Country Status (1)

Country Link
KR (1) KR100518477B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7084923B2 (en) * 2003-10-28 2006-08-01 Clairvoyante, Inc Display system having improved multiple modes for displaying image data from multiple input source formats

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08205161A (en) * 1994-10-11 1996-08-09 Hitachi Ltd Digital video decoder for decoding digital high-definition and/or digital standard-definition television signal

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08205161A (en) * 1994-10-11 1996-08-09 Hitachi Ltd Digital video decoder for decoding digital high-definition and/or digital standard-definition television signal

Also Published As

Publication number Publication date
KR20000010956A (en) 2000-02-25

Similar Documents

Publication Publication Date Title
US6788347B1 (en) HDTV downconversion system
US6539120B1 (en) MPEG decoder providing multiple standard output signals
JP4346114B2 (en) MPEG decoder providing multiple standard output signals
US6175592B1 (en) Frequency domain filtering for down conversion of a DCT encoded picture
WO1998041011A9 (en) Hdtv downconversion system
US6249549B1 (en) Down conversion system using a pre-decimation filter
WO1998041012A9 (en) Mpeg decoder providing multiple standard output signals
US6487249B2 (en) Efficient down conversion system for 2:1 decimation
KR100370076B1 (en) video decoder with down conversion function and method of decoding a video signal
US6618443B1 (en) Upsampling filter for a down conversion system
KR100518477B1 (en) HDTV Down Conversion System
KR100526905B1 (en) MPEG decoder provides multiple standard output signals
JP4051799B2 (en) Image decoding apparatus and image decoding method
KR100563015B1 (en) Upsampling Filter and Half-Pixel Generator for HDTV Downconversion System

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee