KR100647202B1 - Low noise encoding and decoding method - Google Patents

Low noise encoding and decoding method Download PDF

Info

Publication number
KR100647202B1
KR100647202B1 KR1020067001729A KR20067001729A KR100647202B1 KR 100647202 B1 KR100647202 B1 KR 100647202B1 KR 1020067001729 A KR1020067001729 A KR 1020067001729A KR 20067001729 A KR20067001729 A KR 20067001729A KR 100647202 B1 KR100647202 B1 KR 100647202B1
Authority
KR
South Korea
Prior art keywords
signal
filtering
resolution
image
produce
Prior art date
Application number
KR1020067001729A
Other languages
Korean (ko)
Other versions
KR20060015784A (en
Inventor
하오핑 유
데이비드 노웰 맥넬리
빌리 웨슬리 쥬니어 베이어스
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Priority to KR1020067001729A priority Critical patent/KR100647202B1/en
Publication of KR20060015784A publication Critical patent/KR20060015784A/en
Application granted granted Critical
Publication of KR100647202B1 publication Critical patent/KR100647202B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level

Abstract

적응 디지털 영상 처리기(22)는 MPEG2 엔코더(24) 보다 앞서 위치된다. 처리기는 방송이나 저장을 위한 고선명(영상 당 1920×1080 픽셀) 비디오 신호를 수신하고, 상기 신호를 적합하게 저역-통과 필터링한다. 상기 신호는 엔코딩 결함과 관련 잡음을 제거하기 위해 저역-통과 2-차원 필터링(223) 된다. 다음으로 비디오 신호는 더 낮은 해상도 하이브리드 신호(영상 당 1280×1080 픽셀)를 생성하기 위해 수평적으로 다운-샘플링 된다(226). 수신기는 하이브리드 신호를 디코드하고 압축해제한다. 하이브리드 신호는 소프트웨어 변경을 갖는 현존하는 하드웨어 및 소프트웨어를 이용하여 최초의 해상도로 업-샘플링된다.Adaptive digital image processor 22 is located before MPEG2 encoder 24. The processor receives a high definition (1920x1080 pixels per image) video signal for broadcast or storage and appropriately low-pass filters the signal. The signal is low-pass two-dimensional filtered 223 to remove encoding defects and associated noise. The video signal is then horizontally down-sampled 226 to produce a lower resolution hybrid signal (1280 × 1080 pixels per image). The receiver decodes and decompresses the hybrid signal. Hybrid signals are up-sampled to original resolution using existing hardware and software with software modifications.

Description

저잡음 엔코딩 및 디코딩 방법{LOW NOISE ENCODING AND DECODING METHOD}LOW NOISE ENCODING AND DECODING METHOD}

도 1은 본 발명에 따른 비디오 압축기의 한 구성을 나타내는 도면.1 shows a configuration of a video compressor according to the present invention.

도 2는 도 1의 유닛(22)에 대한 상세도.FIG. 2 is a detailed view of the unit 22 of FIG. 1.

도 3은 유닛(22)에 포함되는 적응 필터에서 하나의 가능한 응답을 나타내는 도면.3 shows one possible response in the adaptive filter included in the unit 22.

도 4는 본 발명을 사용하는 예시적인 전송 시스템의 흐름도.4 is a flow diagram of an exemplary transmission system using the present invention.

도 5는 본 발명을 사용하는 예시적인 수신 시스템의 흐름도.5 is a flow diagram of an exemplary receiving system using the present invention.

본 발명은 디지털 비디오 엔코더의 대역폭 요구조건을 감소시키기 위한 영상 압축에 관한 것이다.The present invention relates to image compression for reducing bandwidth requirements of digital video encoders.

미국연방통신위원회(FCC : United States Federal Communications Commission)는 그랜드 얼라이언스(GA : Grand Alliance)가 제안한 디지털 고선명 텔레비전(HDTV) 표준을 승인하고 있고, 미국에서의 지상 디지털 텔레비전 방송에 대한 방식을 명확히 하고 있다. GA HDTV 시스템은 동화상 전문 그룹(MPEG2) 비디오 압축 표준을 적용한다. 상세한 설명을 위해서, "정보 기술 - 동화상의 일반적인 코딩 및 관련 오디오 정보:비디오"{ISO/IEC 13818-2 : 1996(E)}를 참조한다. 소스 처리과정, 이동 추정 및 보상과 같은 최신의 정교한 비디오 압축 방법, 변환 표현(transform representation) 및 통계적 코딩을 사용함으로써, MPEG 압축 시스템은 전송 비트율을 50 배이상 감소시킬 수 있다. 1초 동안의 완전한(full) HD 신호는 압축전에 거의 10억 비트를 필요로 한다. GA 규격에서 제안된 것처럼, 초당 60 필드 속도인 1920×1080 픽셀(화상 요소) 영상은 디지털 방송을 위해서 초당 18 메가비트(megabits)로 압축된다.The United States Federal Communications Commission (FCC) approves the Digital High Definition Television (HDTV) standard proposed by the Grand Alliance (GA), and clarifies the way for terrestrial digital television broadcasting in the United States. . The GA HDTV system applies the Moving Picture Experts Group (MPEG2) video compression standard. For details, see "Information Technology-General Coding of Video and Related Audio Information: Video" {ISO / IEC 13818-2: 1996 (E)}. By using state-of-the-art sophisticated video compression methods such as source processing, motion estimation and compensation, transform representation and statistical coding, the MPEG compression system can reduce the transmission bit rate by more than 50 times. A full HD signal for one second requires almost a billion bits before compression. As suggested by the GA specification, 1920 x 1080 pixels (picture elements) at 60 field speeds per second are compressed at 18 megabits per second for digital broadcast.

GA 비디오 압축 시스템은 일반적으로 두 개의 주요 서브시스템을 포함하는데, 상기 두 개의 주요 서브시스템은 사전-처리기와 MPEG2 비디오 엔코더이고, 상기 서브 시스템의 다음에는 출력 버퍼가 온다. 사전-처리기로의 입력은 RGB 형태의 아날로그 비디오이다. 사전-처리기는 입력 신호를 디지털화하고, 영상 카메라의 비-선형성 응답을 보상하기 위해 각각의 컬러 성분에 대한 감마 보정(gamma correction)을 수행한다. 감마 보정은 압축된 영상, 특히 상기 영상의 음영 영역에 포함된 양자화 잡음의 가시도를 감소시킨다. 다음으로, 사전-처리기는 디지털화되어 감마 보정된 RGB 샘플을 SMPTE 240MYC1C2 컬러 스페이스에 대해 선형적으로 변환한다. 마지막으로, 그 결과 생긴 색차 성분(chrominance components)은 4:2:0 디지털 비디오 입력 신호를 형성하기 위해 서브-샘플링 된다. 단지 설명한 기능 외에도, 상기 사전-처리기는 영상 변환을 수행할 수 있다. 일예로, 방송 디지털 위성 시스템에 있어서, 비디오 신호는 대역폭 요구조건을 더욱 감소시키기 위해 라인 당 720 픽셀에서 라인 당 544 픽셀로 수평적으로 데시메이트(decimate)된다. 이 신호는 MPEG2 비디오 엔코더에 보내진다.A GA video compression system generally includes two main subsystems, the two main subsystems being a pre-processor and an MPEG2 video encoder, followed by an output buffer. The input to the pre-processor is analog video in RGB form. The pre-processor digitizes the input signal and performs gamma correction on each color component to compensate for the non-linear response of the imaging camera. Gamma correction reduces the visibility of the compressed image, especially the quantization noise included in the shaded region of the image. Next, the pre-processor linearly converts the digitized, gamma corrected RGB sample to the SMPTE 240MYC1C2 color space. Finally, the resulting chrominance components are sub-sampled to form a 4: 2: 0 digital video input signal. In addition to the functions just described, the pre-processor may perform image conversion. For example, in a broadcast digital satellite system, video signals are horizontally decimated from 720 pixels per line to 544 pixels per line to further reduce bandwidth requirements. This signal is sent to the MPEG2 video encoder.

MPEG2 비디오 엔코더는 프레임들 간의 일부 시간적인 중복과, 프레임 내에서의 일부 공간적인 중복을 제거함으로써 입력 디지털 비디오 신호를 압축한다. 일반적으로, 압축은 상술된 것처럼 여러 가지 다른 기술을 연속적으로 사용함으로써 달성된다. 양자화 정확도를 조정함으로써, 엔코더는 응용예별로 특정된 임의의 비율로 압축된 비트스트림을 생성할 수 있다. MPEG2 시스템에서의 양자화는 데이터 블록의 DCT 계수에 대해 수행되는데, 상기 데이터 블록은 이동 추정으로부터의 최초 영상 정보이거나 잔여 정보(residual information)일 수 있다. 크기조정이 가능한(scalable) 양자화 스텝 사이즈(quantization step size)와 결합된 양자화 매트릭스를 사용함으로써, 양자화기는 전송을 위해 모든 DCT 블록으로부터의 DCT 계수들 중 작은 부분만을 양자화하고, 그 결과 상당한 데이터 감소를 가져온다. 양자화 매트릭스는 DCT 계수의 통계적인 분산과 비디오 신호의 내용에 따라서 프레임에 기초하여 변할 수 있다. 프레임 내의 다른 영역에 대해서, 양자화는 매크로블록(macroblock)의 복잡도에 기초하여 양자화 스텝 사이즈를 조정함으로써, 매크로블록 별로 미세하게 조절될 수 있다. 출력 버퍼는 유효 대역폭 내에서의 양자화 해상도를 극대화하도록, 특정 프레임에 대한 양자화 스텝 사이즈를 조정하기 위해 엔코더에서 사용되는 제어 신호를 소정의 출력 비트율로 제공할 것이다.The MPEG2 video encoder compresses the input digital video signal by removing some temporal overlap between frames and some spatial overlap within the frame. In general, compression is achieved by successively using several different techniques as described above. By adjusting the quantization accuracy, the encoder can generate a compressed bitstream at any rate specific to the application. Quantization in the MPEG2 system is performed on DCT coefficients of a data block, which may be initial image information or residual information from motion estimation. By using a quantization matrix combined with a scalable quantization step size, the quantizer quantizes only a small fraction of the DCT coefficients from all DCT blocks for transmission, resulting in significant data reduction. Bring. The quantization matrix can vary based on the frame depending on the statistical variance of the DCT coefficients and the content of the video signal. For other regions in the frame, the quantization can be finely adjusted for each macroblock by adjusting the quantization step size based on the complexity of the macroblock. The output buffer will provide the control signal used in the encoder at a predetermined output bit rate to adjust the quantization step size for a particular frame to maximize the quantization resolution within the effective bandwidth.

이상적으로는, 비디오 압축 시스템은 고주파수 성분을 제거하는데, 상기 고주파수 성분은 영상이 재구성되고 디스플레이 될 때, 시청자가 볼 수 없기 때문에 인지되지 않을 것이다. 나머지 저주파수 성분은 유효한 대역폭 내에 적합하도록 양 자화 된다. 또한 신호에 삽입된 양자화 잡음은 영상이 재구성될 때에도 시청자에게는 보이지 않는다. 그러나, 실제 시스템에 있어서, 전송하기 위한 정보와 유효 대역폭에 대한 양자화 스텝 사이즈 사이에는 절충(trade-off)이 이루어진다. 만약 시스템이 양자화를 위해 충분한 계수를 감소시키지 않는다면, 상기 시스템은 재구성된 영상에 블록형태의 결함을 발생시키는 양자화 스텝 사이즈를 증가시킨다. 만약 화상이 압축 처리 동안에 너무 많은 고주파수 정보를 손실한다면, 재구성된 영상은 다른 현저한 에지 결함을 가질 것이다.Ideally, the video compression system removes high frequency components that will not be recognized because the viewer cannot see them when the image is reconstructed and displayed. The remaining low frequency components are quantized to fit within the effective bandwidth. Also, the quantization noise embedded in the signal is invisible to the viewer even when the image is reconstructed. In a real system, however, there is a trade-off between the information to transmit and the quantization step size for the effective bandwidth. If the system does not reduce enough coefficients for quantization, the system increases the quantization step size causing block-like defects in the reconstructed image. If the image loses too much high frequency information during the compression process, the reconstructed image will have other significant edge defects.

또한, 각 프레임 사이의 양자화 차이는 화상 그룹(GOP) 내에 있는 프레임이 가변 고주파수 성분을 포함하도록 한다. 일예로, I 프레임은 엔코딩 동안에 감소된 상당한 양의 고주파수 계수를 가질 수 있고, 반면에 P 및 B 프레임은 I 프레임에서 감소된 고주파수 계수에 대응하는 고주파수 성분을 보유한다. 재구성된 GOP는 이제 고주파수 정보가 서로 재구성하기 위해 사용된 프레임 사이에서 변하기 때문에 결함을 가질 것이다.In addition, the quantization difference between each frame allows a frame within a picture group (GOP) to contain variable high frequency components. In one example, an I frame can have a significant amount of high frequency coefficients reduced during encoding, while P and B frames have high frequency components corresponding to the reduced high frequency coefficients in the I frame. The reconstructed GOP will now have defects because the high frequency information varies between the frames used to reconstruct each other.

이러한 문제는 일반적으로 정의되어 있는 것처럼, GA 시스템 내에서 발생한다. HD 영상 신호를 압축하는 것은 단지 디스플레이 되는 화질을 더욱 저하시킬 뿐이다. 위성 방송 제공자는, 단지 하나의 프로그램만이 한번에 트랜스폰더(transponder)에 전송될 수 있기 때문에, HD 신호 전송을 선호하지 않는다. 지금까지, 동시에 두 개의 프로그램을 하나의 위성 채널(일예로, 24 MHz 4-PSK 변조)에 적합하도록 HD 프로그램을 충분히 압축시키는 방법은 시청자가 용인할 수 없는 화질의 저하를 초래하였다. 그러므로, 위성 방송 제공자는 비효율적인 채널 사용으로 인해 HDTV 방송을 주저한다. 마찬가지로, 지상 방송 제공자는, 수 개의 SD 프로그램이 존재할 수 있는 하나의 채널을 하나의 프로그램이 완전히 점유하게 되면, 완전한(full) HD 프로그램을 제공하려 하지 않게 된다.This problem occurs within the GA system, as is generally defined. Compressing the HD video signal will only further degrade the displayed picture quality. Satellite broadcast providers do not prefer HD signal transmission because only one program can be sent to a transponder at a time. Until now, a method of sufficiently compressing HD programs to simultaneously fit two programs to one satellite channel (eg, 24 MHz 4-PSK modulation) has resulted in unacceptable degradation of image quality. Therefore, satellite broadcast providers are reluctant to broadcast HDTV due to inefficient channel usage. Similarly, terrestrial broadcast providers will not attempt to provide full HD programs if one program fully occupies one channel where several SD programs may exist.

본 발명의 원리에 따라, 디지털 영상 처리기는 비디오 신호 유형을 식별하고, 필요시, 선택적으로 최초의 신호 포맷을 다른 포맷으로 변환한다. 변환된 신호는 필터링되고, 필요시, 최초 신호로 역변환된다. 필터링된 신호는 더 낮은 해상도로 변환되고, 목표 비트율(target bit rate)로 압축된다. 마지막으로, 압축된 신호는 출력 데이터 채널에 전달된다.In accordance with the principles of the present invention, the digital image processor identifies the video signal type and optionally converts the original signal format to another format, if necessary. The converted signal is filtered and, if necessary, inversely converted to the original signal. The filtered signal is converted to a lower resolution and compressed at the target bit rate. Finally, the compressed signal is delivered to the output data channel.

본 발명의 원리에 따른 장치를 포함하는 MPEG2 엔코더는 상기 엔코더에 앞서 2차원(일예로, 수직 및 수평) 필터를 구비한다. 엔코더, 출력 버퍼 및 필터는 총체적인 효율을 개선하기 위해 다른 유닛에서 사용될 수 있는 정보를 각각 생성한다. 이러한 정보는 일예로 영상 이동, 영상 콘트라스트(image contrast), 양자화 매트릭스 선택, 스케일 인자 선택, 각 유닛의 비트율, 영상 텍스츄어(image texture)에 관한 것이다. 상기 정보는 엔코딩 처리를 감시하는 제어기나, 또는 각 유닛에 존재하는 각각의 제어기를 통해 유닛들 사이에 전달된다.An MPEG2 encoder comprising an apparatus according to the principles of the present invention has a two-dimensional (eg vertical and horizontal) filter prior to the encoder. Encoders, output buffers, and filters each generate information that can be used in other units to improve overall efficiency. This information relates to, for example, image movement, image contrast, quantization matrix selection, scale factor selection, bit rate of each unit, and image texture. The information is transferred between the units via a controller that monitors the encoding process or through each controller present in each unit.

제어기는 인입 정보를 평가하고, 화상 그룹, 프레임, 또는 부분 프레임에 대한 공통점을 확인하는데, 상기 공통점은 그룹, 프레임 또는 부분 프레임을 목표 비 트율에 따라 효율적으로 엔코드하도록 필터 및/또는 엔코더의 동작을 변경하기 위해 효과적으로 사용될 수 있다. 일반적으로, 엔코더를 조정하는 것보다 필터를 조정하는 것이 더 작은 잡음을 발생시키기 때문에 필터가 조정된다. 또한, 필터는 실제적으론, 필요시, 각각의 필터 계수를 조정함으로써 가장 양호한 융통성(flexibility)을 가능하게 하는 필터 세트이다. 이러한 필터들은 수평적인 반-에일리어싱 저역-통과 필터(horizontal anti-aliasing low-pass filter), 수직 저역-통과 필터, 및 2-차원 저역-통과 필터이고, 일반적으로 단지 순차적인 순서로 제공된다. 제어기는 현재의 필터 및 엔코더 설정을 위해 수신된 정보를 평가하고, 하나 이상의 중요한 공통점에 따라 하나 이상의 필터 및/또는 엔코더를 조정한다. 최종 결과적으로, 입력 신호는, 일반적으로 엔코더로 하여금 균일하게 엔코드된 데이터의 중요한 공통점에 관하여 화상 그룹, 프레임, 또는 부분 프레임을 통해 영상을 균일하게 엔코드하도록 하는 방식으로 필터를 통해 저역-통과 필터링된다.The controller evaluates the incoming information and identifies commonalities for groups of pictures, frames, or partial frames, the commons of which operate the filters and / or encoders to efficiently encode groups, frames, or partial frames according to target bit rates. Can be effectively used to change In general, the filter is tuned because adjusting the filter generates less noise than adjusting the encoder. Also, a filter is actually a set of filters that allows for the best flexibility by adjusting each filter coefficient, if necessary. These filters are horizontal anti-aliasing low-pass filters, vertical low-pass filters, and two-dimensional low-pass filters, and are generally provided only in sequential order. The controller evaluates the received information for current filter and encoder settings and adjusts one or more filters and / or encoders according to one or more important commonalities. As a result, the input signal is generally low-passed through the filter in a manner that allows the encoder to encode the image uniformly through groups of pictures, frames, or partial frames with respect to the significant commonalities of the uniformly encoded data. Is filtered.

엔코드된 신호는, 유효 대역폭으로 전송될 수 있고, 그런 후에 재구성되어, 결함이 없이 디스플레이될 수 있으며, 그렇지 않을 경우에는 결함이 존재할 수 있다. 영상 프레임 당 1920×1080 픽셀을 갖는 고선명 신호에 대해서, 수평 해상도는 필터링한 후 전송된 신호의 대역폭을 더욱 감소시키기 위해 엔코딩하기 전에 라인 당 1280 픽셀로 감소된다. 그 결과 HD 수신기가 작은 소프트웨어 변화로 수신하고, 디코드하여, 디스플레이할 수 있는 하이브리드 영상 해상도로 된다.The encoded signal can be transmitted with an effective bandwidth and then reconstructed so that it can be displayed without a defect, otherwise there may be a defect. For high definition signals with 1920 x 1080 pixels per image frame, the horizontal resolution is reduced to 1280 pixels per line before encoding to further reduce the bandwidth of the transmitted signal after filtering. The result is a hybrid video resolution that the HD receiver can receive, decode, and display with small software changes.

본 발명에 따른 비디오 압축 시스템의 예시적인 구성이 도 1에 도시되어 있다. 입력 비디오 신호는 영화 검출기(20)에 수신되고, 상기 영화 검출기는 상기 신호가 텔레시네(telecine) 방법을 통해 초 당 24 프레임에서 초 당 30 프레임으로 재형성되는 영화(필름) 신호인지를 식별한다. 재형성된 영화 신호는 기술되는 것처럼 적응 영상 처리기부(22)의 해당 부분(section)으로 향한다. 만약 입력 신호가 재형성된 영화 신호가 아니라면, 상기 신호는 적응 영상 처리기부(22)의 다른 부분으로 전달된다. 텔레시네 영화 신호의 식별은 공지된 방법을 통해 이루어진다.An exemplary configuration of a video compression system according to the present invention is shown in FIG. An input video signal is received at the movie detector 20, which identifies whether the signal is a movie (film) signal reconstructed from 24 frames per second to 30 frames per second via the telecine method. The reconstructed cinematic signal is directed to the corresponding section of the adaptive image processor 22 as described. If the input signal is not a reconstructed cinematic signal, the signal is passed to another portion of the adaptive image processor 22. The identification of the telecine movie signal is made through known methods.

처리기(22)는 제어기(28)를 통해 출력 버퍼(26)와 MPEG2 엔코더(24)로부터 제어 정보를 수신하고, 엔코더(24)가 일반적으로 눈에 띄는 결함없이 프레임을 효율적으로 유효 비트율 내에서 엔코드하도록 하기 위해 영상 프레임을 필터링한다. 처리기(22)는 평균 비트율로 제약을 받는 MPEG2 엔코드된 비트스트림의 재구성된 영상 품질을 개선시킬 필요가 있기 때문에, 2차원(2-D)(일예로, 수평 및 수직)적으로 상기 신호를 필터링한다. 이것은 소스의 국부적인 2D주파수 내용을 변경함으로써, 영상 선명도 및 엔코딩 결함에 관해 MPEG2 재구성된 영상에 최소한의 손상을 주는 방식으로 MPEG2 코딩 효율을 개선시키기 위함이다. 신호의 필터링은 일예로 화상 그룹(GOP)이나 프레임, 단일 프레임, 또는 각 픽셀과 같은 사전 결정된 데이터에 대해서 수행될 수 있다.The processor 22 receives control information from the output buffer 26 and the MPEG2 encoder 24 via the controller 28, and the encoder 24 efficiently encodes the frame within the effective bit rate without noticeable defects. To filter the video frames. The processor 22 needs to improve the reconstructed picture quality of the MPEG2 encoded bitstream constrained by the average bit rate, so that the signal is two-dimensional (2-D) (e.g., horizontal and vertical). To filter. This is to improve MPEG2 coding efficiency in a manner that minimizes damage to the MPEG2 reconstructed picture with respect to picture clarity and encoding defects by changing the local 2D frequency content of the source. The filtering of the signal may be performed on predetermined data such as, for example, a group of pictures (GOP) or a frame, a single frame, or each pixel.

2-D 필터는 영상을 저역-통과 필터링한다. 최상적으로, 제거되는 고주파수 정보는 중복되든지 또는 시청자가 볼 수 없게 된다. 실제적으로, 필요한 비트율을 획득하기 위해, 시청자가 볼 수 있는 일부 고주파수 정보가 제거될 수 있다. 그러나, MPEG2 엔코딩 전에 처리기(22)를 포함하는 시스템은 기술되는 것처럼 처리기 (22)를 구비하지 않은 시스템보다 더 우수한 영상을 생성한다.The 2-D filter low-pass filters the image. Optimally, the high frequency information that is removed is either redundant or invisible to the viewer. In practice, some high frequency information visible to the viewer can be removed to obtain the required bit rate. However, a system including a processor 22 before MPEG2 encoding produces a better image than a system without a processor 22 as described.

필터링된 신호는 MPEG2 엔코더(24)를 통해 엔코딩되는데, 상기 MPEG2 엔코더는 제어기(28)를 통해 처리기(22)와 출력 버퍼(26)로부터 영상 파라미터를 수신하고, 유효 비트율에 부합하도록 MPEG2 압축을 조정한다. 압축은 GA 규격에서 기술된 것과 동일한 방식으로 발생한다. 엔코더(24)는 압축된 데이터를 출력 버퍼(26)에 보낸다. 버퍼(26)는 공지된 신호 처리 기술을 사용하여 엔코드되고, 변조되며, 전송 채널을 통해 전송된 압축 데이터가 사전 결정된 비율로 전달되도록 한다. 변조에 앞서, 압축된 신호는 단일 채널로 전송되기 위해서 여러 프로그램을 통해 멀티플렉싱되도록 통계적인 멀티플렉서에 보내질 수 있다. 버퍼(26) 다음의 신호 처리 유닛은 널리 공지되어 있기 때문에 도면의 간략화를 위해 도 1에서 도시되지 않는다.The filtered signal is encoded via MPEG2 encoder 24, which receives image parameters from processor 22 and output buffer 26 via controller 28 and adjusts the MPEG2 compression to match the effective bit rate. do. Compression occurs in the same way as described in the GA specification. Encoder 24 sends the compressed data to output buffer 26. The buffer 26 is encoded, modulated using known signal processing techniques, and allows compressed data transmitted over the transmission channel to be delivered at a predetermined rate. Prior to modulation, the compressed signal can be sent to a statistical multiplexer to be multiplexed through several programs for transmission on a single channel. The signal processing unit following the buffer 26 is well known and is not shown in FIG. 1 for the sake of simplicity.

비디오 압축 시스템은 임의의 유형의 비디오 신호를 수용하기 위해 구성될 수 있다. 도 1의 시스템은 공지된 산업 표준으로 형성된 텔레비전(카메라)과 영화(필름) 모두를 수용하도록 구성된다. 도 1의 시스템에 대해, 일예로 한 가지 공통적인 구성은 배경기술에서 이미 기술된 것처럼 사전-처리기로부터의 출력을 수신하도록 구성된다는 것이다. 시스템은 적절한 하드웨어 및/또는 소프트웨어를 추가함으로써 다른 유형의 비디오 신호를 수용하도록 구성될 수 있다. 이러한 구성은 도 1을 간략화하기 위해 도시되지 않았다.The video compression system can be configured to accept any type of video signal. The system of FIG. 1 is configured to accommodate both televisions (cameras) and movies (films) formed to known industry standards. For the system of FIG. 1, one common configuration, for example, is that it is configured to receive output from the pre-processor as already described in the background. The system can be configured to accept other types of video signals by adding appropriate hardware and / or software. This configuration is not shown to simplify FIG. 1.

영화 검출기(20)는 코딩 효율을 개선시키기 위해 사용될 수 있는 입력 신호에 특정 관계가 존재한다는 것을 인지한다: 즉, (유형 1) 60 필드/초로 비월 주사 된 소스, (유형 2) 60 필드/초로 비월 주사된 30 프레임/초 영화, (유형 3) 60 필드/초로 비월 주사된 24 프레임/초 영화, (유형 4) 순차 주사된 소스, (유형 5) 60 프레임/초로 순차 주사된 30 프레임/초 영화, 및 (유형 6) 60 프레임/초로 순차 주사된 24 프레임/초 영화와 같은 특정 관계이다. 검출은 외부 제어 신호(미도시)에 응답하여 발생하거나 현재의 표준 선명도(SD : standard definition) MPEG2 엔코더에서 사용되는 것과 같은 공지된 기술을 통해 발생한다. 신호 포맷 정보는 이후에 기술된 것처럼 신호와 함께 적응 영상 처리기(22)에 전달된다. 영화 검출기(20)는 상기 신호가 비월 주사인지 또는 순차 주사 유형인지를 또한 검출하고, 상기 정보를 처리기(22)에 전달한다. 이러한 주사 유형은 예시적이고, 신호가 처리기(22)를 통해 향하게되는 파라미터를 정의한다. 다른 필드 및 프레임 비율에 대한 구현이 또한 사용될 수 있다.The movie detector 20 recognizes that there is a specific relationship to the input signal that can be used to improve the coding efficiency: that is, a source interlaced at (type 1) 60 fields / second, (type 2) 60 fields / second Interlaced 30 frames / sec film, (Type 3) Interlaced scans at 60 fields / sec, 24 frames per second film, (Type 4) Sequentially scanned sources, (Type 5) 30 frames / sec sequentially scanned at 30 frames / sec Specific relationships such as movies, and 24 frames / second movie sequentially scanned at 60 frames / second (type 6). Detection occurs in response to an external control signal (not shown) or through known techniques such as those used in current standard definition (SD) MPEG2 encoders. The signal format information is conveyed to the adaptive image processor 22 with the signal as described later. The movie detector 20 also detects whether the signal is interlaced scan or sequential scan type, and passes the information to the processor 22. This type of scan is exemplary and defines the parameters to which the signal is directed through the processor 22. Implementations for other fields and frame rates may also be used.

적응 영상 처리기(22)는 엔코더(24)에 의해 압축될 데이터의 양을 감소시키는 수 개의 프로그램가능한 기능을 수행한다. 처리기(22)는, 일반적으로, 처리된 프레임이 시청자가 볼 수 있는 잡음을 제거하거나 크게 감소시키기 위해 최상적으로 엔코드될 수 있도록 각 프레임에 대해 동작한다. 처리기(22)는 공간적인 가변 2-D 저역-통과 필터로서 간주될 수 있는데, 그 이유는 상기 처리기는 각각의 영상 프레임을 공간적으로 다운-샘플링하고, 신호로부터의 선택된 2-D 고주파수 성분을 적합하게 필터링하기 때문이다. 적응 필터링은, 처리된 프레임을 생성하기 위해서 일련의 프레임에 걸쳐, 단일 프레임에 대해, 또는 각 픽셀에 대해 조정될 수 있다.Adaptive image processor 22 performs several programmable functions to reduce the amount of data to be compressed by encoder 24. Processor 22 generally operates for each frame so that the processed frame can be best encoded to remove or greatly reduce the noise visible to the viewer. Processor 22 can be considered as a spatially variable 2-D low-pass filter, because the processor spatially down-samples each image frame and fits the selected 2-D high frequency component from the signal. Because it filters. Adaptive filtering can be adjusted over a series of frames, for a single frame, or for each pixel to produce a processed frame.

처리기(22)는 임의의 유형의 신호에 대한 엔코딩을 용이하게 할 수 있다. 그러나, 본 실시예에서, 처리기(22)는 GA 규격에서 정의된 것처럼 HD 데이터에 대해서 동작하도록 프로그램된다. 이것은 영상 당 1920×1080 픽셀이거나 또는 영상 당 1280×720 픽셀일 수 있다. GA 규격에 따라, 각각의 HD 포맷은 방송을 위해서 초 당 거의 18 메가비트를 필요로 한다. 논의를 간단히 하기 위해, 단지 1920×1080 포맷이 상세히 논의될 것이다. 이러한 논의는 1280×720 포맷이나 임의의 다른 포맷에 동일하게 적용될 수 있다.Processor 22 may facilitate encoding for any type of signal. However, in this embodiment, processor 22 is programmed to operate on HD data as defined in the GA specification. This may be 1920 × 1080 pixels per image or 1280 × 720 pixels per image. According to the GA specification, each HD format requires almost 18 megabits per second for broadcast. To simplify the discussion, only the 1920 × 1080 format will be discussed in detail. This discussion is equally applicable to the 1280 × 720 format or any other format.

도 2는 적응 영상 처리기(22)의 상세도를 나타낸다. 검출기(20)로부터 수신된 신호 포맷 정보에 따라, 영상 신호는 제어기(28)(도 1)를 통해 비월-순차 변환기(221)(유형 1)와 디-텔레시네 유닛(de-telecine unit)(222)(유형 2,3)에 보내지거나, 또는 변경되지 않고(유형 4-6) 공간 대역-제한, 저역-통과 필터(223)를 통과한다. 필터(223)는 유닛(221 및 222)이 신호를 처리한 후에, 이들 유닛의 출력을 수신한다.2 shows a detailed view of the adaptive image processor 22. According to the signal format information received from the detector 20, the image signal is passed through the controller 28 (FIG. 1) to the interlaced-to-sequential converter 221 (type 1) and the de-telecine unit 222. Pass through the spatial band-limiting, low-pass filter 223 without being sent to (types 2,3) or altered (types 4-6). Filter 223 receives the output of these units after units 221 and 222 have processed the signals.

변환기(221)는, 만약 신호의 포맷이 60 Hz 비월 필드를 포함한다면, 상기 신호를 수신하여 초당 60 프레임의 속도로 상기 신호를 순차 프레임으로 변환한다. 순차 프레임은 각 프레임에 있는 모든 영상 정보를 포함한다. 일반적으로 순차 주사 신호를 필터링하는 것은 비월 신호의 필드 정보를 필터링할 때 발생할 수 있는 것과 같은 결함을 발생시키지 않는다. 변환기(221)는 비월 필드를 순차 프레임으로 변환하기 위해 공지된 방법들을 사용한다.The converter 221 receives the signal and converts the signal into sequential frames at a rate of 60 frames per second if the format of the signal includes a 60 Hz interlaced field. A sequential frame contains all the image information in each frame. In general, filtering sequential scan signals does not introduce defects such as may occur when filtering field information of interlaced signals. Converter 221 uses known methods to convert interlaced fields into sequential frames.

디-텔레시네 유닛(222)은 60 Hz 비월 주사된 영화의 중복 필드를 제거하고, 최초의 순차 주사된 영화를 재구성한다. 순차 포맷은 후속하는 수직 저역-통과 필터링이 이동 결함(motion artifact)을 발생시키지 않도록 한다. 만약 영화 소스(유형 2 또는 유형 3) 입력이 유형 1 소스와 같이 처리되었다면, 수직 저역-통화 필터링은 영화 소스 자료를 검출하고 적절히 처리하기 위해 MPEG2 엔코더의 성능을 저하시킨다. 코딩 효율은 나빠진다. 유닛(222)은 신호를 순차 포맷으로 변환하고 필터링 전에, 중복 필드/프레임을 제거하는데, 그 이유는 필터링이 중복 정보를 상이하게 필터링할 수 있기 때문이다. 만약 중복 정보가 필터링 전에 제거되지 않는다면, 상기 정보는 필터링 후에 동일하게 될 수 없고, 엔코더는 상기 신호를 유형 2/3 신호로서 인지할 수 없는 경우도 있다. 다음으로, 엔코더는 정보를 엔코드하고, 그렇지 않다면 상기 정보는 중복으로 인해 제거될 것이다.The de-telecine unit 222 removes duplicate fields of the 60 Hz interlaced scanned movie and reconstructs the original sequential scanned movie. The sequential format ensures that subsequent vertical low-pass filtering does not produce motion artifacts. If the movie source (type 2 or type 3) input was treated as a type 1 source, vertical low-pass filtering degrades the performance of the MPEG2 encoder to detect and properly process movie source material. Coding efficiency worsens. Unit 222 converts the signal to sequential format and removes duplicate fields / frames before filtering, because the filtering may filter the duplicate information differently. If duplicate information is not removed before filtering, the information may not be the same after filtering, and the encoder may not recognize the signal as a type 2/3 signal. The encoder then encodes the information otherwise the information will be removed due to duplication.

또한, 처리기(22)의 설계는 유닛(222)으로부터 단일 출력 클럭을 제공함으로써 간략하게 된다. 만약 유닛(222)이 초 당 24 프레임의 속도 및 초 당 30 프레임의 속도로 출력 순차 필름 영상을 제공한다면, 두 개의 출력 클럭과 지원회로가 요구될 것이다.In addition, the design of processor 22 is simplified by providing a single output clock from unit 222. If the unit 222 provides an output sequential film image at a rate of 24 frames per second and a rate of 30 frames per second, two output clocks and supporting circuitry will be required.

초 당 30 프레임의 순차 포맷으로 최초에 생성된 신호는 필터(223)로 직접 전달된다. 필터(223)는 완전한 영상 프레임으로 표시된 비디오 정보를 요구한다. 공간적인 저역-통과 필터(223)는 실제적으로는 필터 세트이다. 일예로, 제 1 필터는 반-에일리어싱 수평 저역-통과 필터이다. 제 2 필터는 수직 저역-통과 필터이다. 최종 필터는 이전에 기술된 2-D 저역-통과 필터이다. 각 필터 탭(filter tap)의 계수는 도 1에 도시된 것과 같은 엔코더(24)와 버퍼(26)로부터의 제어 정보에 따라 적합하게 설정될 수 있다. 순차 신호는 샘플링 비율 변환기(226)에서의 연속적인 다운-샘플링으로부터 발생하는 에일리어싱을 제거하기 위해 수평적으로 저역-통과 필터링된다. 라인 당 1920 픽셀의 최종 수평 출력은 기술되는 것처럼 라인 당 1280 픽셀로 될 것이다. 최종 신호 내의 에일리어스 잡음을 제거하기 위해서, 저역-통과 필터(223)는 라인 당 640 사이클의 차단 주파수를 갖는다. 유닛(223)에 포함된 수평 반-에일리어스 필터는 다음과 같은 탭 계수를 갖는 17개의 탭 유한 임펄스 응답(FIR) 필터일 수 있다.The initially generated signal in sequential format of 30 frames per second is passed directly to filter 223. The filter 223 requires video information represented as a complete picture frame. Spatial low-pass filter 223 is actually a filter set. In one example, the first filter is a semi-aliasing horizontal low-pass filter. The second filter is a vertical low pass filter. The final filter is the previously described 2-D low-pass filter. The coefficient of each filter tap can be suitably set according to the control information from the encoder 24 and the buffer 26 as shown in FIG. The sequential signal is horizontally low-pass filtered to remove aliasing resulting from continuous down-sampling at the sampling rate converter 226. The final horizontal output of 1920 pixels per line will be 1280 pixels per line as described. To remove the alias noise in the final signal, the low pass filter 223 has a cutoff frequency of 640 cycles per line. The horizontal anti-alias filter included in unit 223 may be a 17 tap finite impulse response (FIR) filter having the following tap coefficients.

[f0,f1,...,f15,f16]=[-4,10,0,-30,48,0,-128,276,680,276,-128,0,48,-30,0, 10,-4]/1024[f0, f1, ..., f15, f16] = [-4,10,0, -30,48,0, -128,276,680,276, -128,0,48, -30,0, 10, -4] / 1024

HD 비디오 신호를 감소된 비트율로 엔코딩하는 것은 일반적으로 비디오 신호의 대역폭을 더욱 감소시키기 위해 추가적인 수직 저역-통과 필터링을 필요로 한다. MPEG 엔코딩 전에 수직 고주파수 에너지를 제거하는 것이 용인할 수 있는 전체 화질을 달성하기 위해 필요하다. 최고의 위상 감도를 갖는 수직 주파수 범위는 감쇠된다. 수직 차단 주파수는 나이키스트 주파수의 일부 부분으로 설정된다. 일예로, HD 입력 신호의 라인 비율의 거의 1/2인 차단 주파수는 일부 비디오 자료에 대해서 적절할 수 있다. 1080 라인/화상높이(l/ph)를 갖는 HD 신호에 대해, 이것은 540 l/ph의 차단에 대응한다. 이 주파수는 프로그램가능할 수 있고, 프로그램가능한 차단 주파수는 제어기(28)를 통해 도 1의 엔코더(24)와 버퍼(26)로부터 입수가능한 파라미터로부터 결정될 것이다(즉, 요구된 비트율, 양자화 매트릭스, 등). 유닛(223)에 포함된 수직 저역-통과 필터는 다음과 같은 탭 계수를 갖는 17개의 탭 FIR 필터일 수 있다.Encoding an HD video signal at a reduced bit rate generally requires additional vertical low-pass filtering to further reduce the bandwidth of the video signal. Removing vertical high frequency energy before MPEG encoding is necessary to achieve acceptable overall picture quality. The vertical frequency range with the highest phase sensitivity is attenuated. The vertical cutoff frequency is set as part of the Nyquist frequency. As an example, a cutoff frequency that is nearly one half of the line rate of the HD input signal may be appropriate for some video material. For HD signals with 1080 lines / picture height (l / ph), this corresponds to a blocking of 540 l / ph. This frequency may be programmable and the programmable cutoff frequency will be determined from the parameters available from encoder 24 and buffer 26 of FIG. 1 via controller 28 (ie, required bit rate, quantization matrix, etc.). . The vertical low pass filter included in the unit 223 may be seventeen tap FIR filters having the following tap coefficients.

[f0,f1,...,f15,f16]=[-4,-7,14,28,-27,-81,37,316,472,316,37,-81,-27,28,1 4,-7,-4]/1024[f0, f1, ..., f15, f16] = [-4, -7,14,28, -27, -81,37,316,472,316,37, -81, -27,28,1 4, -7,- 4] / 1024

대안적으로, 차단 주파수는 SD 신호의 라인 비율의 두 배일 수 있다. 일반적으로, 수직 저역-통과 필터는 수평 반-에일리어스 필터의 다음에 온다.Alternatively, the cutoff frequency may be twice the line rate of the SD signal. In general, the vertical low-pass filter follows the horizontal anti-alias filter.

처리기(22)는 수직 부분 제거보다는 오히려 수직 필터링을 수행하고, 그럼으로써 일정한 수직 라인 해상도를 유지한다. 일반적으로, 비월 비디오 신호에 대해서는 부분 제거보다는 필터링이 더 적절하다. 비월 영상 시퀀스에 대한 수직 라인 해상도를 변환하는 것은 복잡한 하드웨어와 소프트웨어를 필요로 하고, 결과적으로 고가의 수신기 비용을 초래한다. 수직 샘플 비율 변환은 수직 고주파수 성능을 저하시키는데, 그 이유는 나이키스트 샘플링(즉, 오버샘플링이 없는)과 조합된 탭의 복잡도가 증가하기 때문이다. 수신기에 대한 비용의 고려는 일반적으로 결함과 엔코드된 비트율을 감소시키기 위한 수직 해상도 감소를 저지한다. 디스플레이된 화상은 상술된 수직 저역-통과 필터 대신에 수직 샘플링 비율 변환기에 현 기술을 이용함으로써 상당히 저하될 것이다. 그러나, 효과적이고 비용 효율적인 수직 샘플 비율 변환기는 본 발명의 원리로부터 벗어나지 않으면서 본 명세서에서 기술된 수직 필터를 대신할 수 있다.Processor 22 performs vertical filtering rather than vertical portion removal, thereby maintaining a constant vertical line resolution. In general, filtering is more appropriate than interpolation for interlaced video signals. Converting the vertical line resolution for interlaced image sequences requires complex hardware and software, resulting in expensive receiver costs. Vertical sample rate conversion degrades vertical high frequency performance because of the increased complexity of taps combined with Nyquist sampling (ie, no oversampling). Cost considerations for the receiver generally counteract the reduction in vertical resolution to reduce defects and encoded bit rates. The displayed picture will be significantly degraded by using the current technology in a vertical sampling rate converter instead of the vertical low-pass filter described above. However, an effective and cost effective vertical sample rate converter may replace the vertical filter described herein without departing from the principles of the present invention.

수평 및 수직 저역-통과 필터 모두에 대한 계수는 소프트웨어를 통해 변경될 수 있고, 필요하다면, 재구성된 영상에서 결함을 생성하지 않으면서 목표 비트율을 획득하기 위해 픽셀 레벨에 적용될 수 있다. 일반적으로, 프레임에 기초한 계수 변 경은 가능하다. 더 느린 처리기에 대한 대안은 필터에 대한 다수의 다른 계수 세트를 프로그램하고, 처리될 영상 정보에 대한 가장 적절한 세트를 선택하는 것이다. 적응 필터의 더 큰 융통성은 전체적인 시스템이 적응 필터 없이도 시스템에 대해 거의 결함을 갖지 않는 데이터 스트림을 생성할 수 있도록 한다.The coefficients for both the horizontal and vertical low-pass filters can be changed via software and, if necessary, applied to the pixel level to obtain the target bit rate without creating defects in the reconstructed image. In general, coefficient changes based on frames are possible. An alternative to the slower processor is to program a number of different coefficient sets for the filter and select the most appropriate set for the image information to be processed. The greater flexibility of the adaptive filter allows the entire system to generate a data stream with little defect on the system without the adaptive filter.

신호가 유닛(223)에 의해 수평 및 수직 방향으로 저역-통과 필터링된 후에, 제어기(28)는 상기 신호가 상당한 양자화 잡음을 생성하지 않고도 프레임에 기초하여 엔코더(24)를 통해 균일하게 엔코드될 수 있는지를 결정한다. 만약 그렇다면, 신호는 기술되는 것처럼 신호의 포맷에 따라 유닛들(224, 225 또는 226) 중 어느 하나에 전달된다. 그러나, 만약 엔코딩 처리가 신호에 잡음 및/또는 결함을 발생시킬것 같다면, 상기 신호는 추가적인 적응 필터링을 위해 유닛(223)에 있는 2차원 저역-통과 필터로 보내진다. 처리기(22), 엔코더(24), 및 출력 버퍼(26)(도 1)로부터의 제어 파라미터는 제어기(28){유닛(223)에 있는 각각의 유닛 제어기}로 하여금 추가적인 필터링이 필요한지를 결정하도록 한다. 일예로 상기 결정을 하기 위해 사용되는 파라미터는 이동 및 대조의 측정치, 유효 양자화 테이블, 엔코딩 효율 및 현재의 목표 비트율이다.After the signal is low-pass filtered in the horizontal and vertical directions by the unit 223, the controller 28 is able to encode the signal uniformly through the encoder 24 based on the frame without generating significant quantization noise. Decide if you can. If so, the signal is delivered to either of the units 224, 225 or 226 depending on the format of the signal as described. However, if the encoding process is likely to cause noise and / or defects in the signal, the signal is sent to a two-dimensional lowpass filter in unit 223 for further adaptive filtering. Control parameters from processor 22, encoder 24, and output buffer 26 (FIG. 1) allow controller 28 (each unit controller in unit 223) to determine if additional filtering is needed. do. In one example, the parameters used to make this determination are measurements of shift and contrast, an effective quantization table, encoding efficiency and the current target bit rate.

유닛(223)에 있는 2-D 필터는 수평방향만 또는 수직방향만이 아니라, 우선적으로 대각선에 따른 영상 프레임으로부터의 고주파수 정보를 감소시킨다. 인간의 안구는 대각선 방향에 비해서 수직 및 수평 방향에 있는 고주파수 잡음에 매우 민감하다. 엔코더(24)를 통한 양자화를 균일하게 하기 위해 상당한 고주파수 정보를 대각선으로 제거하는 것은 일반적으로 더 적은 관측 가능한 잡음을 갖는 더 양호한 품질의 신호를 초래한다. 이전의 모든 필터링과 같이, 대각선 필터는 전체적인 영상 프레임에 대해 동작하고 프로그램가능하다.The 2-D filter in unit 223 preferentially reduces the high frequency information from the image frame along the diagonal, not only in the horizontal or vertical direction. The human eye is very sensitive to high frequency noise in the vertical and horizontal directions compared to the diagonal direction. Diagonal removal of significant high frequency information in order to uniformize quantization through encoder 24 generally results in a better quality signal with less observable noise. As with all previous filtering, the diagonal filter operates and is programmable over the entire picture frame.

대각선 필터는 엔코더에서 양자화 매트릭스와 호환적일 수 있다. 양자화 매트릭스는 종종 I 프레임 양자화를 위해 다이아몬드 형태의 매트릭스를 사용한다. 그러나, 이러한 매트릭스는, B 프레임 및 P 프레임이 엔코더(24)에서 발생하는 압축 및 이동 보상 처리 동안에 고주파수 성분을 보유하는 다른 유형의 양자화 매트릭스를 사용하기 때문에, 종종 잡음을 포함한다. 처리기(22)의 필터는 MPEG2 엔코더(24)가 이동 추정 네트워크로 I, P 및 B 프레임에 있는 데이터를 처리하기 전에 각각의 영상 프레임으로부터의 고주파수 정보를 제거한다. 그러므로, 고주파수 성분은 일반적으로 I 프레임뿐만 아니라 P 및 B 프레임으로부터 제거된다. 재구성 동안에, 일반적으로 영상은 공지된 바와 같은 MPEG2 엔코딩에 의해 생성되는 결함을 갖지 않는다.The diagonal filter may be compatible with the quantization matrix at the encoder. Quantization matrices often use diamond shaped matrices for I frame quantization. However, such matrices often contain noise because B and P frames use other types of quantization matrices that retain high frequency components during the compression and motion compensation processing occurring at encoder 24. The filter of processor 22 removes high frequency information from each video frame before MPEG2 encoder 24 processes the data in I, P, and B frames into the motion estimation network. Therefore, high frequency components are generally removed from P and B frames as well as I frames. During reconstruction, the picture generally does not have the defect created by MPEG2 encoding as known.

도 1을 참조하면, 실제적으로, 제어기(28)는 제공된 프레임을 처리기(22)를 통해 필터링하기 전에, 신호 파라미터(일예로, 이동, 대조, 등)를 평가하고, 필요한 대각선 필터링을 포함하는 유닛(223)에 있는 모든 필터에 대한 계수 설정을 결정한다. 주어진 프레임의 필터링 처리 동안에, 제어기(28)는 처리기(22), 엔코더(24) 및 버퍼(26)로부터의 신호 파라미터를 감시하고, 최소한의 결함/잡음을 갖는 목표 비트율을 유지하기 위해 필요시 계수를 변경한다. 각 프레임은 가장 최근의 신호 파라미터에 기초하여 필터링되고, 압축을 위해 엔코더(24)에 전달되며, 그런 후에 후속하는 정보가 필터(223)에 입력될 때 버퍼(26)에 전달된다.Referring to FIG. 1, in practice, the controller 28 evaluates a signal parameter (eg, shift, contrast, etc.) before filtering the provided frame through the processor 22, and includes a unit that includes the necessary diagonal filtering. Determine coefficient settings for all filters in (223). During the filtering process of a given frame, controller 28 monitors the signal parameters from processor 22, encoder 24 and buffer 26 and counts as needed to maintain a target bit rate with minimal defects / noise. Change Each frame is filtered based on the most recent signal parameter, passed to encoder 24 for compression, and then to buffer 26 when subsequent information is entered into filter 223.

만약 신호가 초 당 24 프레임의 영화 신호로 생성된다면, 필터링된 신호는 3:2 풀다운 유닛(pull down unit)(224)에 인가된다. 유닛(224)은 초당 30 프레임의 출력 신호를 제공하기 위해 선택되는 프레임을 두 배로 한다. 이것은 공지된 방법을 통해 일어난다. 다음으로 상기 신호는 유닛(224)에서 수평 다운-샘플링 변환기(226)로 전달된다.If the signal is generated with a movie signal of 24 frames per second, the filtered signal is applied to a 3: 2 pull down unit 224. Unit 224 doubles the frame selected to provide an output signal of 30 frames per second. This happens through known methods. The signal is then transmitted from unit 224 to horizontal down-sampling converter 226.

필드 서브-샘플링 유닛(225)은 필터(223)로부터의 순차 신호를 순차-비월 주사 포맷으로 변환한다. 이러한 변환은 공지된 방법을 통해 달성된다. 비월 포맷으로 역변환하지 않고도, 신호는 총 데이터의 두 배만큼의 데이터를 획득할 수 있는데, 그 이유는 유닛(221)으로부터의 순차 프레임 속도가 60 Hz이기 때문이다. 비월 신호는 변환기(226)에 인가된다.Field sub-sampling unit 225 converts the sequential signal from filter 223 into a sequential-interlaced scan format. This conversion is accomplished through known methods. Without inversely converting to interlaced format, the signal can acquire twice as much data as the total data, because the sequential frame rate from unit 221 is 60 Hz. The interlaced signal is applied to the transducer 226.

샘플링 비율 변환기(226)는 초 당 30 프레임으로 필터(223)로부터의 순차 신호를 직접 수신한다. 또한, 유닛(224 및 225)은 상술된 것처럼, 상기 신호를 변환기(226)에 제공한다. 변환기(226)는 HD 신호를 선택된 전송 포맷으로 다운-샘플링한다. 이러한 포맷이 표준 포맷으로 될 필요는 없다. 필요한 것은 임의의 영상비(image ratio)와 프레임 사이즈일 수 있다. 그러나 비-표준 포맷은 수신기 변형을 필요로 할 것이다.Sampling rate converter 226 receives the sequential signal from filter 223 directly at 30 frames per second. Units 224 and 225 also provide the signal to transducer 226, as described above. Converter 226 down-samples the HD signal to the selected transmission format. This format does not have to be a standard format. What is needed may be any image ratio and frame size. However, non-standard formats will require receiver modifications.

변환기(226)가 1920×1080 GA HDTV 신호를 수신하였을 때, 변환기(226)는 수평 정보를 다운-샘플링하고, 1280×1080의 하이브리드 픽셀 프레임 포맷을 출력한다. GA HDTV 호환성 수신기는 1920×1080 픽셀과 1280×720 픽셀을 포함하는 영상 프레임을 수신할 수 있다. 그러므로, GA 호환성 수신기는 1280 픽셀 수평 해상도와 1080 픽셀 수직 해상도를 지원하기 위해 변형될 수 있다. 호환성 수신기 하드웨어는 수직 해상도의 증가와 관련하여 1280 수평 픽셀을 1920 수평 픽셀로 업-샘플링한다(up-sampling). 그러나, GA 호환성 수신기는 1280×1080 픽셀(수평×수직)의 영상 프레임 해상도를 수신하기 위해 필요하지 않고, 또한 프로그램되어 있지 않다. 하드웨어는 이러한 해상도를 정의된 포맷으로 수신하고 디코드하기 위해 적절한 장소에 위치하지만, 단지 수평 해상도만을 디코드하고 증가시키기 위해 지원용 소프트웨어가 추가되어야 한다. 소프트웨어를 추가하는 것은, 다른 비-표준 포맷을 위해 필요한 새로운 하드웨어를 재설계 및 추가하는 것에 비해서 간단하고 저렴하다.When converter 226 receives a 1920 × 1080 GA HDTV signal, converter 226 down-samples the horizontal information and outputs a 1280 × 1080 hybrid pixel frame format. The GA HDTV compatible receiver may receive an image frame including 1920 × 1080 pixels and 1280 × 720 pixels. Therefore, the GA compatible receiver can be modified to support 1280 pixel horizontal resolution and 1080 pixel vertical resolution. The compatible receiver hardware up-samples 1280 horizontal pixels to 1920 horizontal pixels in connection with an increase in vertical resolution. However, a GA compatible receiver is not needed to receive a video frame resolution of 1280 x 1080 pixels (horizontal x vertical) and is also not programmed. The hardware is in the right place to receive and decode these resolutions in the defined format, but support software must be added to decode and increase only the horizontal resolution. Adding software is simpler and cheaper than redesigning and adding new hardware needed for other non-standard formats.

처리기(22)는 현 디스플레이 기술이 1920 픽셀/라인 해상도를 디스플레이할 수 없기 때문에 하이브리드 1280×1080 포맷을 제공한다. 일반적으로, 가장 좋은 텔레비전 모니터는 해상도를 거의 1200 픽셀/라인 내지 1300 픽셀/라인의 해상도로 디스플레이할 수 있다. 그러므로, 수평 방향으로의 출력 해상도를 1280 픽셀/라인으로 제한하는 것은 화질에 거의 역효과를 주지 않는다. 현존하는 디코딩 및 압축해제 수신기 하드웨어에 의해 지원되는 디스플레이 해상도(1280×1080)를 제공함으로써, 수신기 제작자는 최소한의 영향을 받는데, 그 이유는 단지 소프트웨어 변화만이 필요하기 때문이다. 방송 위성과 같은 특정 수신기에 대해서, 소프트웨어 변경은 위성 링크를 통해서 다운로드될 수 있고 원격으로 설치될 수 있다. 이러한 수신기에 대해서 서비스 기술자가 수반될 필요가 없다.Processor 22 provides a hybrid 1280 × 1080 format because current display technology cannot display 1920 pixel / line resolution. In general, the best television monitors can display the resolution at resolutions of nearly 1200 pixels / line to 1300 pixels / line. Therefore, limiting the output resolution in the horizontal direction to 1280 pixels / line has almost no adverse effect on image quality. By providing a display resolution (1280x1080) supported by existing decoding and decompression receiver hardware, receiver manufacturers are minimally affected because only software changes are needed. For certain receivers, such as broadcast satellites, software changes can be downloaded via satellite links and installed remotely. There is no need for a service technician to be involved with such a receiver.

하이브리드 포맷은 지상 및 위성 프로그램 제공자들이 HD 프로그램을 전송하는 것을 주저하기 때문에 유리하다. 위성 트랜스폰더는 초 당 거의 24 메가비트(Mbps)의 데이터스트림을 전송한다. 지상 HDTV 방송은 18 Mbps의 HD 프로그램과 다른 정보(오디오, 프로그램 안내, 조건부 접속, 등과 같은)를 포함하여 19 Mbps까지 전송할 수 있다. 현 위성 트랜스폰더들은 기껏해야 하나의 HDTV 프로그램만을 각각 전달하고, 위성 프로그램 제공자들의 주장하는 HDTV 프로그램은 충분히 이윤적이지 못하다. 수평 프레임 해상도를 1920에서 1280으로 간단히 감소시키는 것은 단일 위성 트랜스폰더를 통한 두 개의 HD 프로그램의 연속적인 전송을 가능하게 하기에는 충분하지 않다. 처리기(22)에 의해 제공된 필터링은 단일 채널을 통한 이러한 이중 HD 전송을 유리하게 허용한다.The hybrid format is advantageous because terrestrial and satellite program providers are reluctant to transmit HD programs. Satellite transponders transmit data streams of nearly 24 megabits per second (Mbps). Terrestrial HDTV broadcasts can carry up to 19 Mbps, including 18 Mbps HD programs and other information (such as audio, program guides, conditional access, etc.). Current satellite transponders deliver at most one HDTV program each, and satellite program providers' claimed HDTV programs are not profitable enough. Simply reducing the horizontal frame resolution from 1920 to 1280 is not enough to enable the continuous transmission of two HD programs through a single satellite transponder. The filtering provided by processor 22 advantageously allows this dual HD transmission over a single channel.

처리기(22)에 의해 제공된 필터링 특성은 다이아몬드, 교차, 및 축에서 축으로의 쌍곡선을 포함하는 여러 형태를 가질 수 있고, 이 경우에는 각 필터에 대해서, 필터링이 대각선적이다. 하나의 가능한 형태인 2-D 쌍곡선은 이러한 응용에서 특히 유리하고, 도 3에 기술된 것처럼 진폭-주파수 응답을 갖는다. 조정 가능한 필터 차단 주파수는 일반적으로 GOP, 프레임 또는 선택된 부분 프레임이 엔코더(24)에 의해 균일하게 압축되도록 설정된다. 만약 필요하다면, 추가적인 수평 및 수직 고주파수 정보는 필터링될 수 있지만, 이것은 일반적으로 요구되지 않는다. 화상 복잡도가 변함에 따라, 또는 유효 비트율이 증가함에 따라, 대각선 필터 및 이전의 다른 이전 필터에 의해 필터링되는 데이터의 양은 감소한다. 2-D 필터는 일예로 각 방향으로 13개의 탭을 갖는 이차원 FIR(13×13), 또는 2-D 무한 임펄스 응답(IIR) 필터로서 기술될 수 있다.The filtering characteristics provided by the processor 22 can take many forms, including diamonds, intersections, and hyperbolic from axis to axis, in which case the filtering is diagonal for each filter. One possible form, 2-D hyperbola, is particularly advantageous in this application and has an amplitude-frequency response as described in FIG. 3. The adjustable filter cutoff frequency is generally set such that the GOP, frame or selected partial frame is uniformly compressed by the encoder 24. If necessary, additional horizontal and vertical high frequency information can be filtered, but this is not generally required. As the picture complexity changes, or as the effective bit rate increases, the amount of data filtered by the diagonal filter and other previous previous filters decreases. The 2-D filter may be described as, for example, a two-dimensional FIR (13 × 13), or 2-D infinite impulse response (IIR) filter with 13 taps in each direction.

유닛(223)에 포함된 2-D FIR 필터는 다음의 탭 계수를 갖는 13×13 탭 필터 일 수 있다:The 2-D FIR filter included in unit 223 may be a 13 × 13 tap filter with the following tap coefficients:

0 0 0 1 -3 5 -5 5 -3 1 0 0 00 0 0 1 -3 5 -5 5 -3 1 0 0 0

0 0 1 -1 -3 9 -11 9 -3 -1 1 0 00 0 1 -1 -3 9 -11 9 -3 -1 1 0 0

0 1 -1 -4 4 6 -13 6 4 -4 -1 1 0 0 1 -1 -4 4 6 -13 6 4 -4 -1 1 0

1 -1 -4 1 14 -13 4 -13 14 1 -4 -1 1 1 -1 -4 1 14 -13 4 -13 14 1 -4 -1 1

-3 -3 4 14 5 -47 61 -47 5 14 4 -3 -3-3 -3 4 14 5 -47 61 -47 5 14 4 -3 -3

5 9 6 -13 -47 -55 193 -55 -47 -13 6 9 5 5 9 6 -13 -47 -55 193 -55 -47 -13 6 9 5

-5 -11 -13 4 61 193 556 193 61 4 -13 -11 -5-5 -11 -13 4 61 193 556 193 61 4 -13 -11 -5

5 9 6 -13 -47 -55 193 -55 -47 -13 6 9 5 5 9 6 -13 -47 -55 193 -55 -47 -13 6 9 5

-3 -3 4 14 5 -47 61 -47 5 14 4 -3 -3-3 -3 4 14 5 -47 61 -47 5 14 4 -3 -3

1 -1 -4 1 14 -13 4 -13 14 1 -4 -1 1 1 -1 -4 1 14 -13 4 -13 14 1 -4 -1 1

0 1 -1 -4 4 6 -13 6 4 -4 -1 1 0 0 1 -1 -4 4 6 -13 6 4 -4 -1 1 0

0 0 1 -1 -3 9 -11 9 -3 -1 1 0 0 0 0 1 -1 -3 9 -11 9 -3 -1 1 0 0

0 0 0 1 -3 5 -5 5 -3 1 0 0 0 0 0 0 1 -3 5 -5 5 -3 1 0 0 0

이러한 계수에 대해서, DC 이득은 1024이다. 계수는 28개의 독립 계수를 제공하는 팔분대칭(octant symmetry)을 나타낸다. 대칭적인 계수 범위는 조정가능한 필터의 더 빠른 설정을 가능하게 한다. 그러나, 일예로, 필터링되는 영상 또는 범위가 영상의 한 부분에서 다른 특성을 나타낸 경우, 각각의 팔분(octant)은 다를 수 있다.For this coefficient, the DC gain is 1024. Coefficients represent octant symmetry giving 28 independent coefficients. The symmetric coefficient range allows for faster setting of the adjustable filter. However, as an example, when the filtered image or range exhibits different characteristics in one portion of the image, each octant may be different.

처리기(22)의 필터 응답은 각 픽셀에 기초하여 한 세트의 계수로부터 다른 계수까지 연속적으로 변할 수 있다. 따라서, 처리기(22)는 기술되는 것처럼 비트율의 제약하에서 양호한 영상 품질을 유지하기 위해 서로 다른 동작 파라미터를 나타낼 수 있다.The filter response of processor 22 may vary continuously from one set of coefficients to another based on each pixel. Thus, processor 22 may exhibit different operating parameters to maintain good image quality under bit rate constraints as described.

이전에 언급된 것처럼, 처리기(22)는 필터 적합성을 정의하기 위해 사용된 파라미터(들)에 따라 필터에 대해 적합하게 변경될 수 있다. 일예로, 영상 프레임에 있어서의 변동은 상기 영상을 다른 처리과정을 위한 범위로 세그먼트하기 위해 사용될 수 있다. 에지는 중요한 에지가 그 부근의 코딩 에러를 마스킹하는 중요한 영상 특징이고, 상기 에지들은 또한 영상 범위를 정의할 수 있다. 컬러측정법(colorimetry)이 살결 및 하늘과 같은 낮은 복잡도(complexity) 영역을 식별하기 위해 사용될 수 있다. 텍스츄어(texture)도 영역으로서 식별되고 처리될 수 있다. 텍스츄어는 일반적으로 에지보다 덜 중요하다. 그러므로, 텍스츄어는 다른 범위보다 더욱 필터링될 수 있는 범위를 식별한다. 또한, 영화에 관한 성분은 더 높은 코딩 효율과 그로 인한 더 작은 필터링을 필요로 하는 중요한 특징이나 동작을 위치시키기 위해 사용될 수 있다. 배경은 일반적으로 카메라 광학 분야의 깊이에 의해 부드러워지고(softened) 더욱 심도있게 필터링될 수 있다. 팬(pan) 및 주사 정보는 처리기(22)를 통한 다른 처리를 위해 관련 영상의 중심을 정의하기 위해 사용될 수 있다.As mentioned previously, the processor 22 may be modified as appropriate for the filter depending on the parameter (s) used to define the filter suitability. For example, variations in image frames can be used to segment the image into ranges for other processing. An edge is an important image feature where an important edge masks coding errors in the vicinity, and the edges can also define an image range. Colorimetry can be used to identify low complexity areas such as texture and sky. Textures can also be identified and processed as regions. Texture is generally less important than edges. Therefore, the texture identifies a range that can be filtered more than other ranges. In addition, components relating to movies can be used to locate important features or operations that require higher coding efficiency and hence less filtering. The background is generally softened by the depth of the camera optics field and can be filtered more deeply. Pan and scanning information may be used to define the center of the relevant image for other processing through processor 22.

엔코더(24)의 동작은 MPEG2 표준에 호환적이다. 엔코더(24)는 처리기(22)가 성능을 향상시키기 위해 사용할 수 있는 정보를 제어기(28)를 통해 제공할 수 있다. 이러한 정보는 일예로 비트율 정보를 포함할 수 있다. 이러한 비트율 정보는 GOP의 평균 비트율, 프레임 비트율, 및 매크로-블록 또는 블록 비트율을 포함할 수 있다. 처리기(22)의 성능을 향상시킬 수 있는 다른 정보는 이산 코사인 변환 복잡도, 사용될 유형 양자화 매트릭스, 및 사용될 양자화 매트릭스 스텝 사이즈를 포함한다. 또한, 처리기(22)는 엔코딩 성능을 개선시키기 위해 상기 처리기의 동작을 조정하도록 제어기(28)를 통해 엔코더(24)에 정보를 제공할 수 있다.The operation of encoder 24 is compatible with the MPEG2 standard. Encoder 24 may provide information via controller 28 that processor 22 may use to improve performance. Such information may include, for example, bit rate information. Such bit rate information may include the average bit rate, frame bit rate, and macro-block or block bit rate of the GOP. Other information that may improve the performance of the processor 22 includes discrete cosine transform complexity, the type quantization matrix to be used, and the quantization matrix step size to be used. In addition, processor 22 may provide information to encoder 24 through controller 28 to adjust the operation of the processor to improve encoding performance.

공지된 기술을 사용하여 HD 신호가 전송 패킷 데이터스트림에 형성된 후에, 상기 HD 신호는 일예로 그랜드 얼라이언스(Grand Alliance) 규격에서 기술된 것처럼, 공지된 방식으로 수신기에 전송된다. 수신기에서의 완전한 HD 픽셀 해상도를 위해 필요한 업-샘플링을 제외하고, 처리기(22)에 의해 제공되는 신호 처리과정은 그랜드 얼라이언스 호환성 수신기에 있는 디코더로 명확해진다.After the HD signal is formed in the transport packet datastream using known techniques, the HD signal is transmitted to the receiver in a known manner, as described, for example, in the Grand Alliance specification. Except for the up-sampling required for full HD pixel resolution at the receiver, the signal processing provided by processor 22 is clarified to the decoder in the Grand Alliance compatible receiver.

수신기에서, 데이터스트림은 복조되고, 전송 스트림은 공지된 기술을 이용하여 데이터 패킷과 프로그램 정보를 복구하기 위해 처리된다. 상술된 하이브리드 포맷의 HD 프로그램에 대해서, 신호는, 디스플레이가 완전한 HD 신호를 필요로 할 경우 디스플레이 처리기에서 수평 방향으로 업-샘플링된다. 영상 신호에서 수직 라인의 수는 불변한다. 이것은 고선명 영상 재생장치를 통해 디스플레이를 하기 위한 1920×1080 해상도를 갖는 완전한 HD 신호를 재구성한다. 만약 영상 디스플레이 장치가 보다 적은 완전한(full) HD 신호를 필요로 한다면, 상기 신호는 공지된 방법을 통한 디스플레이 전에 영상 재구성 동안에 적절하게 다운-샘플링된다. 현존하는 그랜드 얼라이언스 호환성 수신기들은 하이브리드 신호를 재구성할 수 있도록 소프트웨어 변경을 필요로 한다. 상기 소프트웨어 변경은 그랜드 얼라이언스 표준화 모드로 할당된 수평 및 수직 하드웨어와 소프트웨어 처리 루틴이 인입 신호를 필요로 할 때 독립적으로 선택되도록 한다.At the receiver, the datastream is demodulated and the transport stream is processed to recover data packets and program information using known techniques. For the above-described hybrid format HD program, the signal is up-sampled in the horizontal direction in the display processor when the display needs the complete HD signal. The number of vertical lines in the video signal is unchanged. This reconstructs a complete HD signal with 1920 × 1080 resolution for display through a high definition image playback device. If the video display device requires less full HD signals, the signals are appropriately down-sampled during video reconstruction prior to display through known methods. Existing grand alliance compatible receivers require software modifications to reconstruct the hybrid signal. The software change allows the horizontal and vertical hardware and software processing routines assigned to the grand alliance normalization mode to be independently selected when the incoming signal is needed.

도 4는 엔코딩 시스템을 통한 비디오 영상 신호의 흐름에 대한 흐름도이다. 단계(30)에서, 신호 포맷은 식별되고, 상기 식별 정보는 비디오 신호와 함께 전달된다. 포맷 정보는 일예로 신호가 초 당 24 프레임의 포맷을 갖는 영화로부터의 최초 신호인지, 상기 신호가 비월 또는 순차적인지를 나타낼 수 있다. 만약 비디오 신호가 비월되었다면, 신호는 단계(31)에서 초 당 60 프레임으로 순차 신호로 변환된다. 만약 신호가 3:2 풀 다운에 의해 변환되었다면, 중복 프레임은 단계(32)에서 제거된다. 만약 비디오 신호가 이미 카메라 순차 포맷이라면, 상기 비디오 신호는 단계(34)의 필터로 직접 전달된다. 단계(34)에서, 비디오 신호는 공간적으로 저역-통과 필터링된다. 상기 필터링은 상술된 것처럼 수직, 수평 및 대각선 필터링을 포함한다. 단계(35)에서는 단계(31)에서 비월 신호로부터 변환된 순차 신호를 비월 신호로 재역변환한다. 단계(36)에서, 신호는 단계(32)에서 이전에 삭제된 중복 프레임을 복구하기 위해 3:2 풀 다운된다. 위에서 단계(30)로부터 단계(34)로 직접 전달되는 비디오 신호는 이제 단계(34)에서 단계(38)로 직접 전달된다. 단계(38)에서는, 단계(34,35 및 36) 중 어느 하나의 단계로부터의 비디오 신호가 위에서 정의된 하이브리드 1280×1080 HD 신호 해상도나 원하는 다른 출력 포맷으로 서브샘플링된다. 단계(40)에서, 하이브리드 신호는 이전에 기술된 것처럼 MPEG2 엔코드된다. 단계(42)는 엔코드된 신호를 전송 처리하고, 단계(44)에서는 RF 지상 방송 채널과 같은 출력 채널을 통한 전송을 위해 요구되는 대로 전송 신호를 변조한다. 마지막으로, 단계(46)는 변조된 신호를 전송한다. 단계(42 내지 46)는 공지된 방법을 통해 발생한다.4 is a flowchart illustrating a flow of a video image signal through an encoding system. In step 30, the signal format is identified and the identification information is conveyed with the video signal. The format information may indicate, for example, whether the signal is the first signal from a movie having a format of 24 frames per second, and whether the signal is interlaced or sequential. If the video signal is interlaced, the signal is converted into a sequential signal at 60 frames per second in step 31. If the signal was converted by 3: 2 pull down, the duplicate frame is removed in step 32. If the video signal is already in camera sequential format, the video signal is passed directly to the filter of step 34. In step 34, the video signal is spatially low-pass filtered. The filtering includes vertical, horizontal and diagonal filtering as described above. In step 35, the sequential signal converted from the interlaced signal in step 31 is reconverted into an interlaced signal. In step 36, the signal is pulled down 3: 2 to recover duplicate frames that were previously deleted in step 32. The video signal transmitted directly from step 30 to step 34 above is now passed directly from step 34 to step 38. In step 38, the video signal from any of steps 34, 35 and 36 is subsampled to the hybrid 1280x1080 HD signal resolution defined above or to another desired output format. In step 40, the hybrid signal is MPEG2 encoded as previously described. Step 42 transmits the encoded signal, and in step 44 modulates the transmitted signal as required for transmission over an output channel, such as an RF terrestrial broadcast channel. Finally, step 46 transmits the modulated signal. Steps 42 to 46 occur through known methods.

도 5는 수신기를 통해 전송된 영상 신호의 흐름에 대한 흐름도이다. 이 흐름도는 수신된 신호의 영상 해상도가 위에서 정의된 하이브리드 1280×1080 HD 신호라고 가정한다. 단계(50)에서, 전송된 신호는 튜너에 의해 수신되어 복조된다. 복조된 신호는 단계(52)에서 MPEG2 디코드되고 압축해제된다. 단계(54)에서는 비디오 신호 해상도를 상기 신호와 함께 송신된 제어 정보를 통해 영상 당 1280×1080 픽셀로 식별한다. 그랜드 얼라이언스 MPEG2 프로토콜은 전송된 신호와 함께 영상 해상도 정보를 제공한다. 일반적으로 하이브리드 신호는 임의의 다른 정의된 해상도와같이 특정의 유일한 코드로 식별된다. 또한 하이브리드 신호는 일예로 전송된 데이터의 사용자 데이터에 있는 정보를 통해 달리 정의될 수 있다. 하이브리드 비디오 신호는 단계(56)에서 디스플레이 처리 동안에 완전한 1920×1080 HD 신호로 수평적으로 업-샘플링된다. 하이브리드 신호는 이전에 기술된 것처럼 수신기에 존재하는 기존의 하드웨어와 소프트웨어와 관련하여 새로운 소프트웨어를 통해 업-샘플링된다. 마지막으로, 완전한 HD 비디오 신호는 단계(58)에서 1920×1080 디스플레이 상에 디스플레이 된다. 단계(50,52 및 58)에서는 공지된 방법을 사용한다.5 is a flowchart illustrating a flow of an image signal transmitted through a receiver. This flowchart assumes that the image resolution of the received signal is a hybrid 1280 × 1080 HD signal as defined above. In step 50, the transmitted signal is received and demodulated by the tuner. The demodulated signal is MPEG2 decoded and decompressed in step 52. In step 54, the video signal resolution is identified at 1280 x 1080 pixels per image through the control information sent with the signal. The Grand Alliance MPEG2 protocol provides image resolution information along with the transmitted signal. In general, a hybrid signal is identified by a particular unique code, such as any other defined resolution. Hybrid signals may also be defined differently through information in user data of transmitted data, for example. The hybrid video signal is up-sampled horizontally into a full 1920 × 1080 HD signal during display processing in step 56. The hybrid signal is up-sampled with new software with respect to existing hardware and software present in the receiver as previously described. Finally, the complete HD video signal is displayed on the 1920 × 1080 display in step 58. Steps 50, 52 and 58 use known methods.

위에서 기술된 장치 및 방법은 고선명 디스플레이를 위해 개선된 영상 재구성을 달성하도록 여러 구성으로 응용될 수 있다. 적응 및 비-적응 옵션이 특정 시스템의 요구조건에 따라 사용될 수 있다. 일부 이러한 선택이 아래에서 논의된다.The apparatus and method described above can be applied in various configurations to achieve improved image reconstruction for high definition displays. Adaptive and non-adaptable options may be used depending on the requirements of the particular system. Some of these choices are discussed below.

비-적응 방법은 처리기(22)의 프레임 필터링을 목표 비트율로 설정하고, 모 든 영상이 균일하게 처리되도록 한다. 다른 비-적응 방법은 디스플레이된 영상의 중심이 가장 중요한 영역이라는 가정을 한다. 또한, 상기 비-적응 방법은 영상의 둘레는 덜 중요하고, 따라서 시청자에게도 덜 중요하다고 가정한다. 처리기(22)의 필터 계수는 픽셀의 공간 위치에 대한 함수인 파라미터를 통해 제어기(28)에 의해 설정되고, 모든 영상 정보는 균일하게 처리된다.The non-adaptive method sets the frame filtering of the processor 22 to the target bit rate and allows all images to be processed uniformly. Another non-adaptation method assumes that the center of the displayed image is the most important area. The non-adaptive method also assumes that the perimeter of the image is less important and therefore less important to the viewer. The filter coefficients of the processor 22 are set by the controller 28 via parameters that are a function of the spatial position of the pixel, and all image information is processed uniformly.

적응 옵션은 텍스츄어 모델 파라미터, 국부적인 비디오 변동, 컬러측정법, 또는 소스 영상에 기초한 다른 화상 복잡도 측정치를 사용하여 영상을 수개의 영역들로 분할한다. 처리기(22)의 필터링 특성은 다른 영역마다 적합하게 변경된다.The adaptation option splits the image into several regions using texture model parameters, local video variation, colorimetry, or other picture complexity measures based on the source image. The filtering characteristics of the processor 22 are appropriately changed for different regions.

다른 해결방법은 실제 비트율과 목표 비트율 사이의 차이에 대한 함수에 따라 처리기(22)의 필터링 특성을 적합하게 변경하는 것이다. 이 경우에, 단일 파라미터는 2-D 주파수 응답에 대한 필터 계수의 변화를 제어한다.Another solution is to suitably change the filtering characteristics of the processor 22 as a function of the difference between the actual bit rate and the target bit rate. In this case, a single parameter controls the change in filter coefficients for the 2-D frequency response.

다른 방법은 엔코더(24)에 의해 사용되는 양자화 매트릭스와 호환되도록, 처리기(22)가 제공하는 필터링의 2-D 주파수 응답을 설계하는 것이다. 양자화 매트릭스는 2-D 형태를 갖는 저역-통과 필터로서 간주될 수 있다. 이러한 방법을 위해, 필터 계수의 값은 양자화 매트릭스 스텝 사이즈의 함수일 것이다. 스텝 사이즈는 공지된 엔코더 동작에 따라 변하기 때문에, 대응하는 변화는 대응하는 필터 계수에 대해 발생할 것이다.Another method is to design the 2-D frequency response of the filtering provided by processor 22 to be compatible with the quantization matrix used by encoder 24. The quantization matrix can be considered as a lowpass filter with a 2-D form. For this method, the value of the filter coefficient will be a function of the quantization matrix step size. Since the step size changes in accordance with known encoder operation, corresponding changes will occur for the corresponding filter coefficients.

위에서 언급된 옵션은 본 발명의 원리를 이용하는 시스템의 융통성을 기술한다. 이러한 시스템은 엔코딩 결함과 다른 잡음을 감소시킴으로써 MPEG2 압축 능력을 확장하기 위해 MPEG2 비율 제어 상황내에서 바람직하게 동작한다. HDTV 배치의 융통성과 경제성은 본 발명의 사용을 통해 개선된다. 직접 방송 위성 시스템(즉, 24 MHz 4-PSK)에 전송된 트랜스폰더 당 HD 프로그램의 수는 하나의 프로그램에서 두 개의 프로그램으로 증가하고, 또는 하나의 HD 프로그램이 여러 SD 프로그램을 갖는다. 여러 SD 프로그램을 갖는 하나의 HD 프로그램을 6 MHz 지상 방송 채널로 전송하기 위한 능력은 본 발명의 원리에 따라 획득할 수 있다. 이전에, 방송국은 하나의 채널을 통해서 하나의 HD 프로그램을 전송하거나, 또는 하나의 채널을 통해서 여러 SD 프로그램을 전송하도록 제한되었었다.The above mentioned options describe the flexibility of the system using the principles of the present invention. Such a system preferably operates within an MPEG2 rate control situation to extend MPEG2 compression capability by reducing encoding defects and other noise. The flexibility and economics of HDTV deployment are improved through the use of the present invention. The number of HD programs per transponder transmitted to a direct broadcast satellite system (ie 24 MHz 4-PSK) increases from one program to two programs, or one HD program has several SD programs. The ability to transmit one HD program with several SD programs on a 6 MHz terrestrial broadcast channel can be obtained according to the principles of the present invention. Previously, broadcast stations were limited to transmitting one HD program on one channel or multiple SD programs on one channel.

비록 본 발명은 HD 신호의 전송 및 수신하기 위한 시스템에 대해 기술하고 있지만, 본 발명의 원리는 데이터 저장 시스템과 같은 다른 장치에 적용될 수 있다. 디지털 비디오 디스크(DVD)와 같은 시스템에서, 비디오 데이터는 엔코드되고, 후에 반복재생(replay)하기 위해 저장된다. 저장 매체는 제한된 양의 유효 저장 공간을 구비한다. 만약 엔코드된 프로그램, 영화, 또는 다른 비디오 시퀀스가 매체의 유효 공간 양을 초과하였다면, 프로그램을 적합하도록 하기 위한 추가적인 엔코딩/압축은 용인할 수 없는 결함을 발생시킬 수 있다. 위에서 기술된 본 발명은 프로그램이 디스크에 적합하도록 하는 더 낮은 비트율로 프로그램을 효율적으로 엔코드하기 위해 사용될 수 있다. 또는, 여러 프로그램이 이제 하나의 디스크에 적합하게 될 수 있다. 또한 테이프 상의 디지털 저장은 상술된 것처럼 유리할 수 있다.Although the present invention describes a system for transmitting and receiving HD signals, the principles of the present invention can be applied to other devices such as data storage systems. In a system such as a digital video disc (DVD), video data is encoded and stored for later replay. The storage medium has a limited amount of effective storage space. If an encoded program, movie, or other video sequence has exceeded the effective amount of space in the medium, additional encoding / compression to make the program fit can cause unacceptable defects. The present invention described above can be used to efficiently encode a program at a lower bit rate that allows the program to fit on a disc. Or, several programs can now fit on one disk. Digital storage on tape may also be advantageous as described above.

전술된 바와 같이, 본 발명은 디지털 비디오 엔코더의 대역폭 요구조건을 감소시키기 위한 영상 압축 등에 유리한 효과를 제공한다.As described above, the present invention provides an advantageous effect for image compression or the like to reduce the bandwidth requirement of a digital video encoder.

Claims (15)

비-텔레시네 순차 주사 비디오 신호를 처리하는 방법에 있어서,A method of processing a non-telecine sequential scan video signal, 필터링된 신호를 생성하기 위해, 2차원 필터링을 이용하여 검출된 신호를 적응적으로 필터링하는 단계와,Adaptively filtering the detected signal using two-dimensional filtering to produce a filtered signal, 더 낮은 해상도 신호를 생성하기 위해, 상기 필터링된 신호를 더 낮은 해상도로 변환하는 단계와,Converting the filtered signal to a lower resolution to produce a lower resolution signal; 엔코드된 신호를 생성하기 위해 상기 더 낮은 해상도 신호를 MPEG 엔코딩하는 단계, 및MPEG encoding the lower resolution signal to produce an encoded signal, and 상기 엔코드된 신호를 출력 채널에 전달하는 단계Delivering the encoded signal to an output channel 를 포함하는, 비-텔레시네 순차 주사 비디오 신호를 처리하는 방법.And a non-telecine sequential scanning video signal. 제 1항에 있어서, 상기 필터링 단계는 저역-통과 필터링이고, 상기 엔코딩 단계는 MPEG2 엔코딩인, 비-텔레시네 순차 주사 비디오 신호를 처리하는 방법.The method of claim 1, wherein the filtering step is low-pass filtering and the encoding step is MPEG2 encoding. 비-텔레시네 순차 주사 비디오 신호를 처리하는 방법에 있어서,A method of processing a non-telecine sequential scan video signal, 필터링된 신호를 생성하기 위해, 2차원 필터링을 이용하여 검출된 신호를 필터링하는 단계와,Filtering the detected signal using two-dimensional filtering to produce a filtered signal, 프레임 당 1280×1080 샘플의 해상도를 갖는 더 낮은 해상도 신호를 생성하기 위해, 상기 필터링된 신호를 더 낮은 해상도로 변환하는 단계와,Converting the filtered signal to a lower resolution to produce a lower resolution signal having a resolution of 1280 × 1080 samples per frame; 엔코드된 신호를 생성하기 위해 상기 더 낮은 해상도를 엔코딩하는 단계, 및Encoding the lower resolution to produce an encoded signal, and 상기 엔코드된 신호를 출력 채널에 전달하는 단계Delivering the encoded signal to an output channel 를 포함하는, 비-텔레시네 순차 주사 비디오 신호를 처리하는 방법.And a non-telecine sequential scanning video signal. 고선명 비디오 신호 처리 시스템에서, 프레임 당 1280×1080 데이터 샘플의 해상도를 포함하는, 2개 이상의 영상 해상도를 나타내는 수신된 디지털 비디오 신호를 처리하는 방법에 있어서,In a high definition video signal processing system, a method of processing a received digital video signal representing at least two video resolutions, comprising a resolution of 1280 × 1080 data samples per frame, 2차원 필터링을 이용하여 상기 신호를 적응적으로 필터링하는 단계와,Adaptively filtering the signal using two-dimensional filtering; 디코드된 신호를 생성하기 위해 상기 신호를 디코딩하는 단계와,Decoding the signal to produce a decoded signal; 상기 디코드된 신호의 상기 영상 해상도를 결정하는 단계와,Determining the image resolution of the decoded signal; 만약 상기 디코드된 신호가 라인 당 1280 샘플의 수평 영상 해상도를 갖는다면, 변환된 신호를 생성하기 위해서, 상기 디코드된 신호로부터의 수평 정보를 다른 해상도로 변환하는 단계, 및If the decoded signal has a horizontal image resolution of 1280 samples per line, converting the horizontal information from the decoded signal to another resolution to produce a converted signal, and 상기 변환된 신호를 출력 장치로 전달하는 단계Transmitting the converted signal to an output device 를 포함하는, 디지털 비디오 신호를 처리하는 방법.Including a digital video signal. 제 4항에 있어서, 상기 변환은 업-변환(up-conversion)이고, 상기 다른 해상도는 라인 당 1920 수평 샘플인, 디지털 비디오 신호를 처리하는 방법.5. The method of claim 4, wherein the conversion is up-conversion and the other resolution is 1920 horizontal samples per line. 제 4항에 있어서, 상기 변환은 다운-변환(down-conversion)이고, 상기 다른 해상도는 더 낮은 해상도인, 디지털 비디오 신호를 처리하는 방법.5. The method of claim 4, wherein the conversion is down-conversion and the other resolution is a lower resolution. 제 4항에 있어서, 상기 수신된 디지털 비디오 신호는 MPEG2 호환적인, 디지털 비디오 신호를 처리하는 방법.5. The method of claim 4, wherein the received digital video signal is MPEG2-compatible. 제 1항에 있어서, 상기 적응 필터링은 상기 변환 단계에 의한 신호 서브샘플링과는 독립적인, 비-텔레시네 순차 주사 비디오 신호를 처리하는 방법.2. The method of claim 1, wherein the adaptive filtering is independent of signal subsampling by the transforming step. 제 1항에 있어서, 상기 적응 필터링은 필터링에 앞서는 영상 신호 파라미터의 함수인, 비-텔레시네 순차 주사 비디오 신호를 처리하는 방법.4. The method of claim 1, wherein the adaptive filtering is a function of image signal parameters prior to filtering. 제 1항에 있어서, 상기 적응 필터링 단계 내지 상기 전달 단계를 포함하는 상기 방법은 고정된 영상 프레임 포맷에 대해 동작하는, 비-텔레시네 순차 주사 비디오 신호를 처리하는 방법.The method of claim 1, wherein the method comprising the adaptive filtering step to the forwarding step operates on a fixed image frame format. 제 1항에 있어서, 상기 적응 필터링은 영상 프레임 내에서 적응적인, 비-텔레시네 순차 주사 비디오 신호를 처리하는 방법.The method of claim 1, wherein the adaptive filtering is adaptive within a video frame. 제 11항에 있어서, 상기 적응 필터링은 한 픽셀마다에 기초하여 수행되는, 비-텔레시네 주사 비디오 신호를 처리하는 방법.12. The method of claim 11, wherein the adaptive filtering is performed based on one pixel. 삭제delete 삭제delete 삭제delete
KR1020067001729A 2006-01-25 1997-12-23 Low noise encoding and decoding method KR100647202B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020067001729A KR100647202B1 (en) 2006-01-25 1997-12-23 Low noise encoding and decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020067001729A KR100647202B1 (en) 2006-01-25 1997-12-23 Low noise encoding and decoding method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020007005882A Division KR100591211B1 (en) 1997-12-23 1997-12-23 Low noise encoding and decoding method

Publications (2)

Publication Number Publication Date
KR20060015784A KR20060015784A (en) 2006-02-20
KR100647202B1 true KR100647202B1 (en) 2006-11-23

Family

ID=37124218

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020067001729A KR100647202B1 (en) 2006-01-25 1997-12-23 Low noise encoding and decoding method

Country Status (1)

Country Link
KR (1) KR100647202B1 (en)

Also Published As

Publication number Publication date
KR20060015784A (en) 2006-02-20

Similar Documents

Publication Publication Date Title
US7800690B2 (en) Low noise encoding and decoding apparatus and method
RU2201654C2 (en) Low-noise coding and decoding method
JP4330040B2 (en) System for encoding and decoding layered compressed video data
KR100591211B1 (en) Low noise encoding and decoding method
JP4001914B2 (en) Method for processing data with variable data resolution in variable segments
US6870886B2 (en) Method and apparatus for transcoding a digitally compressed high definition television bitstream to a standard definition television bitstream
CA2150467C (en) Picture-in-picture tv with insertion of a mean only frame into a full size frame
EP0712251A2 (en) Method and apparatus for partially recompressing digital signals
WO2003036808A1 (en) System and method for transcoding
Paik DigiCipher-all digital, channel compatible, HDTV broadcast system
EP1182877A2 (en) Sending progressive video sequences
JPH08331543A (en) Digital television broadcast system
CN1133327C (en) Low noise encoding and decoding method
EP1239679A2 (en) Low noise encoding and decoding apparatus and method
KR100647202B1 (en) Low noise encoding and decoding method
AU2003248178B2 (en) Low noise encoding and decoding apparatus and method
JP4724240B2 (en) How to process a video signal
EP1147508B1 (en) Automatic graphics adaptation to video mode for hdtv
MXPA00006182A (en) Low noise encoding and decoding method
PL185157B1 (en) Apparatus for and method of low-noise encoding and decoding
Netravali Digital HDTV: A technical challenge
Reimers et al. JPEG and MPEG Source Coding of Video Signals

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121019

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20131018

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20141022

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20151016

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20161019

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20171018

Year of fee payment: 12

EXPY Expiration of term