KR20010032113A - Apparatus and method for compressing video information - Google Patents

Apparatus and method for compressing video information Download PDF

Info

Publication number
KR20010032113A
KR20010032113A KR1020007005298A KR20007005298A KR20010032113A KR 20010032113 A KR20010032113 A KR 20010032113A KR 1020007005298 A KR1020007005298 A KR 1020007005298A KR 20007005298 A KR20007005298 A KR 20007005298A KR 20010032113 A KR20010032113 A KR 20010032113A
Authority
KR
South Korea
Prior art keywords
subband
block
macro
data
subbands
Prior art date
Application number
KR1020007005298A
Other languages
Korean (ko)
Other versions
KR100614522B1 (en
Inventor
트루옹 큐. 응구옌
조엘 로시엔
Original Assignee
추후보정
어낼리시스 앤드 테크놀로지, 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 추후보정, 어낼리시스 앤드 테크놀로지, 인코포레이티드 filed Critical 추후보정
Publication of KR20010032113A publication Critical patent/KR20010032113A/en
Application granted granted Critical
Publication of KR100614522B1 publication Critical patent/KR100614522B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/619Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding the transform being operated outside the prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • H04N19/64Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by ordering of coefficients or of bits for transmission
    • H04N19/645Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by ordering of coefficients or of bits for transmission by grouping of coefficients into blocks after the transform
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/115Selection of the code volume for a coding unit prior to coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Complex Calculations (AREA)

Abstract

비디오 이미지를 나타내는 데이터를 유효하게 인코딩하여 디코더에 전달되어야만 하는 데이터의 양을 감소시키기 위한 방법 및 장치가 기술된다. 방법은 한 서브밴드로부터 다른 서브밴드로 나머지들을 전송할 수 있는 텐서 곱 웨이브릿 변환을 사용하는 데이터 세트들을 변환하는 것을 포함한다. 서브밴드의 모음들은 매크로-블록의 형태로 가중되고, 검출되고, 랭크되어 변환된 데이터의 우선순위 결정을 가능하게 한다. 동작 보상 기술은 디코더에 전송하기 위해 비트 스트림 패킷들로 위치 인코딩되는 동작 벡터들 및 예측 오류들을 발생시키는 서브밴드 데이터상에서 수행된다. 제로인 서브밴드 매크로-블록들 및 서브밴드 블록들은 디코더에 전달되어야만 하는 데이터의 양을 더 감소시키기 위해 비트 스트림 패킷들에서 그것만으로 식별된다.A method and apparatus are described for effectively encoding data representing a video image to reduce the amount of data that must be delivered to a decoder. The method includes transforming data sets using a tensor product wavelet transform that can transmit the rests from one subband to another. The vowels of the subbands are weighted in the form of macro-blocks, allowing prioritization of the detected, ranked and transformed data. Motion compensation techniques are performed on subband data generating motion vectors and prediction errors that are position encoded into bit stream packets for transmission to a decoder. Zero subband macro-blocks and subband blocks are identified by themselves in bit stream packets to further reduce the amount of data that must be delivered to the decoder.

Description

비디오 정보를 압축하기 위한 장치 및 방법{APPARATUS AND METHOD FOR COMPRESSING VIDEO INFORMATION}Apparatus and method for compressing video information {APPARATUS AND METHOD FOR COMPRESSING VIDEO INFORMATION}

전송 채널들 상의 유효한 제한 대역폭 때문에, 제한된 수의 비트들만이 오디오 및 비디오 정보를 인코딩하기에 유효하다. 비디오 인코딩 기술은 해당 적용물에 요구된 이미지 질을 여전히 유지하면서 가능한한 적은 비트를 가지고 비디오 정보를 인코딩하려 시도하고 있다. 그러므로, 비디오 압축 기술은 중복 정보를 제거하고 원래 이미지에 대한 근사값이 중요한 특징의 최소 손실만을 보유하고 재구성될 수 있는 최소 수의 비트들을 갖는 나머지 정보를 표시하여 비디오 신호를 전송하는데 필요한 대역폭을 감소시키기 위해 시도하고 있다. 이런 식으로, 압축된 데이터는 원래 이미지 데이터보다 효율적인 방식으로 저장되거나 또는 전송될 수 있다.Because of the effective limited bandwidth on the transport channels, only a limited number of bits are valid for encoding audio and video information. Video encoding techniques attempt to encode video information with as few bits as possible while still maintaining the image quality required for the application. Therefore, video compression techniques reduce the bandwidth required to transmit video signals by removing redundant information and displaying the remaining information with the minimum number of bits that can be reconstructed with only a minimal loss of features where the approximation to the original image is important. I'm trying to. In this way, the compressed data can be stored or transmitted in a more efficient manner than the original image data.

비디오 신호들로부터 통계적인 중복값을 제거하므로써 코딩 효율을 개선시키는 다수의 비디오 인코딩 기술들이 있다. 다수의 표준 이미지 압축 기법은 이산 코사인 변환(DCT) 같은 입력 이미지의 블록 변환을 기초로 한다. 예를 들면, 동 화상 전문가 그룹에 의해 개발되어 잘 공지되어 있는 MPEG 비디오 인코딩 기술은 (DCT의 사용을 통한)공간 영역의 화소들(펠(pel)) 사이의 상관 관계(correlation) 및 (예측 및 동작 보상의 사용을 통한)시간 영역의 이미지 프레임들 사이의 상관관계를 사용하여 유효 비트 레이트 감소를 달성한다.There are a number of video encoding techniques that improve coding efficiency by removing statistical overlap from video signals. Many standard image compression techniques are based on block transformation of input images, such as discrete cosine transform (DCT). For example, the well-known MPEG video encoding technique, developed by a group of video experts, correlates and predicts and correlates between pixels (pels) in the spatial domain (through the use of DCT). Correlation between image frames in the time domain (through the use of motion compensation) is used to achieve effective bit rate reduction.

잘 알려진 직교(orthogonal) 및 바이-오쏘고널(bi-orthogonal) (서브밴드(subband)) 변환 기반 인코딩 시스템(래핑된 직교 변환(lapped orthogonal transforms)을 포함하여)에 있어, 이미지는 그 이미지를 제1 블로킹할 필요없이 변환된다. 변환 인코더는 이미지를 제1 블로킹할 필요없이 DCT를 기초로 한다. DCT를 기초로한 변환 인코더들은 기본적으로 두가지 이유때문에 이미지를 블로킹한다: 1)경험은 DCT가 이미지의 8 x 8영역 상의 공지된 최적 변환(카우엔-루오베(Kahunen-Luove'))에 대한 우수한 근사치 또는 차 이미지의 시퀀스인 것을 보여줬고; 2)DCT의 처리는 0(N log N)이 되고 이미지의 블로킹을 통해 계산 결과가 한정된다.In the well-known orthogonal and bi-orthogonal (subband) transform-based encoding systems (including wrapped orthogonal transforms), the image is transformed into an image. It is converted without the need for the first blocking. The transform encoder is based on the DCT without having to first block the image. DCT-based transform encoders basically block the image for two reasons: 1) The experience is that DCT is known for its best known transform (Kahunen-Luove ') on the 8 x 8 region of the image. Shown to be a good approximation or sequence of difference images; 2) The processing of the DCT becomes 0 (N log N) and the calculation result is limited through blocking of the image.

최종 결과는 다른 방법으로 향상되지 않는다면 DCT 기반 수단이 이미지의 8x8 영역(또는 그 외부의 제로)에 의해 조밀하게 지지되는 기초 함수들을 갖는 것이다. 직교 및 바이-오쏘고널 변환은 고려하에 이미지의 유한 간격으로 우세하게 지지되지만 이웃 공간 영역들과 범위를 공유하는 기본 요소를 가진다. 실예로, 서브밴드 이미지 인코딩 기술은 필터들의 세트를 사용하여 입력 이미지를 다수의 공간 주파수 밴드들로 분할하여 각각의 밴드 또는 채널을 양자화 시킨다. 서브밴드 이미지 인코딩 기술의 상세한 기술은 ″씨. 포딜척(C. Podilchuck) 및 에이. 잭퀸(A. Jacquin)의 Subband Video Coding With Dynamic Bit Allocation and Geometric Vector Quantization, SPIE Vol.1666 Human Vision, Visual Processing, and Digital Display Ⅲ, pp.241-52(1992년 2월)″을 참고할 수 있다. 서브밴드 인코딩 처리의 각각의 단에서, 신호는 이미지의 저역 통과 근사값, 및 이 근사값을 만듦으로써 손실된 세부값을 표시하는 고역 통과 항으로 분할된다.The end result is that the DCT based means have basic functions that are tightly supported by an 8x8 region (or outside of it) of the image, unless otherwise improved. Orthogonal and bi-orthogonal transforms are predominantly supported at finite intervals of the image under consideration, but have the basic elements sharing range with neighboring spatial regions. For example, subband image encoding techniques use a set of filters to divide the input image into multiple spatial frequency bands to quantize each band or channel. A detailed description of the subband image encoding technique is available. C. Podilchuck and A. See A. Jacquin's Subband Video Coding With Dynamic Bit Allocation and Geometric Vector Quantization, SPIE Vol. 1666 Human Vision, Visual Processing, and Digital Display III, pp.241-52 (February 1992). . At each stage of the subband encoding process, the signal is divided into a lowpass approximation of the image, and a highpass term indicating the detail lost by making this approximation.

게다가, DCT 기반 변환 인코더들은 기본 요소들이 전체 8 x 8 블록을 통해 연장되는 지지체를 갖는 점에서 이동 불변이다. 이것은 동작 보상이 변환 영역에서 유효하게 실행되는 것을 방지한다. 그러므로, 사용시에 대부분의 동작 보상 기술은 8 x 8 블복 상에 코딩된 변환인 오류 항을 형성하도록 일시적으로 인접 이미지 프레임들을 사용한다. 결과적으로, 이런 기술들은 기준 프레임을 주파수 영역에서 시간영역으로 제공하기 위해 실행되도록 역변환을 필요로 한다. 이런 시스템들의 실시예들은 스즈키 등에 허여된 미국 특허 제5,481,553호 및 무라카미 등에게 허여된 미국 특허 제5,025,482호에서 발견된다.In addition, DCT based transform encoders are immutable in that the base elements have a support extending through the entire 8x8 block. This prevents the motion compensation from being executed effectively in the conversion area. Therefore, in use, most motion compensation techniques use adjacent image frames temporarily to form an error term that is a transform coded on 8 × 8 bubble. As a result, these techniques require an inverse transform to be implemented to provide the reference frame from the frequency domain to the time domain. Embodiments of such systems are found in US Pat. No. 5,481,553 to Suzuki et al. And US Pat. No. 5,025,482 to Murakami et al.

도1은 DCT를 사용하는 선행 기술 표준 비디오 압축 수단의 단순화된 블록 다이어그램을 도시한다. 블록(10)에서, 이미지 시퀀스의 변화는 예측 모드에 있을 때 MPEG에 사용된 하나의 기술 같은 동작 검출 기술들을 통해 유효하게 표현된다. 특히, 선행 프레임은 기준 프레임으로 사용되며 후속 프레임은, 전방 예측에서, 선행 프레임에 대해 비교되어 시간 중복을 제거하고 정도에 따라 이들 사이의 차이를 랭크시킨다. 이런 단계는 후속 프레임의 동작 예측을 위해 단을 설정하고 후속 프레임의 데이터 크기를 또한 감소시킨다. 블록(12)에서, 이미지의 부분들이 이동되는 것에 관하여 결정이 이루어진다.1 shows a simplified block diagram of a prior art standard video compression means using DCT. In block 10, the change in image sequence is effectively represented through motion detection techniques, such as one technique used in MPEG, when in prediction mode. In particular, the preceding frames are used as reference frames and the subsequent frames are compared against the preceding frames in forward prediction to remove time overlap and rank the differences between them according to degree. This step sets the stage for motion prediction of subsequent frames and also reduces the data size of subsequent frames. At block 12, a determination is made regarding which portions of the image are moved.

블록(10)에 의해 제공된 데이터 세트를 사용하는 MPEG 실시예를 계속하면, 내부프레임 동작 예측은 동작 보상 기술을 기준 프레임 및 후속 프레임에 적용하므로써 실행된다. 결과적인 예측치는 후속 프레임으로부터 감산되어 예측 오류/프레임을 발생시킨다. 이후, 블록(14)에서, 변화들은 특징으로 전환된다. MPEG에서, 이것은 2차원 8 x 8 DCT를 사용하여 예측 오류를 압축시키므로써 실행된다.Continuing with the MPEG embodiment using the data set provided by block 10, intraframe motion prediction is performed by applying motion compensation techniques to the reference frame and subsequent frames. The resulting prediction is subtracted from subsequent frames to generate prediction errors / frames. Then, at block 14, the changes are converted to features. In MPEG, this is done by compressing the prediction error using a two-dimensional 8 x 8 DCT.

DCT 또는 서브밴드 인코더들에 기초한 대부분의 비디오 압축 기술은 변환 단에서 정밀도의 손실없이 비디오 정보를 인코딩하려 시도하는 고 정밀 기술에 집중된다. 그러나, 이런 고 정밀 정밀 인코딩 기술은, 부동 소수점 산술연산의 조작을 보조하기 위한 전용 하드웨어를 가지므로써 고도의 정밀도를 유지하기 위해 불리한 조건을 감소시키는, 인텔사의 PENTIUM 프로세서 같은 상대적으로 값비싼 마이크로프로세서들에 의존한다.Most video compression techniques based on DCT or subband encoders concentrate on high precision techniques that attempt to encode video information without loss of precision at the transform stage. However, this high precision precision encoding technique is relatively expensive microprocessors such as Intel's PENTIUM processor, which reduces the adverse conditions to maintain high precision by having dedicated hardware to assist in the manipulation of floating point arithmetic. Depends on

그러나, 다수의 적용에 있어서, 이런 상대적으로 값비싼 하드웨어가 실용적이거나 정당화되지 않는다. 그러므로, 수용가능한 이미지 질 수준을 유지시키는 보다 낮은 비용 실현이 또한 필요하다. 보다 저가의 하드웨어에서 실현될 수 있는 공지된 제한된 정밀 변환은, 그러나, 인코딩 처리의 ″로시(lossy)″ 특징의 결과로서 감소된 정밀도를 표시하는 경향이 있다. 본문에 사용된 바와 같이, 인코더의 다양한 단들을 통해 정밀도를 손실하여 디코딩시 변환 계수들로부터 입력을 실질적으로 재구성하는 능력을 결핍하는 시스템을 칭한다. 이런 저 정밀 변환에 의해 표시된 감소된 정밀도에 대해 보상을 할 수 없는것은 이런 변환들의 사용에 대해 장애가 되었다.However, in many applications, such relatively expensive hardware is not practical or justified. Therefore, there is also a need for lower cost realization to maintain acceptable image quality levels. Known limited precision conversions that can be realized in lower cost hardware, however, tend to indicate reduced precision as a result of the ″ lossy ″ feature of the encoding process. As used herein, it refers to a system that loses precision through various stages of an encoder and lacks the ability to substantially reconstruct input from transform coefficients in decoding. The inability to compensate for the reduced precision indicated by these low precision transforms has been an obstacle to the use of these transforms.

전술한 것에 비추어, 변환 영역의 동작 보상을 이행하여 인코더의 역변환의 필요를 제거하고 소프트웨어 및 하드웨어 장치를 위한 단순한 제어 구조를 가능하게 하는 비디오 인코더가 필요하다. 저비용 하드웨어 및 고속 소프트웨어 장치를 가능하게 하는 제어 구조를 포함하는 저 정밀 구현에 적절한 종류의 변환을 갖는 비디오 인코더가 당분야에서 또한 필요하다.In view of the foregoing, there is a need for a video encoder that implements motion compensation of the transform domain to eliminate the need for inverse transform of the encoder and to enable a simple control structure for software and hardware devices. There is also a need in the art for a video encoder having a kind of conversion suitable for low precision implementation, including a control structure that enables low cost hardware and high speed software devices.

발명의 요약Summary of the Invention

본 발명은 데이터를 압축하기 위한 신규하고 독특한 장치 및 방법에 관한 것이다. 보다 상세하게는, 본 발명의 장치 및 방법은 실예로 비디오 이미지를 나타내는 데이터를 보다 유효하게 인코딩하여 디코더에 전송되어야만 하는 데이터의 양을 감소시키기에 적합하게 형성된다.The present invention relates to a novel and unique apparatus and method for compressing data. More specifically, the apparatus and method of the present invention are suitably formed to, for example, more effectively encode data representing a video image to reduce the amount of data that must be transmitted to the decoder.

본 발명은 제1 데이터 세트 및 제2 데이터 세트를 포함하는 데이터를 압축하는 방법에 관한 것이다. 방법은 제1 및 제2 데이터 세트를 상응하는 제1 및 제2 변환 계수 세트로 변환하는 것을 포함한다. 이후, 제1 및 제2 변환 계수 세트들 사이의 차이를 표시하는 데이터가 발생된다. 이후 발생된 데이터는 디코더에 전송을 위해 인코딩된다.The present invention relates to a method of compressing data comprising a first data set and a second data set. The method includes converting the first and second data sets into corresponding first and second transform coefficient sets. Thereafter, data indicating the difference between the first and second transform coefficient sets is generated. The generated data is then encoded for transmission to the decoder.

제1 및 제2 데이터 세트를 변환하는 것은 텐서 곱 웨이브릿 변환(tensor product wavelet transform)을 사용하여 이행될 수 있다. 더욱이, 변환 처리로부터 발생된 나머지들은 한 서브밴드에서 다른 서브밴드로 전송될 수 있다.Transforming the first and second data sets may be implemented using a tensor product wavelet transform. Moreover, the rests resulting from the conversion process can be transmitted from one subband to another.

제1 및 제2 변환 계수 세트들 사이의 차이를 나타내는 데이터는 제1 및 제2 변환 계수 세트들 사이의 차이를 추정하므로써 발생되어 동작 벡터들을 제공한다. 동작 벡터들은 제1 변환 계수 세트에 적용되어 제2 변환 계수 세트의 예측치를 발생시킨다. 예측치는 제2 변환 계수 세트로부터 감산되어 예측 오류의 세트를 초래한다. 제1 및 제2 변환 계수 세트들은 오류 보정되어 인코더와 디코더 사이의 동기를 보장할 수 있다.Data indicative of the difference between the first and second transform coefficient sets is generated by estimating the difference between the first and second transform coefficient sets to provide motion vectors. The motion vectors are applied to the first set of transform coefficients to generate predictions of the second set of transform coefficients. The prediction value is subtracted from the second set of transform coefficients resulting in a set of prediction errors. The first and second transform coefficient sets may be error corrected to ensure synchronization between the encoder and the decoder.

제1 및 제2 변환 계수 세트들 사이의 차이를 추정시에, 검색 영역은 제1 및 제2 변환 계수 세트들 중 하나로부터의 변환 계수들의 서브세트 주위에서 발생된다. 이후에, 관련된 변환 계수들의 서브세트는 제1 및 제2 변환 계수 세트들 중 나머지로부터 검색 영역으로 적용된다. 그후, 관련된 변환 계수들의 서브세트는 최량의 증가 매치를 나타내는 위치까지 검색 영역내에서 점증적으로 트래버스된다. 관련된 서브세트는 그 다음에 최량의 분수 매치(fractional match)를 나타내는 위치까지 검색영역 내에서 분수적으로 트래버스될 수 있다.In estimating the difference between the first and second transform coefficient sets, a search region is generated around a subset of the transform coefficients from one of the first and second transform coefficient sets. Thereafter, the subset of relevant transform coefficients is applied to the search region from the remainder of the first and second transform coefficient sets. The subset of relevant transform coefficients is then traversed incrementally within the search region to the position representing the best incremental match. The relevant subset can then be traversed fractionally within the search region up to the position representing the best fractional match.

제1 데이터 세트 및 제2 데이터 세트를 포함하는 데이터를 압축하는 방법의 다른 실시예는 제1 및 제2 데이터 세트들을 상응하는 제1 및 제2 서브세트들의 모음들로 변환하는 것을 포함한다. 그 다음에, 서브밴드들의 제1 및 제2 모음들 사이의 차이를 나타내는 데이터를 발생시킨다. 데이터는 실예로, 동작 보상 기술을 수행하여 발생될 수 있다. 동작 보상 기술은 동작 벡터들 및 예측 오류들 같은 출력을 제공할 수 있다. 이후에, 발생된 데이터가 디코더로의 전송을 위해 인코딩된다.Another embodiment of a method of compressing data comprising a first data set and a second data set includes converting the first and second data sets into corresponding collections of first and second subsets. Then, data representing the difference between the first and second collections of subbands is generated. The data may be generated, for example, by performing motion compensation techniques. Motion compensation techniques can provide output such as motion vectors and prediction errors. Thereafter, the generated data is encoded for transmission to the decoder.

실시예는 서브밴드 매크로-블록 그루핑을 형성하기 위해 제2 모음의 서브밴드 매크로-블록 패킹될 수 있다. 이후에, 발생된 데이터는 이하의 동작 보상 기술을 통해 얻어질 수 있다. 서브밴드의 제1 모음과 서브밴드 매크로-블록 그루핑 사이의 차이는 추정되어 동작 벡터들을 제공한다. 동작 벡터들은 서브밴드들의 제2 모음의 예측치를 발생시키는 서브밴드들의 제1 모음에 적용된다. 예측치는 이후에 예측 오류의 세트를 초래하는 서브밴드들의 제2 모음으로부터 감산된다.Embodiments may be subband macro-block packed of a second collection to form subband macro-block grouping. The generated data can then be obtained through the following motion compensation techniques. The difference between the first collection of subbands and the subband macro-block grouping is estimated to provide motion vectors. The motion vectors are applied to a first collection of subbands that yields a prediction of the second collection of subbands. The prediction is then subtracted from the second collection of subbands resulting in a set of prediction errors.

차이는 이하의 서브밴드들의 제1 모음과 서브밴드 매크로-블록 그루핑 사이에서 추정될 수 있다. 검색영역은 서브밴드들의 제1 모음으로부터 변환 계수들의 서브세트에 대해 발생된다. 서브밴드 매크로-블록 그루핑으로부터의 관련된 변환 계수들의 서브세트는 검색 영역에 적용된다. 관련된 변환 계수들의 서브세트는 최량의 증가 매치를 나타내는 위치까지 검색 영역내에서 점증적으로 트래버스된다. 그 다음에, 관련된 변환 계수들의 서브세트는 최량의 분수 매치를 나타내는 위치까지 검색 영역내에서 분수적으로 트래버스된다.The difference can be estimated between the first collection of subbands below and subband macro-block grouping. A search region is generated for a subset of transform coefficients from the first collection of subbands. The subset of related transform coefficients from the subband macro-block grouping is applied to the search region. The subset of related transform coefficients is traversed incrementally within the search region to the position that represents the best incremental match. The subset of relevant transform coefficients is then traversed fractionally in the search region to the position representing the best fractional match.

서브밴드 매크로-블록 패킹 방법은 이미지의 변환으로부터 유도된 서브밴드들의 모음의 서브밴드 블록들을 구성하기 위해 또한 기술된다. 방법은 이미지의 이미지 매크로-블록에 상응하는 서브밴드들의 모음으로부터 관련된 서브밴드 블록들의 세트를 분리하는 것을 포함한다. 관련된 서브밴드 블록들의 세트는 서브밴드 매크로-블록으로서 함께 패킹된다. 관련된 서브밴드 블록들을 분리시키고 패키하는 단계들은 서브밴드 매크로-블록 그루핑을 형성하기 위해 서브밴드들의 모음의 관련된 서브밴드 블록들의 각각의 세트에 대해 반복된다.The subband macro-block packing method is also described for constructing subband blocks of a collection of subbands derived from the transformation of an image. The method includes separating a set of related subband blocks from a collection of subbands corresponding to an image macro-block of an image. The set of related subband blocks is packed together as a subband macro-block. The steps of separating and packaging the related subband blocks are repeated for each set of related subband blocks of the collection of subbands to form subband macro-block grouping.

매크로-블록 패킹을 위한 방법은 서브밴드 매크로-블록 내의 관련된 서브밴드 블록들의 세트를 서브밴드 블록들이 서브밴드의 모음에서 점유하는 동일한 상대적 위치에 정렬시키므로써 보다 세분(refined)될 수 있다. 방법은 상응하는 이미지 매크로-블록이 이미지 블록 매크로-블록 그루핑내에 위치됨에 따라 서브밴드 매크로-블록 그루핑내의 서브밴드 매크로-블록을 동일한 공간적 위치에 위치시키는 것을 또한 포함할 수 있다.The method for macro-block packing can be further refined by aligning the set of related subband blocks within the subband macro-block to the same relative position that the subband blocks occupy in the collection of subbands. The method may also include positioning the subband macro-blocks within the subband macro-block grouping at the same spatial location as the corresponding image macro-block is located within the image block macro-block grouping.

매크로-블록 패킹 이후에, 변화는 제1 서브밴드 매크로-블록 그루핑(기준)과 차후의 제2 서브밴드 매크로-블록 그루핑 사이에서 검출될 수 있다. 검출은 이하 일반식에 따른 왜곡 평가에 기초한다:After macro-block packing, a change can be detected between the first subband macro-block grouping (reference) and the subsequent second subband macro-block grouping. Detection is based on distortion assessment according to the following general formula:

여기서 ec= 기준치 R에 대한 상대적인 왜곡의 측정치;Where e c = measurement of distortion relative to reference value R;

Wi= 적용된 가중치;W i = weight applied;

G = 제2 서브밴드 매크로-블록 그루핑의 변환 계수들; 및G = transform coefficients of the second subband macro-block grouping; And

R = 기준치(실예로, 제1 서브밴드 매크로-블록 그루핑)R = reference value (eg, first subband macro-block grouping)

왜곡을 평가하기위한 등식의 보다 특성한 형태는 이하 형태:A more specific form of equation for evaluating distortion is:

이다.to be.

본 발명의 다른 실시예는 데이터 세트를 변환 계수들로 변환하는 유한 정밀 방법으로 기술되는데, 여기에서, 데이터 세트는 텐서 곱 웨이브릿 쌍을 사용하여 변환되고 이로부터 나오는 나머지들은 대향 필터 경로에 전달된다. 보다 상세하게는, 실시예가 이미지의 저역 통과 성분 및 고역 통과 성분을 결정하는 것을 포함할 수 있다. 저역 통과 성분은 저역 통과 정규화 출력 및 제1 나머지(rl)를 방생시키도록 정규화된다. 마찬가지로, 고역 통과 성분은 고역 통과 정규화 출력 및 제2 나머지(rh)를 발생시키도록 정규화 된다. 제1 연산(g(rl,rh))이 제1 및 제2 나머지(rl,rh)들에서 수행되고 이로부터 나온 결과들에 가산되어 근사치가 된다. 제2 연산(f(rl,rh))이 제1 및 제2 나머지(rl,rh)들에서 수행되고 이로부터 나온 결과들에 가산되어 세부치가 된다. 나머지의 전달(오류의 전달)은 단지 텐서 곱이 아닌 임의의 변환으로 사용될 수 있음을 인지하는 것은 중요하다.Another embodiment of the invention is described in a finite precision method of transforming a data set into transform coefficients, where the data set is transformed using a tensor product wavelet pair and the remainder from it is passed to the opposite filter path. . More specifically, embodiments may include determining low pass components and high pass components of an image. The low pass component is normalized to produce a low pass normalization output and a first remainder rl. Similarly, the high pass component is normalized to produce a high pass normalization output and a second remainder rh. The first operation g (rl, rh) is performed on the first and second remainders (rl, rh) and added to the results therefrom to approximate. The second operation f (rl, rh) is performed on the first and second remainders rl, rh and added to the results from it to detail. It is important to note that the rest of the propagation (the propagation of error) can be used for any transformation, not just a tensor product.

상기 유한 정밀 방법은 이미지의 과완결 표시를 초래한다. 방법은 실예로, 변환 영역의 이미지를 나타내는 필요하고 충분한 변환 계수들을 얻기위해 고역 및 저역 통과 성분들의 둘씩의 다운샘플링을 포함할 수 있다.The finite precision method results in overcomplete display of the image. The method may include, for example, downsampling of both the high and low pass components to obtain the necessary and sufficient transform coefficients representing an image of the transform region.

유한 정밀 방법의 실시예는 값 -1,2,6,2,-1을 갖는 저역 통과 필터 및 값 -1,2,-1을 갖는 고역 통과 필터를 포함한다. 제1 연산(g(rl,rh)) 및 제2 연산(f(rl,rh))는 이하 함수:Embodiments of the finite precision method include a low pass filter having a value of -1,2,6,2, -1 and a high pass filter having a value of -1,2, -1. The first operation g (rl, rh) and the second operation f (rl, rh) have the following functions:

g(rl,rh)=rh; 및g (rl, rh) = rh; And

f(rl,rh)=floor(rh + 1/2), 여기에서 nh = 1/2를 갖는다.f (rl, rh) = floor (rh + 1/2), where nh = 1/2.

상기를 포함하는 텐서 곱 웨이브릿 변환의 특정 실시예는 이하 형태:Certain embodiments of the tensor product wavelet transform including the above are of the form:

여기에서, X2i= 입력 데이터;Where X 2i = input data;

X2i-1= 입력 데이터 X2i에 선행하는 데이터;X 2i-1 = data preceding input data X 2i ;

X2i+1= 입력 데이터 X2i를 뒤따르는 데이터;X 2i + 1 = data following the input data X 2i ;

Di= 세부 항(데서메이팅된 고역 통과 필터 출력);D i = detail term (decimated high pass filter output);

Di+1= Di를 뒤따르는 세부 항; 및D i + 1 = detail term following D i ; And

Ai= 근사 항(데서메이팅된 저역 통과 필터 출력).A i = approximation (described low pass filter output).

변환 영역의 순차 프레임들 사이의 변화를 예측하기 위한 인코더 장치가 또한 기술된다. 장치들은 프레임들의 시퀀스의 제1 프레임 및 제2 프레임을 수신하도록 형성된 입력을 가지며, 각각이 변환 계수들의 세트를 지지하는 서브밴드의 상응하는 제1 및 제2 모음을 이로부터 발생시키기 위해 추가로 형성되는 변환 장치를 포함한다. 변환장치에 결합된 입력부를 갖는 동작 보상 장치는 서브밴드의 제1 및 제2 모음을 수신하기 위해 형성되며 서브밴드들의 제1 및 제2 모음 사이의 차이를 유효하게 나타내기 위해 추가로 형성된다. 변환 장치에 결합된 입력부 및 동작 보상 장치의 출력에 결합된 입력부를 갖는 차이 블록이 또한 포함된다. 동작보상 장치로부터 수신된 입력은 차이 블록에서 서브밴드들의 제2 모음으로부터 가산되어 예측 오류를 발생시킨다.Also described is an encoder apparatus for predicting a change between sequential frames of a transform region. The apparatuses have inputs configured to receive a first frame and a second frame of the sequence of frames, and further formed to generate corresponding first and second collections of subbands, each supporting a set of transform coefficients. And a conversion device. A motion compensation device having an input coupled to the converter is formed to receive the first and second vowels of the subbands and is further formed to effectively indicate the difference between the first and second vowels of the subbands. Also included is a difference block having an input coupled to the conversion device and an input coupled to the output of the motion compensation device. The input received from the motion compensation apparatus is added from the second collection of subbands in the difference block to generate a prediction error.

동작 보상 장치는 서브밴드들의 제1 및 제2 모음을 비교하기 위해 형성된 동작 추정 장치를 포함한다. 서브밴드들의 제1 및 제2 모음들 사이의 차이를 근사적으로 나타내는 동작 벡터들의 모음이 이로부터 발생된다. 동작 보상 장치는 또한 동작 추정 장치에 결합된 입력을 가지며, 동작 벡터들 및 서브밴드들의 제1 모음을 수신하기 위해 형성되고, 서브밴드들의 제2 모음의 예측치를 나타내는 예측 그루핑을 이로부터 발생시키기 위해 추가로 형성되는 동작 예측 장치를 포함한다. 서브밴드들의 제2 모음의 예측치는 예측 오류를 초래하는 차이 블록에서 서브밴드들의 제2 모음으로부터 감산된다.The motion compensation device includes a motion estimation device configured for comparing the first and second collections of subbands. A collection of motion vectors is generated therefrom that approximately represents the difference between the first and second collections of subbands. The motion compensation device also has an input coupled to the motion estimation device, configured to receive motion vectors and a first collection of subbands, and to generate therefrom a predictive grouping that represents a prediction of the second collection of subbands. And a motion prediction device further formed. The prediction of the second collection of subbands is subtracted from the second collection of subbands in the difference block resulting in prediction error.

이미지 프레임을 변환 영역으로 변환시키기 위한 유한 정밀 변환 장치가 또한 기술된다. 장치는 병렬로 배치되며 이미지 프레임을 수신하기 위해 형성되는 입력을 공유하는 저역 통과 성분 및 고역 통과 성분을 포함한다. 저역 통과 성분의 출력을 수신하기 위해 형성된 입력을 가지며 저역 통과 정규화 출력 및 제 1 나머지(rl)를 발생시키기 위해 추가로 형성되는 저역 통과 정규화 장치가 포함된다. 고역 통과 정규화 장치는 고역통과 성분의 출력을 수신하기 위해 형성된 입력부를 가지며 고역 통과 정규화 출력 및 제2 나머지(rh)를 발생시키기 위해 추가로 형성된다. 제1 연산 장치는 제1 나머지(rl) 및 제2 나머지(rh)를 수신하기 위해 형성되는 입력을 가지며 제1 연산(f(rl,rh))을 계산하기 위해 추가로 형성되어 제1 연산 결과를 발생시킨다. 제2 연산 장치는 제1 나머지(rl) 및 제2 나머지(rh)를 수신하기 위해 형성된 입력을 가지며 제2 연산(f(rl,rh))을 계산하기 위해 형성되어 제2 연산 결과를 발생시킨다. 게다가, 제1 가산기는 제1 저역 통과 정규화 출력 및 제1 연산 결과를 수신하기 위해 형성된 입력을 가지는데, 제1 가산기는 서브밴드 근사값을 발생시킨다. 유사하게, 제2 가산기는 고역 통과 정규화 출력 및 제2 계산 결과를 수신하기 위해 형성된 입력부를 가지는데, 제2 가산기는 서브밴드 세부값을 발생시킨다.A finite precision conversion device for converting an image frame into a conversion region is also described. The apparatus includes a low pass component and a high pass component that are arranged in parallel and share an input formed to receive an image frame. A low pass normalization device is included that has an input configured to receive an output of the low pass component and is further formed to generate a low pass normalization output and a first remainder rl. The high pass normalization device has an input configured to receive the output of the high pass component and is further formed to generate a high pass normalization output and a second remainder rh. The first computing device has an input formed to receive the first remainder rl and the second remainder rh, and is further formed to calculate the first operation f (rl, rh), the first calculation result. Generates. The second computing device has an input configured to receive the first remainder rl and the second remainder rh and is formed to calculate the second operation f (rl, rh) to generate a second calculation result. . In addition, the first adder has an input configured to receive the first low pass normalization output and the first operation result, the first adder generating a subband approximation. Similarly, the second adder has an input configured to receive the high pass normalization output and the second calculation result, the second adder generating subband details.

유한 정밀 변환 장치는 저역 통과 출력의 제1 다운샘플러 및 고역 통과 출력의 제2 다운샘플러를 추가로 포함한다. 둘의 다운샘플링은 입력 이미지를 재구성하기에 충분하고 필요한 변환 계수들을 디코더에 제공한다.The finite precision converter further includes a first downsampler of low pass output and a second downsampler of high pass output. Both downsampling is sufficient to reconstruct the input image and provide the decoder with the necessary transform coefficients.

본문에 기술된 장치 및 방법의 이런 그리고 다른 독특한 특징들은 도면들과 결합하여 취해진 이하의 상세한 설명으로부터 보다 용이하게 명백해질 것이다.These and other unique features of the apparatus and method described herein will become more readily apparent from the following detailed description taken in conjunction with the drawings.

본 출원은 본문에 참고로 인용되는, 1997년 11월 14일자 출원된 가특허 출원 제60/066,638호의 우선권혜택을 주장한다.This application claims the benefit of Provisional Patent Application No. 60 / 066,638, filed November 14, 1997, which is incorporated herein by reference.

본 발명은 일반적으로 비디오 정보를 인코딩 및 디코딩하기 위한 장치 및 방법에 관한 것이다. 보다 상세하게는, 본 발명은 변환 영역에서의 이동 추정 및 이동 예측을 위한 장치 및 방법에 관한 것이다.The present invention relates generally to an apparatus and method for encoding and decoding video information. More specifically, the present invention relates to an apparatus and method for motion estimation and motion prediction in a transform domain.

본 발명의 대표적인 실시예들이 이하 도면들을 참고로 기술될 것이다.Exemplary embodiments of the invention will be described with reference to the drawings below.

도 1은 동작 보상이 이미지 영역에서 이행되는 이산 코사인 변환(DCT)를 사용하는 선행기술 표준 비디오 압축 기법의 개략적인 블록 다이어그램이다.1 is a schematic block diagram of a prior art standard video compression technique using discrete cosine transform (DCT) in which motion compensation is implemented in an image region.

도 2는 동작 보상이 변환 영역에서 이행되기 위한 준비를 포함하는 본 발명의 실시예의 일반적인 배치를 예시하는 개략적인 블록 다이어그램이다.FIG. 2 is a schematic block diagram illustrating a general arrangement of an embodiment of the present invention including preparation for motion compensation to be implemented in the transform domain.

도 3은 도 2에 예시된 실시예의 보다 상세한 배치의 개략적인 블럭 다이어그램이다.3 is a schematic block diagram of a more detailed arrangement of the embodiment illustrated in FIG. 2.

도4(a)는 이미지 매크로-블록(IMBX,X)0,0 내지 8,10을 갖는 QCIF이미지를 예시하며 도4(b)는 이미지 프레임이 전방 웨이브릿(wavelet) 변환에 의해 변환되어진 이후 QCIF 이미지의 서브밴드 표현을 예시한다.Fig. 4 (a) illustrates a QCIF image with image macro-blocks (IMB X, X ) 0,0 to 8,10 and Fig. 4 (b) shows that the image frame is converted by a forward wavelet transform. The subband representation of the QCIF image is then illustrated.

도 5(a)는 도 4(b)에 예시되는 것과 같은 QCIF이미지의 서브밴드 표현을 예시하며, 도5(b)는 도5(a)에 예시된 서브밴드 표현으로부터 생성된 서브밴드 매크로-블록들(SMBX,X)의 모음을 예시하고, 도5(c)는 도5(b)의 서브밴드 매크로-블록들의 구조를 예시하므로써, 서브밴드 매크로-블록(SMBX,X)들은 도 4(a)의 이들의 관련된 이미지 매크로-블록들(IMBX,X)과 공간적으로 상응된다.FIG. 5 (a) illustrates a subband representation of a QCIF image as illustrated in FIG. 4 (b), and FIG. 5 (b) shows a subband macro-generated from the subband representation illustrated in FIG. 5 (a). illustrates a set of blocks (SMB X, X), and Figure 5 (c) is the subband macro 5 (b) even-by illustrating the structure of the blocks, the sub-band macro-block (SMB X, X) are also Spatially corresponds to their associated image macro-blocks (IMB X, X ) of 4 (a).

도6(a) 및 도6(b)는 입력 이미지를 변환시키고 데서메이팅하기 위한 필터뱅크 및 각각의 필터뱅크로부터 생성된 그 해당 수직 및 수평 서브밴드들을 예시하는 개략적인 블록 다이어그램들이다.6 (a) and 6 (b) are schematic block diagrams illustrating filterbanks for transforming and desmeating the input image and their corresponding vertical and horizontal subbands generated from each filterbank.

도7은 고 대역 영역에서 저대역 영역으로 및 역으로, 저대역 영역에서 고대역 영역으로 필터뱅크내 유한 정밀도 연산치를 전달하기 위한 구조를 예시한다.FIG. 7 illustrates a structure for delivering finite precision calculations in a filter bank from the high band region to the low band region and vice versa, from the low band region to the high band region.

도8은 검색 밴드가 P x P 펠인 이미지 영역의 이미지 매크로-블록(2,4)(IMB2,4)에 상응하는 각각의 서브밴드(SBij)에 대한 변환 영역의 검색 영역을 도시하며 입력 이미지 크기가 QCIF에 있을 때 SB0의 그것에 대한 검색 영역을 보다 상세히 한다.Fig. 8 shows the search region of the transform region for each subband SB ij corresponding to the image macro-blocks 2,4 (IMB 2,4 ) of the image region in which the search band is P × P pel. When the image size is in QCIF, the search area for it in SB 0 is more detailed.

도9(a) 내지 9(d)는 동작이 변환 영역에서 추정되는 방법을 도시한다.9 (a) to 9 (d) show how the operation is estimated in the transform domain.

도10은 동작이 변환 영역에서 예측되는 방법을 도시한다.Figure 10 shows how the operation is predicted in the transform domain.

도11은 도2에 도시된 실시예의 다른 상세한 배치를 예시하는 개략적인 블록 다이어그램이다.FIG. 11 is a schematic block diagram illustrating another detailed arrangement of the embodiment shown in FIG.

도12는 동작 추정이 이미지 영역에서 실행되며 동작 예측이 변환 영역에서 실행되는 본 발명의 다른 상세한 실시예를 도시하는 개략적인 블록 다이어그램이다.Figure 12 is a schematic block diagram illustrating another detailed embodiment of the present invention in which motion estimation is performed in the image region and motion prediction is performed in the transform region.

도13은 입력 크기가 QCIF일 때 이미지 매크로-블록(2,4)(IMB2,4)에 대한 이미지 영역에서의 검색 때 P x P 펠 검색 영역을 도시한다.Figure 13 shows the P x P Pel search area when searching in the image area for the image macro-blocks 2, 4 (IMB 2 , 4) when the input size is QCIF.

도14는 동작 추정 및 동작 예측이 이미지 영역에서 실행되는 본 발명의 다른 상세한 실시예를 도시하는 개략적인 블록 다이어그램이다.14 is a schematic block diagram illustrating another detailed embodiment of the present invention in which motion estimation and motion prediction are performed in an image region.

본 발명의 실시예는 한정된 정밀 변환 기술을 사용하여 디지털 비디오 신호를 압축하기 위한 장치 및 방법을 제공한다. 실시예는 선행기술에서와 같은 시간 영역에서 보다는 오히려 변환 영역에서 동작 보상에 의해 실예로, 동작을 추정하고 예측하여 로스리스(loss-less) 또는 로시(lossy) 변환 기반 기술들을 개선시킨다. 이런 방식으로, 개선된 이미지 질이 덜 비싼 하드웨어상에서 실현될 수 있다.Embodiments of the present invention provide an apparatus and method for compressing digital video signals using limited precision conversion techniques. Embodiments improve loss-less or lossy transform based techniques, for example by estimating and predicting motion by motion compensation in the transform domain rather than in the time domain as in the prior art. In this way, improved image quality can be realized on less expensive hardware.

용어 ″동작 보상(motion compensation)″은 그 가장 넓은 의미로 정의되도록 의도된다. 달리 말하자면, 동작보상이 비록 화소 그룹의 동작 추정 및 동작 예측을 포함하는 것으로 본문에 종종 기술되고 예시될 지라도, 그것은 또한 실예로, 회전 및 스케일을 포함하는 것으로 이해되어야한다. 게다가, 용어″동작 보상″은 실예로, 두 세트의 데이터 사이의 차이를 나타내는 데이터만을 발생시키는 것을 포함할 수 있다.The term motion compensation is intended to be defined in its broadest sense. In other words, although motion compensation is often described and illustrated herein as including motion estimation and motion prediction of a group of pixels, it should also be understood to include rotation and scale, for example. In addition, the term "operation compensation" may include, for example, only generating data indicative of a difference between two sets of data.

압축 효율은 이미지를 특징으로 변환하고 그 특징을 우선 매핑하여 얻어진다. 본문의 기술은 그것이 이미지 또는 비디오 프레임들의 시퀀스와 관련된 것으로 예시된다. 이런 이미지 시퀀스는 서로 정렬되어 위치되고 시간 또는 소정의 다른 파라미터에 의해 표시되는, 공간적으로 정위된 데이터 요소들(스칼라, 벡터, 또는 함수)의 모음이 되는 것으로 용이하게 이해될 수 있다. 이미지 시퀀스는 데카르트 좌표로 될 수 있으나, 본 기술분야의 다른 좌표계들도 사용될 수 있다.Compression efficiency is obtained by converting an image into a feature and first mapping the feature. The description of the text is illustrated as it relates to a sequence of image or video frames. Such an image sequence can be easily understood to be a collection of spatially located data elements (scalars, vectors, or functions), positioned in alignment with each other and indicated by time or some other parameter. The image sequence may be in Cartesian coordinates, but other coordinate systems in the art may also be used.

더욱이, 본 발명의 장치 및 방법은 음성, 오디오 및 심전도 압축 같은 비-비디오 적용에도 사용될 수 있다. 즉, 본문에 기술된 본 발명이 2-차원 시스템(2D), 즉, 비디오 압축으로 예시되지만, 교시들이 일반적으로 데이터 압축 기술을 진전시키도록 임의의 다른 차원 시스템에 적용될 수 있는것이 의도된다.Moreover, the apparatus and method of the present invention can be used for non-video applications such as voice, audio and electrocardiogram compression. That is, although the invention described herein is illustrated as a two-dimensional system (2D), ie video compression, it is intended that the teachings generally be applicable to any other dimensional system to advance data compression techniques.

실예로, 교시들은 초음파 영상 같은 하나 및 1/2 차원 시스템(1-1/2D)에 적용될 수 있다. 또한, 교시들은 자기 공명 단층 촬영(MRI) 같은 3차원 시스템(3D)들에 적용될 수 있다.For example, the teachings can be applied to one and half dimensional systems 1-1 / 2D, such as ultrasound images. In addition, the teachings can be applied to three-dimensional systems (3D), such as magnetic resonance tomography (MRI).

이하의 기술을 통해, 용어″프레임″은 단일 이미지의 형태에 관계없이, 즉, 그것이 시간 영역, 주파수 영역에 있는지, 또는 그 상에서 실현된 임의의 다른 처리로 되었는지에 관계없이 인코더에 전송된 시퀀스로된 이미지들의 단일 이미지로 칭해진다. 더욱이, 용어 ″펠(pel)″은 시간 영역의 화소에 대하여 사용되며, 용어″계수″ 및 ″변환 계수″는 펠이 실예로, 전방 웨이브릿 변환을 통과한 이후 생성되는 펠들의 표시에 대하여 사용된다. 이 용어들은 실시예의 기술을 용이하게 하는데 사용되며 결코 본 발명의 범위를 제한하도록 의도되지는 않는다.Through the following description, the term "frame" refers to a sequence transmitted to an encoder regardless of the form of a single image, i.e. whether it is in the time domain, the frequency domain, or any other processing realized thereon. It is called a single image of the merged images. Moreover, the term ″ pel ″ is used for pixels in the time domain, and the terms ″ coefficient ″ and ″ transform coefficient ″ are used for the representation of the pels that are generated after the pel has gone through a forward wavelet transform, for example. do. These terms are used to facilitate the description of the embodiment and are by no means intended to limit the scope of the invention.

동일한 도면부호들은 본 발명의 동일 요소들과 동일한 것인 도면들을 참고하면, 이미지들의 시퀀스 또는 프레임들의 시퀀스를 압축하기 위한 실시예의 개략적인 블록 다이어그램이 도2에 도시된다. 이런 다이어그램은 본문에 기술된 여러 실시예들 중 하나이다. 보다 상세한 실시예들이 이하 문단에 기술된다.Referring to the drawings wherein like reference numerals are the same as like elements of the present invention, a schematic block diagram of an embodiment for compressing a sequence of images or a sequence of frames is shown in FIG. 2. This diagram is one of several embodiments described in the text. More detailed embodiments are described in the paragraphs below.

도2에서, 이미지는 블록(20)의 변환 영역에서 특징(features)의 모음으로 변환된다. 그 이미지에 대해 유효한 것으로 결정되는 특징은, 즉, 이전 또는 기준 프레임으로부터 크게 변경된 것으로 결정되는 이런 특징이 블록(22)에서 선택된다. 유효한 특징은 블록(24)에서 유효하게 표현되어 기준 프레임의 특징들을 갱신하도록 디코더에 전송된다.In FIG. 2, the image is transformed into a collection of features in the transform region of block 20. The feature determined to be valid for that image is selected at block 22, ie this feature determined to have changed significantly from the previous or reference frame. The valid feature is effectively represented at block 24 and sent to the decoder to update the features of the reference frame.

실예로, 최초 이미지는 블록(20)에서 변환되며 변환 계수 세트(transform coefficient set)에 의해 표현된다. 계수 세트의 변환 계수들은 이후 블록(22)에서 평가되어 다양한 가중 및 평가(evaluation) 기술을 통해 이들의 유효성을 결정하여 이들의 유효성에 따라 랭크된다(ranked). 이후, 블록(24)에서, 현재의 프레임과 과거 또는 기준 프레임 사이의 동작 보상이 발생한다. 동작 보상은 프레임들 사이의 변화를 평가하는 동작을 포함하여 한 세트의 동작 벡터들을 발생시킬 수 있다. 이후에, 동작 벡터들이 동작 예측 단계동안 기준 프레임에 적용된다. 동작 예측의 결과는 그 예측의 오류를 결정하기 위해 변환계수 세트로부터 감산된다. 예측 오류는 이후 선택적으로 스케일되고 최종적으로 디코더에 전달을 위해 동작 벡터들과 함께 위치적으로 인코딩된다.By way of example, the original image is transformed at block 20 and represented by a transform coefficient set. The transform coefficients of the coefficient set are then evaluated in block 22 to determine their validity through various weighting and evaluation techniques and rank them according to their validity. Then, at block 24, motion compensation occurs between the current frame and the past or reference frame. Motion compensation can generate a set of motion vectors, including the operation of evaluating changes between frames. Thereafter, motion vectors are applied to the reference frame during the motion prediction phase. The result of the motion prediction is subtracted from the set of transform coefficients to determine the error of that prediction. The prediction error is then selectively scaled and finally encoded positionally with the motion vectors for delivery to the decoder.

도3을 참고하면, 개략적인 블록 다이어그램은 도2를 참고로 기술되었던 실시예의 보다 특정한 배치를 도시한다. 실예로, CIF(Caltech Intermediate Format)로 인코딩된 이미지 시퀀스 또는 일련의 비디오 프레임(26)들이 컨버터(28)에 전송된다. CIF 프레임은 288 x 352 펠들을 갖는다. 컨버터(28)에서, 프레임들은 쿼터 CIF(QCIF), 실예로,도4a에 예시되는 것과 같은 QCIF 이미지(30)로 변환된다. QCIF 이미지는 144 x 176 펠들을 갖는다. CIF는 수평 및 수직 양방향으로 둘(2)씩 저역통과 필터링하고 데서메이팅(decimating)하여 QCIF로 변환된다. 처리를 용이하게 하기 위하여, 144 x 176펠들은 각각 16 x 16 펠들을 갖는 이미지 매크로블록(IMBx,x)으로 분할된다. QCIF는 실시예로만 본문에 사용된 것이지 어떤 식으로든 본 발명에 대하여 제한하려는 것은 아니다. 하기 기술들은 당업자들에게 잘 공지된 방법들에 의해 다른 이미지(및 비-이미지) 포맷들에 용이하게 순응될 수 있다.Referring to FIG. 3, a schematic block diagram shows a more specific arrangement of the embodiment that has been described with reference to FIG. In an example, an image sequence or series of video frames 26 encoded in Caltech Intermediate Format (CIF) are transmitted to converter 28. The CIF frame has 288 x 352 pellets. In converter 28, the frames are converted into a quarter CIF (QCIF), eg, a QCIF image 30 as illustrated in FIG. 4A. The QCIF image has 144 x 176 pellets. The CIF is converted to QCIF by lowpass filtering and decimating two (2) in both horizontal and vertical directions. To facilitate processing, the 144 x 176 pellets are divided into image macroblocks (IMB x, x ) each having 16 x 16 pellets. QCIF is used in the text by way of example only and is not intended to be limiting of the invention in any way. The following techniques can be readily adapted to other image (and non-image) formats by methods well known to those skilled in the art.

도3 및 도4를 참고하면, QCIF 이미지(30)는 도2의 블록(20)을 구성하는 블록(32,36)들에 전송되는데, 여기서 특징에 대한 이미지의 매핑이 발생한다. 보다상세하게는, QCIF 이미지(30)(도4(a))는 전방 웨이브릿 변환이 각 프레임을 서브밴드(34)(도4(b))들의 모음으로 변환시키는 블록(32)에 전송된다. 변환된 이미지의 이런 구성, 즉 서브밴드(34)의 모음은 실예로, 동작 추정, 동작 예측을 위해 나중에 사용하고 예측 오류를 판정하기 위해 메모리에 기억된다. 본 발명에 사용될 수 있는 적절한 전방 웨이브릿 변환은 이하에 보다 상세히 기술된다.Referring to Figures 3 and 4, QCIF image 30 is transmitted to blocks 32 and 36, which make up block 20 of Figure 2, where mapping of the image to the feature occurs. More specifically, the QCIF image 30 (FIG. 4 (a)) is sent to block 32 where the forward wavelet transform transforms each frame into a collection of subbands 34 (FIG. 4B). . This configuration of the transformed image, i.e., the collection of subbands 34, is for example used later for motion estimation, motion prediction and stored in memory to determine prediction errors. Suitable forward wavelet transforms that can be used in the present invention are described in more detail below.

서브밴드(34)들의 모음은 서브밴드 매크로-블록 패킹을 위해 블록(36)에 전송된다. 서브밴드 매크로-블록 패킹동안, 특정 이미지 매크로-블록과 상응하는 서브밴드 블록들은 서브밴드 매크로-블록들(SMBX,X)을 형성하기 위해 구성된다. 이후, 각각의 서브밴드 매크로-블록은 그것이 관계되어 표현하는 이미지 매크로-블록의 공간적 위치에 놓여진다. 특정 프레임에 대한 모든 서브밴드 매크로-블록들의 모음은 서브밴드 매크로-블록 그룹핑(40)으로 칭해진다.The collection of subbands 34 is sent to block 36 for subband macro-block packing. During subband macro-block packing, the subband blocks corresponding to the particular image macro-block are configured to form subband macro-blocks SMB X, X. Each subband macro-block is then placed in the spatial position of the image macro-block it represents in relation. The collection of all subband macro-blocks for a particular frame is referred to as subband macro-block grouping 40.

도5는 서브밴드 매크로-블록 패킹의 처리를 예시한다. 서브밴드 매크로-블록 패킹동안, 서브밴드(34)(도5(a))의 모음의 모든 관련된 블록들은 서브밴드 매크로-블록 패킹동안 도5(b)에 예시되는 것과 같이 서브밴드 매크로-블록(38)들을 형성하기 위해 재구성된다.5 illustrates the processing of subband macro-block packing. During subband macro-block packing, all related blocks of the collection of subband 34 (FIG. 5 (a)) are subband macro-block (as illustrated in FIG. 5 (b) during subband macro-block packing). 38) to reconstruct.

실예로, 도4(a)의 이미지 매크로-블록(2,4)(IMB2,4)과 상응하는 도5(a)의 음영진 서브밴드 블록들은 예시된 도5(b)와 같은 서브밴드 매크로-블록(SMB2,4)을 형성하기 위해 블록(36)(도3)의 서브밴드 매크로-블록 패킹 동안 재구성된다. 서브밴드 매크로-블록(38)(SMB0,0내지 SMB8,10)들은 이후 도5(c)에 예시된 것처럼 서브밴드 매크로-블록 그루핑(40)으로 구성되어 각각의 서브밴드 매크로-블록이 QCIF 이미지(30)의 그 상응하는 이미지 매크로-블록(IMBX,X)의 공간 위치에 의해 지지된다. 이런 실시예에서, SMB2,4는 도4(a) 및 도5(c)에 예시된 것같이 IMB2,4의 공간 위치에 의해 유효하게 지지되는 것이 인지된다.For example, the shaded subband blocks of FIG. 5 (a) corresponding to the image macro-blocks 2,4 (IMBs 2,4 ) of FIG. 4 (a) are subbands such as the illustrated FIG. 5 (b). Reconstructed during subband macro-block packing of block 36 (FIG. 3) to form macro-blocks SMB 2,4 . Subband macro-blocks 38 (SMB 0,0 through SMB 8,10 ) are then composed of subband macro-block grouping 40 as illustrated in FIG. 5 (c) so that each subband macro-block is It is supported by the spatial position of its corresponding image macro-block (IMB X, X ) of the QCIF image 30. In this embodiment, it is recognized that SMB 2,4 is effectively supported by the spatial position of IMB 2,4 as illustrated in Figs. 4 (a) and 5 (c).

본문에 기술된 실시예가 QCIF로 표시된 프레임 이미지들만을 칭하지만, 당업자들은 다른 포맷들도 본 발명의 범위를 벗어나지 않고 사용될 수 있는 것을 이해하는 것을 인지하는 것이 중요하다. 각각의 서브밴드 매크로-블록의 서브밴드 블록들의 특정 그루핑이 예시된 특정 웨이브릿을 수용하도록 사용되는 것을 인지하는 것이 또한 중요하다. 다른 웨이브릿들에 보다 적절할 서브밴드 데이터의 다른 그루핑들이 존재한다.Although the embodiment described herein refers only to frame images denoted by QCIF, it is important for those skilled in the art to appreciate that other formats may be used without departing from the scope of the present invention. It is also important to note that a particular grouping of subband blocks of each subband macro-block is used to accommodate the particular wavelet illustrated. There are other groupings of subband data that would be more appropriate for other wavelets.

이미지 매크로-블록(30)(도4(a))의 모음, 서브밴드(34)(도4(b))의 모음, 및 서브밴드 매크로-블록 그루핑(40)(도5(c))의 모음의 상기한 바로부터, 특정 이미지 매크로-블록들, 서브밴드 블록들 및 서브밴드 매크로-블록들 사이에 상관관계가 있음이 용이하게 인지되어야 한다. 이런 상관관계의 실시예는 이하:(a) 도4(a)에서 음영되고 이미지 매크로-블록(106)으로서 식별되는 이미지 매크로-블록(2,4)(IMB2,4); (b) 도4(b)의 모든 음영진 서브밴드 블록들, 실예로, 서브밴드00(SB0)의 서브밴드 블록(116) 및 서브밴드33(SB33)의 서브밴드 블록(116); 및 (c) 도5(c)에서 음영지고 서브밴드 매크로-블록(117)으로서 식별되는 서브밴드 매크로-블록2,4(SMB2,4)이다. 상기 예시된 것과 같은 관계를 갖는 계수들을 포함하는 이 명세서에서의 기술은 '관련되는(related)'으로 칭해질 수 있다.Collection of image macro-blocks 30 (Fig. 4 (a)), collection of subbands 34 (Fig. 4 (b)), and subband macro-block grouping 40 (Fig. 5 (c)). From the foregoing of the vowel, it should be readily appreciated that there is a correlation between specific image macro-blocks, subband blocks and subband macro-blocks. Examples of such correlations are as follows: (a) image macro-blocks 2,4 (IMB 2,4 ), which are shaded in Figure 4 (a) and identified as image macro-blocks 106; (b) all shaded subband blocks of FIG. 4 (b), eg, subband block 116 of subband 00 (SB 0 ) and subband block 116 of subband 33 (SB 33 ); And (c) subband macro-blocks 2,4 (SMB 2,4 ), which are shaded in FIG. 5 (c) and identified as subband macro-blocks 117. The description herein, including coefficients having a relationship as illustrated above, may be referred to as 'related'.

도3을 참고하면, 서브밴드 매크로-블록 그루핑(40)은 어느 특징 또는 서브밴드 매크로-블록(SB0,0내지 SB8,10)이 변화되는지 결정되는 도2에서 인지된 블록(22)을 형성하는 블록(42,46,48,52)에 전송된다. 특히, 서브밴드 매크로-블록 그루핑(40)은 가중치가 서브밴드 매크로-블록의 지각적 유효성을 양자화시키는 양만큼 서브밴드 매크로-블록 그루핑(40)의 각각의 서브밴드 매크로-블록을 스케일링하도록 적용되는 블록(42)에 전송된다. 가중 블록(42)의 출력은 가중된 그루핑(44)이다.Referring to FIG. 3, the subband macro-block grouping 40 may identify the block 22 recognized in FIG. 2, which determines which feature or subband macro-blocks SB 0,0 to SB 8,10 are to be changed. Are sent to the forming blocks 42, 46, 48, 52. In particular, subband macro-block grouping 40 is adapted to scale each subband macro-block of subband macro-block grouping 40 by an amount that the weight quantizes the perceptual validity of the subband macro-block. Is sent to block 42. The output of weighting block 42 is weighted grouping 44.

가중을 통한 지각적 유효치는 실예로, 평균 평가 스코어 연구(Mean Opinion Score study)를 통해 결정될 수 있거나, 또는 그 표준이 본문에 참고로 인용되는 국제 전신 전화 자문 위원회(CCITT)의 H.261 및 H.263에서 발견된 이들 같은 다른 코딩 시스템들에 사용된 가중치로부터 판정된다. 평균 평가 스코어링의 논의에 대해서는, 본문에 참고로 인용되는 K.R.Rao & P.Yip, Academic Press, Inc., pp.165-74(1990)의 이산 코사인 변환(Discrete Cosine Transform)을 참고할 수 있다.Perceptual validity through weighting is, for example, H.261 and H of the International Telegraph and Telephone Advisory Committee (CCITT), which may be determined through a Mean Opinion Score study, or whose standards are incorporated herein by reference. Is determined from the weights used in other coding systems such as those found in .263. For a discussion of average rating scoring, see Discrete Cosine Transform by K.R.Rao & P.Yip, Academic Press, Inc., pp. 165-74 (1990), which is incorporated herein by reference.

가중치가 각각의 서브밴드 매크로-블록을 스케일링하도록 블록(42)에 적용된 이후에, 가중된 그루핑(44)이 변화 검출 블록(46)에 전송되고 처리되어 발생된 변화의 상대적 량을 결정한다. 이런 변화는 '유효치(significance)' 또는 비디오 목적을 위해 가중된 그룹핑(44)의 왜곡으로 명칭된다. 유효치는 실예로, 제로(0) 또는 과거의 가중된 그룹핑 같은 해당 기준과 관련하여 결정될 수 있다. 변화-검출 블록(46)으로부터 연장되는 루프(loop)는 과거 가중된 그루핑을 기준으로 사용하기 위해 변화-검출 블록(46)에 반환시키는 프레임 지연부(48)를 포함한다. 변화-검출 블록(46)의 출력은 변화 검출된 그루핑(50)이다.After weights are applied to block 42 to scale each subband macro-block, weighted grouping 44 is sent to change detection block 46 to determine the relative amount of change generated. This change is termed 'significance' or distortion of the weighted grouping 44 for video purposes. The effective value can be determined, for example, in relation to the corresponding criteria, such as zero or past weighted grouping. The loop extending from the change-detection block 46 includes a frame delay 48 that returns to the change-detection block 46 for use as a basis for past weighted groupings. The output of change-detection block 46 is change detected grouping 50.

제로(0) 기준은 실예로, 인코더를 통해 초기에 프레임들을 전송할 때, 변화 검출 블록(46)에 사용된다. 이런 경우, 전체 프레임은 제로(0)에 관계된다. 이것은 내부프레임 레퍼런싱으로 또한 공지된다. 상기한 바와 같이, 매크로-블록 그루핑이 상기된 것처럼 블록(42)에 가중되어 기준으로 사용하기 위해 변화-검출 블록(46)의 지연 블록(48)에서 지연되는 과거 가중된 그루핑이 또한 사용될 수 있다. 내부프레임 레퍼런싱으로 공지된 이런 최근의 방법은 중복 및/또는 중요하지 않은 정보를 디코더에 반복적으로 전송하는 단계를 제거시킨다.Zero reference is used in the change detection block 46, for example, when initially transmitting frames via the encoder. In this case, the entire frame is related to zero. This is also known as internal frame referencing. As noted above, past weighted groupings may also be used in which macro-block groupings are weighted to block 42 as described above and delayed in delay block 48 of change-detection block 46 for use as a reference. . This recent method, known as internal frame referencing, eliminates the step of repeatedly sending redundant and / or non-critical information to the decoder.

제로(0) 프레임 레퍼런싱의 변형 사용은 시스템 작동 동안 디코더에서 상대적으로 정확한 기준 이미지를 재생시키고 유지시키기 위한 것이다. 한가지 방법은 표준 30 프레임/초의 매 8 프레임의 전체에 대해 제로(0) 기준을 주기적으로 적용하는 방법을 채용한다. 변형적으로, 이미지는 랜덤하게, 또는 일정하게 서브밴드 블록들을 제로(0)로 레퍼런싱하는 것 같이 확률적으로(stoichastically) 리프레시될 수 있다. 모든 또는 일부 프레임을 제로(0)로 레퍼런스하는 임의의 처리를 용이하게 하기 위하여, 제로-레퍼런스된 서브밴드 블록들은 동작 보상 작동(이하 기술)이 유효 블록들상에서 이행되는 것을 방지하기 위해 그것만으로도 식별된다. 그러므로, 식별된 서브밴드 블록들은 경우에 따라, 전체 기준치 또는 그중 일부 기준치를 리프레시하기 위해 디코더에서 전부 재생된다.A variant use of zero frame referencing is to reproduce and maintain a relatively accurate reference image at the decoder during system operation. One method employs a method of periodically applying a zero criterion for the entirety of every eight frames of standard 30 frames / second. Alternatively, the image may be stochastically refreshed, such as referencing subband blocks to zero randomly or constantly. In order to facilitate any processing of referencing all or some frames to zero, zero-referenced subband blocks are identified by themselves to prevent the operation compensation operation (hereinafter described) from being implemented on valid blocks. do. Therefore, the identified subband blocks are all played back at the decoder to refresh the entire reference value or some of the reference values, as the case may be.

도3을 다시 참고하면, 메모리에 보다 일찍 저장되어 그 양에 따라 변화-검출 그루핑(50)의 서브밴드 매크로-블록들이 블록(52)에 랭크되는 서브밴드(34)들의 모음은 그 유효성에 따라 변경되도록 결정된다. 랭킹(ranking)은 블록(42,46)들의 서브밴드 매크로-블록들을 각각 가중하고 검출하므로써 미리 할당된 값들을 기반으로한다. 블록(52)의 출력은 라인(55)을 통해 전송되는 랭크된 서브밴드 그루핑(53) 및 랭크된 서브밴드 매크로-블록 그루핑(54)을 포함한다.Referring back to FIG. 3, the collection of subbands 34 whose subband macro-blocks of change-detection grouping 50 are ranked in block 52 according to their validity are stored earlier in memory and according to their amount. It is determined to change. The ranking is based on pre-assigned values by weighting and detecting the subband macro-blocks of blocks 42 and 46, respectively. The output of block 52 includes a ranked subband grouping 53 and a ranked subband macro-block grouping 54 transmitted over line 55.

계속해서 도3을 참고하면, 랭크된 서브밴드 그루핑(53) 및 랭크된 서브밴드 매크로-블록 그루핑(54)은 도2의 블록(24)과 상응하는 블록(56,60,62,68,72,76)들 에 선택적으로 전송되는데, 여기에서 변화된 매크로-블록들이 유효하게 표현된다. 특히, 랭크된 서브밴드 매크로-블록 그루핑(54)('현재'프레임)은 동작 추정을 위해 블록(56)에 전송된다. 랭크된 서브밴드 그루핑(53)은 지연 블록(62)에 전송되고, 그 이후 동작 추정 및 동작 예측을 위해 라인(64)에 지연 랭크된 서브밴드 그루핑(57)('기준'프레임)을 블록(56,60)들에 각각 제공한다. 동작 벡터(58)들의 모음은 하기 방식으로 동작 평가 블록(56)에서 발생되며 동작 예측을 위해 블록(60)에 전송되고 위치 인코딩을 위해 블록(76)에 또한 전송된다.With continued reference to FIG. 3, the ranked subband grouping 53 and the ranked subband macro-block grouping 54 correspond to blocks 56, 60, 62, 68, 72 corresponding to block 24 of FIG. 2. 76), where the changed macro-blocks are effectively represented. In particular, the ranked subband macro-block grouping 54 ('current' frame) is sent to block 56 for motion estimation. Ranked subband grouping 53 is sent to delay block 62, and then blocks delayed subband grouping 57 ('reference' frame) on line 64 for motion estimation and motion prediction. 56, 60, respectively. The collection of motion vectors 58 is generated in motion evaluation block 56 in the following manner and sent to block 60 for motion prediction and also to block 76 for location encoding.

동작 예측 블록(60)에 전송된 동작 벡터(58)는 예측된 그루핑(66)을 발생시키도록 지연된 랭크 서브밴드 그루핑(57)을 변경하기 위해 사용된다. 차이 블록(68)은 랭크된 서브밴드 그루핑(53)을 수신하고 이로부터 예측된 그루핑(68)을 감산하여 그루핑 차이(70), 즉, 예측 오류를 발생시킨다. 그루핑 차이(70)는 스케일링된 그루핑 차이(74)를 초래하는 블록(72)에서 보다 더 스케일링된다. 당업자들은 제로가 아닌 그루핑 차이(70)의 수가 적어질수록, 동작 벡터(58)들의 모음이 본 프레임과 기준 프레임 사이의 변화들을 예측하는 것이 보다 더 정확해지는 것을 인지할 것이다. 그리고, 차이들이 보다 적을 수록 동작 추정의 결함을 보정하기 위해 디코더에 전송되어야만하는 비트들이 더 적다.The motion vector 58 sent to the motion prediction block 60 is used to change the delayed rank subband grouping 57 to produce the predicted grouping 66. Difference block 68 receives the ranked subband grouping 53 and subtracts the predicted grouping 68 therefrom to generate a grouping difference 70, i.e., a prediction error. The grouping difference 70 is scaled further than in block 72 resulting in a scaled grouping difference 74. Those skilled in the art will appreciate that as the number of non-zero grouping differences 70 decreases, it becomes more accurate for the collection of motion vectors 58 to predict changes between this frame and the reference frame. And, the fewer the differences, the fewer bits that must be sent to the decoder to correct for defects in the motion estimation.

스케일링 블록(72)으로부터 스케일링된 그루핑의 차이(74) 및 동작 추정 블록(56)으로부터의 동작 벡터(58)들의 모음은 블록(76)에서 매크로-블록들로서 위치인코딩된다. 거기서, 데이터는 유효하게 비트스트림으로 구성된다. 인코딩된 비트스트림 그루핑(78)은 블록(76)으로부터 출력되고 전송선(80)을 통해 역처리를 위해 디코더(82)에 전송된다. 전송은 다양한 매체들, 실예로, 전자, 전자기 또는 광학을 통해 이루어질 수 있다.The difference of scaled grouping 74 from scaling block 72 and the collection of motion vectors 58 from motion estimation block 56 are position encoded as macro-blocks at block 76. There, the data is effectively organized into bitstreams. The encoded bitstream grouping 78 is output from block 76 and sent to decoder 82 for back processing via transmission line 80. Transmission can be through various media, for example electronic, electromagnetic or optical.

비트스트림 포맷팅과 관련하여, 여러 표준 방법들이 비트스트림들을 포맷팅하기 위한 본 기술 분야에 잘 알려져 있다. H.263 기반 인코더 시스템에 사용된 포맷이 일 실시예이다. 비트스트림은 기초적으로 연속적 스트링의 비트 패킷이다. 각각의 패킷은 데이터의 특정 카테고리를 나타낸다.With regard to bitstream formatting, several standard methods are well known in the art for formatting bitstreams. The format used for the H.263 based encoder system is one embodiment. A bitstream is basically a bit packet of consecutive strings. Each packet represents a specific category of data.

예를들면, 비트 패킷들은 시스템 레벨 데이터, 비디오, 제어부 및 오디오 데이터를 포함할 수 있다. 데이터가 블록(76)에서 위치 인코딩을 위해 수신됨에 다라, 그것은 사용되는 포맷에 따른 비트 패킷들로 구성된다. 일반적으로 비디오 프레임을 나타내는 비트 패킷들의 모음이 그것을 새로운 프레임으로 식별하는 비트로부터 시작한다. 양자화 및 다른 제어 코드들의 양이 통상적으로 뒤따른다. 이후, 스케일링된 그루핑 차이(74)를 나타내는 매크로-블록들의 리스트가 인코딩된다. QCIF에 대해, 매크로-블록들의 수는 99이다(도5(c)참고).For example, the bit packets may include system level data, video, control and audio data. As data is received for position encoding at block 76, it consists of bit packets according to the format used. In general, the collection of bit packets that represent a video frame starts with the bit that identifies it as a new frame. The amount of quantization and other control codes typically follows. Then, the list of macro-blocks representing the scaled grouping difference 74 is encoded. For QCIF, the number of macro-blocks is 99 (see Figure 5 (c)).

데이터의 보다 효율적인 전송을 용이하게 하기 위해, 각각의 매크로-블록이 매크로블록에서의 제로가 아닌 데이터의 존재 또는 부재를 표시하는 매크로-블록 제로 비트(MBZero-비트)에 의해 속행된다. 매크로-블록이 존재하는 경우, 동작 벡터(58)들의 관련 모음을 포함하는 매크로-블록에 대한 제어 정보가 서브밴드 데이터, 즉, 관련 스케일링된 그루핑 차이(74)가 뒤이어 전송된다. 이런 정보를 포함하는 것은 매크로-블록의 부재가 제로인 매크로-블록의 계수의 전체 스트링을 식별하는데 필요할 모든 비트들 대신에 단일 심볼로 나타내지는 전송선(80)을 통해 전송되는 비트의 수를 실질적으로 감소시킨다.To facilitate more efficient transmission of data, each macro-block is followed by a macro-block zero bit (MBZero-bit) indicating the presence or absence of non-zero data in the macroblock. If there is a macro-block, control information for the macro-block that includes the relevant collection of motion vectors 58 is transmitted following the subband data, i.e., the associated scaled grouping difference 74. Including this information substantially reduces the number of bits transmitted over transmission line 80 represented by a single symbol instead of all the bits needed to identify the entire string of macro-block coefficients where the absence of the macro-block is zero. Let's do it.

부가적인 효율이 보유될 수 있는 다른 상태는 서브밴드 매크로-블록 내의 다소의 서브블록들만이 제로인 경우이다. 실시예는 그 계수들이 제로인 서브밴드를 서브밴드 제로 플래그(SBZero 플래그)로 플래깅(flagging)하는 단계를 포함한다. 그 계수들이 제로인 스케일링된 그루핑 차이(74)로부터의 서브밴드는 랭크된 서브밴드 그루핑(53) 및 예측된 그루핑(66)의 상응하는 서브밴드 블록들 사이에서 어떤 변화도 존재하는 것이 발견되지 않는 것을 나타낸다. SBZero 플래그를 표시하는 것이 제로인 각각의 계수를 별도로 표시하는 것보다 작은 비트를 사용한다. 물론, 디코더가 블록(76)의 위치 인코딩동안 도입된 심볼을 해석하기 위해 MBZero-비트 및 SBZero 플래그를 둘 다 인지하도록 프로그램된다. 제로의 스트링을 심볼라이징하기 위한 제로-실행 길이 코드는 하기와 같다.Another state where additional efficiency may be retained is when only a few subblocks in a subband macro-block are zero. An embodiment includes flagging a subband whose coefficients are zero with a subband zero flag (SBZero flag). The subband from the scaled grouping difference 74 whose coefficients are zero is found that no change exists between the corresponding subband blocks of the ranked subband grouping 53 and the predicted grouping 66. Indicates. Displaying the SBZero flag uses a smaller bit than displaying each coefficient that is zero separately. Of course, the decoder is programmed to recognize both the MBZero-bit and SBZero flags to interpret the symbols introduced during the location encoding of block 76. The zero-running length code for symbolizing a string of zeros is as follows.

도3을 계속해서 인용하면, 인코딩된 비트스트림 그루핑(78)이 전송선(80)을 통해 디코더(82)에 의해 수신되며 위치 인코딩 블록(76)의 결과를 반전시키는 위치 디코딩 블록(86)에 전송된다. 동작 벡터(58)의 모음은 비트 스트림 그루핑(78)으로부터 추출되며 예측 블록(98)에 전송된다. 서브밴드 형태(도4(b))의, 디코딩된 스케일링된 그루핑 차이(88)가 양자 복원 블록(quantum recovery block)(90)에 공급된다. 양자 복원 블록(90)에서, 과거 변환 계수들, 및 과거와 현재 탈양자화 텀들은 양자화 변환 계수들의 값을 복원하는데 사용된다, 즉 이들은 그루핑 차이(70)를 재현하는데 사용된다.With continued reference to FIG. 3, encoded bitstream grouping 78 is received by decoder 82 via transmission line 80 and transmitted to position decoding block 86, which inverts the result of position encoding block 76. do. The collection of motion vectors 58 is extracted from bit stream grouping 78 and sent to prediction block 98. The decoded scaled grouping difference 88, in subband form (FIG. 4B), is supplied to a quantum recovery block 90. In quantum reconstruction block 90, past transform coefficients, and past and present dequantization terms are used to reconstruct the values of the quantization transform coefficients, ie they are used to reproduce the grouping difference 70.

서브밴드(92)의 모음, 인코더의 기준 프레임은 지연 블록(94)에 전송된다. 지연된 서브밴드(96)의 모음은 지연 블록(94)으로부터 예측 블록(98)에 전송된다. 인코더의 동작 예측 블록(60)에서 수행된 처리와 유사하게, 동작벡터(58)들의 모음이 예측 블록(98)에서 서브밴드(96)의 지연된 모음에 제공된다. 거기에서, 서브밴드(96)의 지연된 모음은 예측된 그루핑(100), 즉, 그루핑 차이(70)를 포함하지 않는 갱신된 이미지의 서브밴드 표현을 발생시키도록 변경된다. 그루핑 차이(70) 및 예측된 그루핑(100)은 서브밴드(92)의 모음, 즉, 새로운 기준 프레임의 모음을 발생시키는 가산 블록(102)에서 가산된다. 최종적으로, 역 웨이브릿 변환은 서브밴드(92)의 모음상에서 블록(104)에서 이행된다. 이런 단계는 개략적으로 상기되고 이하에서 보다 상세히 기술될 전방 웨이브릿 변환(32)의 필수적인 역전이다. 블록(104)으로부터의 결과 출력은 재구성된 이미지(105)이다.The collection of subbands 92, the frame of reference of the encoder, is transmitted to delay block 94. The collection of delayed subbands 96 is transmitted from delay block 94 to prediction block 98. Similar to the processing performed at the motion prediction block 60 of the encoder, a collection of motion vectors 58 is provided to the delayed collection of subbands 96 at the prediction block 98. There, the delayed vowels of the subbands 96 are changed to produce a subband representation of the updated image that does not include the predicted grouping 100, ie, the grouping difference 70. The grouping difference 70 and the predicted grouping 100 are added at an addition block 102 which generates a collection of subbands 92, ie a collection of new reference frames. Finally, the inverse wavelet transform is implemented at block 104 on the collection of subbands 92. This step is an essential reversal of the forward wavelet transform 32, which is outlined above and described in more detail below. The resulting output from block 104 is reconstructed image 105.

이미 기술되고 도3 및 도4에 도시된바와 같이, QCIF 이미지(30)(도4(a))는 서브밴드(34)(도4(b))의 모음을 형성시키도록 각각의 비디오 프레임을 변환시키는 전방 웨이브릿 변환(32)에 전송된다. 변환 블록(32)의 실시예는 텐서 곱 웨이브릿 변환을 사용한다. 텐서 곱 웨이브릿 변환의 상세한 기술은 본문에 참고로 인용된, 조엘 로시엔 및 이안 그린실드의, Optical Engineering, Vol.33,Number 8(August 1994), Standard Wavelet Basis Compression of Images를 참고하시오. 잘 공지된 말렛(Mallat), 젠롯(GenLOT), 또는 해르(Harr) 변환 같은 다른 유한 정밀 변환들이 사용될 수 있다. 이런 적절한 변형적인 웨이브릿 변환에 관한 논의에 대해서는 본문에 참고로 인용되는, G. Strang and T. Nguyen, Wellesley-Cambridge Press(1997)의 Wavelets and Filter Banks를 참고하시오.As already described and shown in FIGS. 3 and 4, the QCIF image 30 (FIG. 4 (a)) is adapted to form each video frame to form a collection of subbands 34 (FIG. 4B). A forward wavelet transform 32 is then sent. An embodiment of the transform block 32 uses a tensor product wavelet transform. For a detailed description of tensor product wavelet transformations, see Joel Rossien and Ian Greenshield, Optical Engineering, Vol. 33, Number 8 (August 1994), Standard Wavelet Basis Compression of Images. Other finite precision transforms such as the well-known Mallat, GenLOT, or Harr transform can be used. For a discussion of such a suitable transformed wavelet transform, see Wavelets and Filter Banks, G. Strang and T. Nguyen, Wellesley-Cambridge Press (1997), which is incorporated herein by reference.

도4(b)를 참고하면, 여기에서는 QCIF 이미지(30)가 전방 웨이브릿 변환(32)을 통과한 이후의 서브밴드(34)의 모음을 도시된다. 이미 표시된 것처럼, 전방 웨이브릿 변환 처리는 유한 정밀 실현의 결과를 감소시키기 위해 본문에서 수정된 것과 같이 텐서 곱 웨이브릿 변환 또는 다른 잘 공지된 유한 정밀 변환을 사용한다. 일반적으로, 변환 처리는 (m + 1) x (n + 1) 서브밴드를 생성시키기 위해 m x n 단으로 구성될 것이다. 다른 실시예들은 이런 발명의 범위내에 있는 것을 조건으로 본문 기술에 따라 이루어질 수 있다.Referring to FIG. 4 (b), here is shown a collection of subbands 34 after QCIF image 30 has passed through forward wavelet transform 32. As already indicated, the forward wavelet transform process uses a tensor product wavelet transform or other well known finite precision transform as modified in the text to reduce the result of finite precision realization. In general, the conversion process will consist of m x n stages to generate (m + 1) x (n + 1) subbands. Other embodiments may be made according to the description provided that they are within the scope of this invention.

도6(a)를 참고하면, 전방 웨이브릿 변환 처리는 3단을 사용하는 횡렬단위(row-by-row)를 기초로 QCIF 이미지 프레임(30)을 초기에 필터링한다. 각각의 단은 저역 통과 필터(108) 및 고역 통과 필터(110)를 포함한다. 일 실시예에서, 각각의 저역 통과 필터(108)는 -1,2,6,2,-1의 값을 가지며 각각의 고역 통과 필터는 -1,2-1의 값을 가진다.Referring to Fig. 6 (a), the forward wavelet transform process initially filters the QCIF image frame 30 based on row-by-row using three stages. Each stage includes a low pass filter 108 and a high pass filter 110. In one embodiment, each low pass filter 108 has a value of -1,2,6,2, -1 and each high pass filter has a value of -1,2-1.

필터링 이후에, 저역 통과 성분들 및 고역 통과 성분들은 데서매이터(112,114)에 의해 각각의 단에서, 각각 스케일링 및 데서메이팅되거나 또는 다운샘플링되어 이산 신호를 포함하는 샘플값들의 성분들이 제거된다. 예시된 실시예에서, 입력 이미지는 모든 다른 샘플을 버리도록 둘의 팩터(factor)로 다운샘플링된다. 둘(2)에 의한 데서메이팅은 입력의 정확한 재구성을 가능하도록 하기에 필요하고 충분한 변환 계수들을 결국 초래한다. 이후에, 저역 통과 성분들 및 고역 통과 성분들의 다운샘플링된 값들은 도7과 관련하여 아래 본문에 보다 상세히 기술되는 방식으로 각각의 단에서 정규화된다. 제1단의 출력은 저역 통과 필터 성분(A0R) 및 고역 통과 성분(D0R)을 포함한다. 저역 통과 성분(A0R)은 제2 시간 및 이후 제3 시간으로 분해되어 추가 횡열 세부값(D1R,D2R) 및 횡열 평균값(A2R)을 초래한다.After filtering, the low pass components and the high pass components are scaled and deserialized or downsampled at each stage, respectively, by the desistorters 112 and 114 to remove components of the sample values including the discrete signal. In the illustrated embodiment, the input image is downsampled by two factors to discard all other samples. Desampering by two (2) eventually results in necessary and sufficient transform coefficients to enable accurate reconstruction of the input. Thereafter, the downsampled values of the low pass components and the high pass components are normalized at each stage in the manner described in more detail below in connection with FIG. The output of the first stage includes a low pass filter component A 0R and a high pass component D 0R . The low pass component A 0R decomposes into the second time and then to the third time, resulting in further row detail D 1R , D 2R and row mean value A 2R .

도6(a)에 도시된 횡열 단들의 횡열 출력(D0R,D1R,D2R,A2R)은 도6(b)에 도시된 단들에 종렬 단위(column-by-column)를 기초로 적용된다. 도6(b)에 도시된 각각의 3단들은 도6(a)와 결합하여 상기된 것과 동일한 방식으로 적용되는 하나의 필터쌍, 다운샘플링 및 정규화 처리를 포함한다. 변환 출력은 도3과 관련하여 상기되고 도4(b)에 예시된 것과 같은 서브밴드(34)의 모음이다.The row output (D 0R , D 1R , D 2R , A 2R ) of the row columns shown in FIG. 6 (a) is applied based on column-by-column to the columns shown in FIG. 6 (b). do. Each of the three stages shown in Fig. 6 (b) includes one filter pair, downsampling and normalization process applied in the same manner as described above in combination with Fig. 6 (a). The transform output is a collection of subbands 34 as described above in connection with FIG. 3 and illustrated in FIG. 4 (b).

식별을 위해 도4(b)를 참고하면, 각각의 서브밴드는 서브밴드 표시(SBij)에 의해 식별되는데, 여기에서, 각 횡렬에 대해서 i=0,1,2 또는 3이며 각 종렬에 대해 j=0,1,2 또는 3이다. 음영진 서브밴드 블록들, 실예로, SB0의 서브밴드 블록(116) 및 SB33의 서브밴드 블록(118)은 도4(a)의 QCIF 이미지(30)의 IMB2,4와 상응한다. 상기 데서메이션 처리 때문에, 각각의 상응하는 서브밴드 블록은 실예로, SB0의 서브밴드 블록(116)이 8x8 계수들을 포함하고 SB33의 서브밴드 블록(118)이 2x2 계수들을 포함하도록 비례적으로 감소된다. 상기한 바와 같이, 관련된 서브밴드 블록들, 실예로, 서브밴드 위치(2,4)에서 발견되는 각각의 서브밴드(SB0내지 SB33)의 이런 서브밴드 볼록들은 특정 처리 단계들을 용이하게 하기 위해 블록(36)(도3 및 도5)의 서브밴드 매크로-블록 패킹의 단계동안 모아진다.Referring to FIG. 4 (b) for identification, each subband is identified by a subband notation SB ij , where i = 0,1,2 or 3 for each row and for each column. j = 0, 1, 2 or 3. Shaded subband blocks, for example, subband block 116 of SB 0 and subband block 118 of SB 33 correspond to IMB 2,4 of QCIF image 30 of FIG. 4 (a). Because of the degassing process, each corresponding subband block is proportionally such that subband block 116 of SB 0 contains 8x8 coefficients and subband block 118 of SB 33 contains 2x2 coefficients. Is reduced. As noted above, such subband convexities of the respective subband blocks, e.g., each subband SB 0 through SB 33 found at the subband positions 2, 4, may facilitate specific processing steps. During the step of subband macro-block packing of block 36 (FIGS. 3 and 5).

기술된 실시예의 특징에 따라, 도7을 참고하면, 서브밴드 인코딩 처리의 각각의 단에 대한 나머지(remainder)가 유한 정밀 변환(finite precision transform) 때문에 유발된 오류를 보상하기 위하여 반대편 필터 경로에 전달된다. 전달된 나머지는 정밀도의 손실을 설명하도록 반대편 필터 경로상의 계수들을 조정하기 위해 사용된다. 더욱이, 이에 의해 필터들이 변경되는 처리가 이들을 이중직교(bi-orthogonal)도 직교도아니게 할 수 있다.In accordance with the features of the described embodiment, referring to Figure 7, the remainder for each stage of the subband encoding process is passed to the opposite filter path to compensate for errors caused by finite precision transform. do. The remainder passed is used to adjust the coefficients on the opposite filter path to account for the loss of precision. Moreover, the process by which the filters are changed thereby may make them neither bi-orthogonal nor orthogonal.

도7은 도6(a)에 도시된 횡렬 변환의 제1 단에 대한 반대편 필터 채널들에 나머지를 전달하기 위한 구현체를 도시한다. 유사한 구현체가 각각의 횡렬 단 및 종렬 단들에 포함된다. 입력 프레임(30)의 계수들은 저역 통과 필터(30) 및 고역 통과 필터(110)에서 정규한 방식으로 필터링된다. 결과들은 샘플러(112,114)들에서 각각 다운샘플링된다. 저역 통과 필터(108)의 분해된 결과들은 저역 통과 정규화 출력(126) 및 저역 통과 나머지(rl)를 발생시키는 저역 통과 정규화 처리부(120)에서 정규화된다. 고역 통과 필터(110)의 분해된 결과들은 고역 통과 정규화 출력(124) 및 저역 통과 나머지(rh)를 발생시키는 고역 통과 정규화 처리부(124)에서 정규화된다. 각각의 정규화 처리부(120,124)로부터 각각 초래되는 나머지(rl,rh)는 예시된 바와 같이 함수 g(rl,rh)(128) 및 f(rl,rh)(130)를 각각 통과한다. 함수 g(rl, rh)(128)의 결과는 A0R(제1단의 평균치)를 초래하는 가산기(132)에서 저역 통과 정규화 출력(122)에 가산된다. 함수 f(rl,rh)(130)의 결과는 D0R(제1단의 손실 항)를 초래하는 가산기(133)에서 고역 통과 정규화 출력(126)에 가산된다.FIG. 7 shows an implementation for delivering the remainder to opposite filter channels for the first stage of the transverse transformation shown in FIG. 6 (a). Similar implementations are included in each row row and column row. The coefficients of the input frame 30 are filtered in a normal manner in the low pass filter 30 and the high pass filter 110. The results are downsampled at samplers 112 and 114, respectively. The decomposed results of the low pass filter 108 are normalized by the low pass normalization output 120 and the low pass normalization processing unit 120 that generates the low pass remainder rl. The decomposed results of the high pass filter 110 are normalized in the high pass normalization output 124 and the high pass normalization processing unit 124 which generates the low pass remainder rh. The remainder (rl, rh) resulting from each normalization processor 120, 124, respectively, passes through the functions g (rl, rh) 128 and f (rl, rh) 130, as illustrated. The result of the function g (rl, rh) 128 is added to the low pass normalization output 122 at the adder 132 resulting in A 0R (average of the first stage). The result of the function f (rl, rh) 130 is added to the high pass normalization output 126 at the adder 133 resulting in D 0R (loss term in the first stage).

필터 L={-1,2,6,2,-1} 및 H={-1,2,-1}에 대해, 나머지의 함수들의 실시예는: nh=1/2인 f(rl,rh)=최저값(rh+1/2); g(rl,rh)=rh이다. 나머지의 상기된 조작이 각각의 필터 쌍에 대해 반복되어 변환 출력의 감소된 비트 할당을 초래시킨다.For the filters L = {-1,2,6,2, -1} and H = {-1,2, -1}, an embodiment of the remaining functions is: f (rl, rh with nh = 1/2 ) = Lowest value (rh + 1/2); g (rl, rh) = rh. The remaining operations described above are repeated for each filter pair, resulting in a reduced bit allocation of the transform output.

텐서 곱 웨이브릿 쌍의 실시예는An embodiment of a tensor product wavelet pair is

여기에서, X2i= 입력 데이터;Where X 2i = input data;

X2i-1= 입력 데이터 X2i에 선행하는 데이터;X 2i-1 = data preceding input data X 2i ;

X2i+1= 입력 데이터 X2i를 뒤따르는 데이터;X 2i + 1 = data following the input data X 2i ;

Di= 세부 항(데서메이팅된 고역 통과 필터 출력);D i = detail term (decimated high pass filter output);

Di+1= Di를 뒤따르는 세부 항; 및D i + 1 = detail term following D i ; And

Ai= 근사 항(데서메이팅된 저역 통과 필터 출력).A i = approximation (described low pass filter output).

상기한 텐서 곱 웨이브릿 변환은 고역 통과(세부값) 및 저역 통과(근사값) 성분들로의 투웨이 분할을 예시한다. 게다가, 기술은 제1대역에서 제2대역으로, 제2대역에서 제1대역으로, 또는 제1대역에서 제2대역으로 그리고 제2대역에서 제1대역으로 둘 다 나머지를 전달할 가능성을 예시한다. 상기된 실시예는 본 발명의 기본 개념을 예시하도록 의도되며 본 발명의 범위를 제한하는 것으로는 절대 인지되지 말아야한다.The tensor product wavelet transform described above illustrates two-way splitting into highpass (detailed) and lowpass (approximate) components. In addition, the technique illustrates the possibility of delivering the remainder both from the first band to the second band, from the second band to the first band, or from the first band to the second band and from the second band to the first band. The above described embodiments are intended to illustrate the basic concepts of the present invention and should never be perceived as limiting the scope of the present invention.

실예로, 텐서 곱 웨이브릿 변환은 3웨이 스플릿(three-way split)이 고역 통과 필터, 중간 대역 통과 필터 및 저역 통과 필터를 포함하는 제1 단을 가질 수 있다. 저역 통과 필터의 출력은 반복될 수 있는데, 즉, 3웨이 스플릿을 갖는 제2단이 저역 통과 필터의 출력에 적용될 수 있어 총 5 서브밴드를 초래한다. 이런 실시예에 있어, 나머지들은 저역 통과 필터 및 고역 통과 필터로부터 중간 대역 통과 필터에 전달될 수 있다. 이 실시예는 어떻게 텐서 곱 웨이브릿 변환이 변화될 수 있고 상기 본 발명의 범위 및 사상을 계속 유지할 수 있는지의 단지 하나의 실시예일 뿐이다. 당업자들은 입력이 각 단에서 분할되고 인터레이트될 수 있는 다수의 다른 방식들이 있고 나머지들이 서브밴드들 사이에서 전달될 수 있는 다수의 다른 방식들이 또한 있다는 것을 용이하게 인지할 것이다.As an example, the tensor product wavelet transform may have a first stage in which a three-way split includes a high pass filter, an intermediate band pass filter, and a low pass filter. The output of the low pass filter can be repeated, i.e., a second stage having a three way split can be applied to the output of the low pass filter resulting in a total of five subbands. In this embodiment, the remainders may be passed from the low pass filter and the high pass filter to the intermediate band pass filter. This embodiment is just one embodiment of how the tensor product wavelet transform can be varied and still maintain the scope and spirit of the present invention. Those skilled in the art will readily appreciate that there are a number of other ways in which the input may be split and interlaced at each end and there are also a number of other ways in which the rest may be passed between subbands.

게다가, 상기한 나머지들의 전달은 텐서 곱 웨이브릿 변환에 대한 사용을 제한하도록 의도되지 않는다. 그것은 임의의 변환과 함께 사용될 수도 있다. 실예로, 나머지들의 전달은 이산 코사인 변환(DCT)과 사용될 수 있다. 또한, 나머지들의 전달은 로스리스(lossless) 또는 로시(lossy) 방식으로 사용될 수 있다.In addition, the transfer of the remainders above is not intended to limit the use for tensor product wavelet transform. It may be used with any transformation. For example, the transfer of the remainders can be used with Discrete Cosine Transform (DCT). Also, the delivery of the remainders can be used in a lossless or lossy manner.

본문에 상기한 바와 같이, 전방 웨이브릿 변환(32)의 출력은 QCIF 이미지(30)의 완결 표시 또는 과-완결(over-complete) 표시일 수 있다. QCIF 이미지(30)의 완결 표시는 완결 표시 및 중복값, 변형체, 또는 추가적인 서브밴드 표시들을 포함하여 아래 본문에 기술될 동작 보상을 용이하게 한다. 각각의 표시는 기술된 실시예의 값을 가진다. 실예로, 과-완결 표시는 병진운동, 회전 운동 및 스케일링 같은 다양한 이미지 변화를 포함할 수 있다. 이런 변화들은 동작 보상동안 필요함에 따라 리콜될 수 있어 이미지 변화를 나타내는 문제를 하나의 인덱싱으로 감소시킨다.As noted above, the output of the forward wavelet transform 32 may be a complete indication or an over-complete indication of the QCIF image 30. The complete indication of the QCIF image 30 includes a complete indication and duplicate values, variants, or additional subband indications to facilitate motion compensation as described in the text below. Each indication has the value of the described embodiment. By way of example, the over-complete indication may include various image changes, such as translation, rotational movement and scaling. These changes can be recalled as needed during motion compensation, reducing the problem of image change to one indexing.

본문에 예시된 변환된 이미지 프레임 구조체들이 루마 성분들(luma components)에 대한 것일지라도, 그 구조체들은 또한 채도(chroma) 성분들에 대해 또한 유지하고 그러므로 개별적으로 기술되지 않았다는 것을 상기 전방 웨이브릿 변환과 관련하여 인지해야할 것이다.Although the transformed image frame structures illustrated in the text are for luma components, the structures also maintain for chroma components and therefore are not described separately, and with the forward wavelet transform You should be aware of that.

도3과 관련하여 본문에 상기한 변화-검출 블록(46)에 관하여, 제로(0) 기준치, 또는 실예로, 지연부(48)를 통해 제공된 과거의 가중 그루핑과 같은 다소의 다른 기준치는 얼마나 많이 가중된 그루핑(44)이 변하는지 검출하기 위해 사용될 수 있는 것이 인지된다. 변화-검출 블록(46)의 실시예는 가중된 그루핑(44)이 적용되어야할 변화 검출 미터법을 포함한다.With respect to the change-detection block 46 described above in connection with Figure 3, how many other reference values, such as zero reference values or, for example, past weighted groupings provided through the delay portion 48, how many? It is appreciated that the weighted grouping 44 can be used to detect if it changes. Embodiments of change-detection block 46 include a change detection metric to which weighted grouping 44 should be applied.

여기서 ec= 기준치 R에 대한 상대적인 왜곡의 측정치;Where e c = measurement of distortion relative to reference value R;

Wi= 적용된 가중치;W i = weight applied;

G = 서브밴드 변환 계수들의 현재의 그루핑; 및G = current grouping of subband transform coefficients; And

R = 실예로, 제로(0), 또는 지연 블록(48)을 통해 얻어지는 서브밴드 계수들의 이전 그루핑이다.R = for example, zero, or previous grouping of subband coefficients obtained via delay block 48.

변화 검출 미터법은 보다 특정한 형태:Change detection metrics are more specific:

를 취할 수 있다.Can be taken.

게다가, 변화-검출부(46)는 인코딩된 비트스트림 그루핑(78)으로부터 피드백(132)(도3)에 의해 제공된 정보를 사용하여 어느 것이라도 비트 할당과 관련하여 변화-검출부(46)로부터 출력되기에 너무 비싼 것으로 결정되면 가중된 그루핑(44)의 특정 가중된 매크로-블록들을 제거할 수 있다. 더욱이, 변화-검출 블록(46)은 하나의 특징, 실예로 서브밴드 블록을 그 특징을 보다 잘 나타내는 것으로 여겨지는 또다른 것으로 대체될 수 있다.In addition, the change-detector 46 is output from the change-detector 46 in relation to the bit allocation using the information provided by the feedback 132 (FIG. 3) from the encoded bitstream grouping 78. If it is determined to be too expensive, then certain weighted macro-blocks of weighted grouping 44 can be removed. Moreover, change-detection block 46 may be replaced with one feature, e.g., a subband block, with another that is believed to better represent that feature.

상기하고 도3에 도시된 바와 같이, 랭크된 서브밴드 그루핑(53) 및 랭크된 서브밴드 매크로-블록 그루핑(54)은 동작 추정을 위해 선(55)을 통해 지연 블록(62) 및 블록(56)에 각각 전송된다. 블록(56)에서, 비교 처리는 랭크된 서브밴드 매크로-블록 그루핑(54)의 서브밴드 블록들, 즉, '현재' 프레임과 지연된 랭크된 서브밴드 그루핑(57)의 관련된 검색영역들, 즉 '기준'프레임 사이에서 수행된다. 당업자들은 현재 프레임에 대한 랭크된 서브밴드 매크로-블록 그루핑(54) 및 기준 프레임에 대한 지연된 랭크된 서브밴드 그루핑(57)을 사용시의 특정 장점을 인지할 것이다. 그러나, 본 발명의 교시를 유지하는 다른 그루핑들 및 조합들이 사용될 수 있음이 인지되어야 한다. 블록(56)에서 수행된 비교 처리는 개략적으로 본문에 상기한 바와 같이, 동작 예측을 위해 블록(60)에 전달되며 비트스트림으로의 위치 인코딩을 위해 블록(76)에 전달되는 동작 벡터(58)들의 모음을 초래한다.As noted above and shown in FIG. 3, the ranked subband grouping 53 and the ranked subband macro-block grouping 54 are delayed block 62 and block 56 over line 55 for motion estimation. Respectively). In block 56, the comparison process involves subband blocks of the ranked subband macro-block grouping 54, i.e., the associated search regions of the 'current' frame and the delayed ranked subband grouping 57, i.e. Reference 'is performed between frames. Those skilled in the art will appreciate certain advantages in using the ranked subband macro-block grouping 54 for the current frame and the delayed ranked subband grouping 57 for the reference frame. However, it should be appreciated that other groupings and combinations may be used to maintain the teachings of the present invention. The comparison process performed at block 56 is passed to block 60 for motion prediction and motion vector 58 to block 76 for location encoding into the bitstream, as outlined above in the text. Results in vowels.

도8 및 도9를 참고하면, 블록(56)의 동작 추정 및 동작 벡터(58)들의 모음의 생성은 보다 상세하게 기술될 것이다. 도8에, 지연된 랭크된 서브밴드 그루핑(57)이 도시된다. 지연된 랭크된 서브밴드 그루핑(57)은 도4(b)에 도시된 서브밴드(34)의 모음과 유사하지만 블록(52)(도3)에 랭크된 그 서브밴드 블록들을 가지므로써 그리고 지연 블록(62)의 적어도 한 프레임마다 지연되므로써 추가로 처리 되었다. 개개의 동작 벡터들을 용이하게 결정하기 위해, 검색 영역들이 적어도 하나의 서브밴드들(SB0내지 SB33)의 서브밴드 블록들에 대해 한정된다. 이들에 대하여 한정되는 검색 영역들을 갖도록 선택되는 각각의 서브밴드내의 서브밴드 블록들은 변화-검출 블록(46)에서 중요한 것으로 한정되는 것들이다. SB0내의 유효한 서브밴드 블록들에 근거하여 동작 벡터들을 전개시키기에 충분하다.8 and 9, the motion estimation of block 56 and the generation of a collection of motion vectors 58 will be described in more detail. In Fig. 8, delayed ranked subband grouping 57 is shown. Delayed ranked subband grouping 57 is similar to the collection of subbands 34 shown in FIG. 4 (b) but has its subband blocks ranked in block 52 (FIG. 3) and delay block ( Additional processing was performed by delaying at least one frame in step 62). In order to easily determine the individual motion vectors, search regions are defined for the subband blocks of the at least one subbands SB 0 to SB 33 . The subband blocks in each subband that are selected to have search regions defined for them are those that are limited to those that are important in change-detection block 46. It is sufficient to develop motion vectors based on valid subband blocks in SB 0 .

계속해서 도8을 참고하면, QCIF 이미지(30)(도4(a))의 이미지 매크로-블록(2,4)(IMB2,4)에 상응하는 각각의 서브밴드 블록에 대하여 전개된 검색 영역들이 도시된다. 검색영역들의 크기는 변동될 수 있다. 그러나, 서브밴드 블록들에 대한 검색 영역들은 이미지와의 이들의 분수 관계에 따라 항상 비례할 것이다. 실예로, QCIF 이미지(30)(도13)의 P x P 펠의 기본 검색 영역은 도면부호 136으로 표시된 것처럼, P/2 x P/2(도8)의 SB0의 서브밴드 블록(137)에 대한 검색영역으로 바꿔지고 도면부호139로 표시된 것 처럼, P/4 x P/2(도8)의 SB1의 서브밴드 블록(140)에 대한 검색영역으로 바꿔진다.8, the search region developed for each subband block corresponding to the image macro-blocks 2 and 4 (IMB 2 and 4 ) of the QCIF image 30 (FIG. 4 (a)). Are shown. The size of the search areas may vary. However, search areas for subband blocks will always be proportional to their fractional relationship with the image. By way of example, the basic search region of the P x P Pel in QCIF image 30 (FIG. 13) is subband block 137 of SB 0 of P / 2 x P / 2 (FIG. 8), as indicated by reference numeral 136. FIG. Is replaced by a search region for subband block 140 of SB 1 of P / 4 x P / 2 (FIG. 8).

이하 본문에 제공된 동작 추정의 실시예들에 있어, 도13의 P x P 검색 영역(107)은 32 x 32 펠을 포함해야하는데, 이는 16 x 16펠을 갖는 IMB2,4의 4배 크기이다. 그러므로, P/2 x P/2 검색 영역(136)(도8)은 서브밴드 블록(137)(8 x 8계수들)의 4배 크기인 16 x 16계수들을 포함한다. 그리고, P/4 x P/2 검색 영역(139)은 서브밴드 블록(140)(8 x 4계수들)의 4배 크기인 16 x 8계수들을 포함한다. 아래 본문에 보다 기술되는 바와 같이, 서브밴드 검색 영역들은 다소 또는 모든 서브밴드(SB0내지 SB33)의 각각의 유효 서브밴드 블록(0,0 내지 8,10)에 대한 동작 벡터들을 용이하게 결정하는데 사용된다.In the embodiments of motion estimation provided herein below, the P x P search region 107 of Figure 13 should include 32 x 32 pels, which is four times the size of IMB 2,4 with 16 x 16 pels. . Therefore, P / 2 by P / 2 search region 136 (FIG. 8) includes 16 by 16 coefficients that are four times the size of subband block 137 (8 by 8 coefficients). The P / 4 × P / 2 search region 139 includes 16 × 8 coefficients that are four times the size of the subband block 140 (8 × 4 coefficients). As described further in the text below, the subband search regions readily determine motion vectors for each valid subband block (0,0 to 8,10) of some or all subbands (SB 0 to SB 33 ). It is used to

검색 영역의 기본 크기(P x P)는 고려되는 경험적이거나 또는 통계적인 분석, 실예로 프레임들 사이에서 예상되는 운동량에 의해 결정될 수 있다. 게다가, 고려는 해당 검색 영역에서 검색을 실행하기 위해 필요한 컴퓨터 작용이 주어져야 한다. 당업자는 보다 큰 검색 영역들이 보다 많은 컴퓨터 자원을 필요로 하여 고정된 처리기에 대해 보다 내부프레임 지연을 필요로 한다는 것을 이해할 것이다. 역으로, 보다 작은 검색 영역들은 컴퓨터 자원을 덜 필요로 하지만 이미지 품질을 희생한다. 이것은 특히 고 이미지-이동 주기 중에 진정이다. 즉, 이미지의 질은 동작의 부분이 검색영역 밖에 위치되어 정밀한 동작 벡터 선택을 가로막기 때문에 감소된다.The basic size P x P of the search region may be determined by empirical or statistical analysis under consideration, for example the amount of motion expected between frames. In addition, consideration should be given to the computer actions necessary to perform a search in that search area. Those skilled in the art will appreciate that larger search areas require more computer resources and require more internal frame delay for fixed processors. Conversely, smaller search areas require less computer resources but sacrifice image quality. This is especially true during high image-shift cycles. That is, the quality of the image is reduced because part of the motion is located outside the search area, which prevents precise motion vector selection.

상기된 바와 같이, 랭크된 서브배드 그루핑(53) 및 랭크된 서브밴드 매크로-블록 그루핑(54)은 블록(52)으로부터 선(55)을 통해 지역 블록(62) 및 동작 추정 블록(56)에 각각 전달된다. 아래 본문에 예를 들면, 검색 영역은 지연된 랭크된 서브밴드 그루핑(57)(도8)의 SB0의 서브밴드 블록(2,4)에 대해 위치된다. 그리고, 랭크된 서브밴드 매크로-블록 그루핑(54)의 서브밴드 매크로-블록(2,4)의 SB0의 서브밴드 블록(2,4)(도5(c)의 서브밴드 블록(116)참고)은 변화동안 검색영역을 트래버스하는데 사용된다. 그러나, 상기된 바와 같이, 서브밴들들의 임의의 선택 또는 모든 서브밴드들의 선택은 아래 기술된 방법에 따라 사용될 수 있다.As noted above, the ranked subbadging grouping 53 and the ranked subband macro-block grouping 54 are passed from the block 52 to the local block 62 and the motion estimation block 56 via the line 55. Each is delivered. For example in the text below, the search region is located with respect to the subband blocks 2, 4 of SB 0 of delayed ranked subband grouping 57 (FIG. 8). Then, subband blocks 2 and 4 of SB 0 of subband macro-blocks 2 and 4 of the ranked subband macro-block grouping 54 (see subband block 116 of FIG. 5C). ) Is used to traverse the search area during the change. However, as described above, the selection of any subbands or the selection of all subbands can be used according to the method described below.

도3,8,9를 참고하면, 상기된 바와 같이, 랭크된 서브밴드 그루핑(53)은 지연된 랭크된 서브밴드 그루핑(57)('기준 프레임')을 생성시키는 지연부(62)에서 지연된다. 지연된 랭크된 서브밴드 그루핑(57)은 검색 영역(136)이 서브밴드 블록(137)에 대한 SB0의 P/2 x P/2 영역을 가지는 것에 관해 식별되는 동작 추정 블록(56)에 전송된다. 이런 실예에 대해, 검색 영역은 16 x 16계수들과 동일하다. 랭크된 서브밴드 매크로-블록 그루핑(54)('현재'프레임)은 도5(c)의 서브밴드 블록(116)의 음영진 영역과 유사한 서브밴드 블록(138)(도9(a))이 이하 기술된 비교 처리에 사용하기 위해 검색되는 동작 추정 블록(56)에 또한 전송된다.3, 8, and 9, as described above, the ranked subband grouping 53 is delayed in the delay section 62, which produces a delayed ranked subband grouping 57 ('reference frame'). . Delayed ranked subband grouping 57 is sent to motion estimation block 56 where the search region 136 is identified as having a P / 2 by P / 2 region of SB 0 for subband block 137. . For this example, the search area is equal to 16 x 16 coefficients. Ranked subband macro-block grouping 54 ('current' frame) is a subband block 138 (Fig. 9 (a)) similar to the shaded region of subband block 116 in Fig. 5 (c). It is also sent to motion estimation block 56, which is retrieved for use in the comparison process described below.

도9(a) 내지 도9(d)에 대해 참고하면, 동작 벡터들(MVx,x)이 도3의 동작 추정 블록(56)에서 결정되는 처리들이 도시된다. 아래의 실시예에서, 하나의 서브밴드 블록, 즉, SB0의 서브밴드 블록(2,4)에 대한 동작 벡터가 결정된다. 그러나, 각 서브밴드( SB00내지 SB33)의 각 유효 서브밴드 블록에 대한 동작 벡터들이 결정될 수 있다.Referring to Figures 9 (a) through 9 (d), the processes in which the motion vectors MV x, x are determined in the motion estimation block 56 of Figure 3 are shown. In the following embodiment, the motion vector for one subband block, i.e. subband blocks 2, 4 of SB 0 , is determined. However, motion vectors for each valid subband block of each subband SB 00 to SB 33 may be determined.

도9(a)를 참고하면, 랭크된 서브밴드 매크로-블록 그루핑(54)의 서브밴드 블록(138)은 지연된 랭크된 서브밴드 그루핑(57)(도8)의 검색영역(136)내에 위치된다. 서브밴드 블록(138)은 지연된 서브밴드 그루핑(57)의 서브밴드 블록(137) 상에 필수적으로 수퍼임포즈(superimpdsed)된다. 상기한 바와 같이, 랭크된 서브밴드 매크로-블록 그루핑(54)은 도5(c)에 도시된 서브밴드 매크로-블록 그루핑(40)과 유사한 구조를 갖는다. 그리고 지연된 랭크된 서브밴드 그루핑(57)은 도4(b)에 도시된 서브밴드(34)의 모음과 유사한 구조를 갖는다. 도9(a)를 다시 참고하면, 검색 영역(136)의 계수(141)(각각에서 'x'를 갖는 4개의 원들로 도시됨)들 및 서브밴드 블록(138)의 계수(142)(4개의 원들로 도시됨)들은 동작 벡터를 결정하는 방법을 용이하게 예시하기 위해 본문에 사용된다. 계수(141,142)들이 값에 있어 근사적으로 동일하고 나머지 계수(도시되지 않음)들은 계수(141,142)들로부터의 다른 값으로 이루어지지만 서로 근사하게 동일한 이런 실시예가 추정된다. 계수(141,142)들의 위치의 차이는 두 비디오 프레임들 사이의 변화, 실예로, 병진운동을 나타낸다.Referring to Figure 9 (a), the subband block 138 of the ranked subband macro-block grouping 54 is located within the search region 136 of the delayed ranked subband grouping 57 (Figure 8). . Subband block 138 is essentially superimpeded on subband block 137 of delayed subband grouping 57. As mentioned above, the ranked subband macro-block grouping 54 has a structure similar to the subband macro-block grouping 40 shown in Fig. 5C. The delayed ranked subband grouping 57 has a structure similar to the collection of subbands 34 shown in Fig. 4B. Referring again to Figure 9 (a), the coefficients 141 (shown as four circles with 'x' in each) of the search region 136 and the coefficients 142 (4) of the subband block 138 Circles) are used in the text to easily illustrate how to determine the motion vector. Such an embodiment is estimated, although the coefficients 141, 142 are approximately equal in value and the remaining coefficients (not shown) are of different values from the coefficients 141, 142, but approximately equal to each other. The difference in the position of the coefficients 141, 142 represents the change between the two video frames, for example, the translational motion.

도9(b)를 참고하면, 서브밴드 블록(138)은 서브밴드 볼록(138)과 검색 영역(136) 사이의 각 단계에서의 총 절대 차이를 결정하기 위해 탐색하는 검색 영역(136)을 소정 계단식 패턴으로 트래버스(traverse), 즉, 검색한다. 당업자들은 다양한 트래버스 패턴들이 사용될 수 있는 것을 인지할 것이다. 게다가, 총 절대 차이 이외의 다른 판단 기준이 비교를 위한 기초로서 사용될 수 있다. 초기 비교는 증가적, 또는 전체 단계, 서브밴드 블록(138)의 이동을 사용하여 최량의 매치를 찾으려고 한다. 증가 이동은 x 또는 y 방향으로의 완전한 시프트, 또는 단계를 나타낸다. 실예로, 전체 검색 영역(136)을 검색할시에, 서브밴드 블록(138)은 검색영역(136)내에서 ±4 증분, 즉, x방향으로 변환계수들 그리고 y방향으로 ±4증분씩 시프트한다. 서브밴드 블록(138)이 8 x 8 계수들을 가지면서 검색 영역이 16 x 16계수들을 갖기 때문에 서브밴드 블록(138)은 x 및 y방향으로 ±4증분된다.Referring to Fig. 9B, the subband block 138 selects a search area 136 to search for to determine the total absolute difference at each step between the subband convex 138 and the search area 136. Search in traverses, that is, in a cascading pattern. Those skilled in the art will appreciate that various traverse patterns can be used. In addition, other criteria than total absolute difference may be used as the basis for the comparison. The initial comparison attempts to find the best match using incremental or full step, movement of the subband block 138. Incremental movement represents a complete shift, or step, in the x or y direction. For example, upon searching the entire search region 136, the subband block 138 shifts the shift coefficients in the search region 136 by ± 4 increments, i.e. by +4 increments in the y direction. . The subband block 138 is ± 4 incremented in the x and y directions because the subband block 138 has 8 x 8 coefficients and the search region has 16 x 16 coefficients.

도9(b)를 계속 참고하면, 증가 검색을 처리한 이후, 최량의 매치는 양의 x방향으로는 완전 증가 이동이 3개 발견되며 y방향으로는 완전 증가 이동이 2개 발견된다. 이후, 도9(c)에 도시된 바와 같이, 분수적 차이들은 서브밴드 블록(138)과 검색 영역(136) 사이의 차이를 보다 정확하게 나타내도록 결정된다. 이런 처리를 용이하게 하기 위해, 특정 서브밴드에 적절한 분수 이동을 나타내는 마스크들이 서브밴드 블록(138)에 적용된다.With continuing reference to Fig. 9 (b), after processing an incremental search, the best match finds three full incremental movements in the positive x direction and two full incremental movements in the y direction. The fractional differences are then determined to more accurately represent the difference between the subband block 138 and the search region 136, as shown in FIG. To facilitate this process, masks representing fractional shifts appropriate for a particular subband are applied to the subband block 138.

실예로, SB0가 최초 이미지(도4(a)의 IMB2,4참고)의 관련 매크로-블록의 1/4크기이기 때문에, 서브밴드 블록(138)이 IMB2,4의 보다 우수한 이동을 보다 정확하게 재생시키도록 할 수 있는 4개의 분수 이동이 있다. 즉, 서브밴드 블록(138)은 x방향으로 증분의 ±1/2, y방향으로 증분의 ±1/2 이동할 수 있다. 그러므로, 4 분수 마스크(143)들은 최량의 매치를 찾아 서브밴드 블록(138)을 변경시키는데 사용된다.For example, because SB 0 is one-fourth the size of the associated macro-block of the original image (see IMB 2,4 in Figure 4 (a)), subband block 138 provides better movement of IMB 2,4 . There are four fractional shifts that can be reproduced more accurately. That is, the subband block 138 may move ± 1/2 of the increment in the x direction and ± 1/2 of the increment in the y direction. Therefore, the four fraction masks 143 are used to find the best match and change the subband block 138.

도9(c)를 계속해서 참고하면, 4개의 마스크(143)들이 서브밴드 블록(138)에 적용된다. 각 마스크의 적용물 사이에서 서브밴드 블록(138)과 검색 영역(136)의 계수들 사이의 총 절대 차이가 결정된다. 상기 증가 검색 중에 결정되는 것과 비교하여 보다 우수한 매치가 발견되면, 분수 마스크가 동작 벡터에 가산된다. 실예에서, 최량의 매치는 양의 x 방향으로 +1/2 분수 이동되도록 결정된다. 동작 벡터의 결과적인 x 및 y 성분들은 각각 +3 1/2 및 +2이다.With continued reference to FIG. 9C, four masks 143 are applied to the subband block 138. The total absolute difference between the coefficients of subband block 138 and search region 136 is determined between the applications of each mask. If a better match is found compared to that determined during the incremental search, a fractional mask is added to the motion vector. In an example, the best match is determined to be +1/2 fraction shifted in the positive x direction. The resulting x and y components of the motion vector are +3 1/2 and +2, respectively.

당업자들은 상기 실시예에 도시된 것 정도로 정확한 매치를 얻는 것이 보통과는 다르다는 것을 인지할 것이다. 이런 의미에서, 서브밴드 블록의 계수들과 검색 영역의 계수들 사이의 '최량 매치'는 둘 사이의 '가장 근접한 근사값'으로 보다 정확하게 기술될 수 있다. 동작 예측치는 정확성의 결여에 대해 보상하도록 나중에 사용된다.Those skilled in the art will appreciate that obtaining an exact match to the extent shown in the above embodiments is unusual. In this sense, the 'best match' between the coefficients of the subband block and the coefficients of the search region can be described more accurately as the 'closest approximation' between the two. Motion estimates are later used to compensate for the lack of accuracy.

도9(d)를 참고하면, 동작 벡터의 x 및 y 성분들은 그들의 부호를 역전시키고 스케일링된다. 보다 상세하게는, 각각의 x 및 y 성분들에 -1배 하며, SB0는 동작 추정에 사용되는 이런 실시예에서, 각각의 x 및 y 성분들에 2배한다. 동작 벡터들이 동작 예측동안(아래 보다 상세히 기술됨) 지연된 랭크된 서브밴드 그루핑(57)에 적용될 때, 적절한 계수들이 '선행' 프레임 위치에서 '현재'프레임 위치로 이동되도록 x 및 y 성분들의 부호가 역전된다. 그리고, x 및 y 성분들은 최초 QCIF 이미지(IMB2,4)의 관련 매크로-블록에 관하여 상기 결정된(x=3 1/2, y=2) 이동을 나타내도록 일정비율로 증가(scaled up)된다. 스케일링은 동작 예측 중에 서브밴드 SB00내지 SB33의 적절한 계수들을 시프팅시 사용된 x 및 y 성분들의 보다 단순한 결정을 허용한다.Referring to Fig. 9 (d), the x and y components of the motion vector are inverted and scaled in their sign. More specifically, -1 times each of the x and y components, and SB 0 doubles each of the x and y components in this embodiment used for motion estimation. When motion vectors are applied to delayed ranked subband grouping 57 during motion prediction (described in more detail below), the signs of the x and y components are shifted so that the appropriate coefficients are moved from the 'preceding' frame position to the 'current' frame position. Reversed. The x and y components are then scaled up to show the determined (x = 3 1/2, y = 2) shift relative to the associated macro-block of the original QCIF image (IMB 2,4 ). . Scaling allows simpler determination of the x and y components used in shifting the appropriate coefficients of subbands SB 00 to SB 33 during motion prediction.

실시예에서, SMB2,4의 서브밴드 블록들의 이동을 확인하는 결과적인 동작 벡터는 x=-7 이고 y=-4(MV2,4)이다. 그러므로, MV2,4는 랭크된 서브밴드 그루핑(53)('현재' 프레임)을 예측하기 위해 지연된 랭크된 서브밴드 그루핑(57)('기준'프레임)의 각각의 서브밴드로부터의 계수들의 특정 모음의 이동을 이들의 새로운 위치들에 표시한다. 상기 처리는 실예로, SB0의 각각의 유효 서브밴드 블록에 대해 반복된다. 처리는 통상적으로 랭킹 순서대로, 즉, 최대량의 이동을 갖는 매크로-블록들로부터 최소량의 이동을 갖는 매크로-블록들까지 진행된다. 아주 비유효한 서브밴드 블록들은 전혀 고려되지 않고 그러므로 할당된 동작 벡터를 갖지 못할 것이다. 이것은 실예로, 프레임들 사이의 이런 위치들에서 비유효하거나 또는 변화가 없을 때 발생할 것이다. 이것은 서브밴드 블록들이 상기 기술된 바와 같이 레퍼런스된 제로일 때 또한 발생할 수 있다.In an embodiment, the resulting motion vector confirming the movement of subband blocks of SMB 2,4 is x = -7 and y = -4 (MV 2,4 ). Therefore, MV 2,4 specifies the coefficients from each subband of delayed ranked subband grouping 57 ('reference' frame) to predict ranked subband grouping 53 ('current' frame). Mark the movement of the vowels at their new locations. The above process is repeated, for example, for each valid subband block of SB 0 . Processing typically proceeds in ranking order, ie from macro-blocks with the most amount of movement to macro-blocks with the least amount of movement. Very invalid subband blocks will not be considered at all and therefore will not have an assigned motion vector. This may occur, for example, when there are invalid or no changes at these locations between frames. This may also occur when the subband blocks are zero referenced as described above.

다른 서브밴드가 동작 벡터들을 계산하는데 사용되어야 한다면, 증가 및 분수 이동은 QCIF 이미지(30)와 관련하여 특정 서브밴드의 비례 관계를 사용하여 상기된 것과 비슷한 방식으로 결정될 것이다. 실예로, SB1의 서브밴드 블록들이 동작 벡터들을 전개하기 위해 사용된다면, 이하 기준이 적용될 것이다: 검색 영역 크기=16 x 8; x 분수 마스크 = ±1/4, ±1/2, 및 ±3/4 증분; y 분수 마스크=±1/2 증분; x 스케일링=4; 및 y 스케일링=2.If another subband should be used to calculate the motion vectors, the increment and fractional shifts will be determined in a similar manner as described above using the proportional relationship of the particular subband with respect to the QCIF image 30. For example, if the subband blocks of SB 1 are used to develop motion vectors, the following criterion will apply: search region size = 16 × 8; x fractional mask = ± 1/4, ± 1/2, and ± 3/4 increments; y fractional mask = ± 1/2 increments; x scaling = 4; And y scaling = 2.

상기 방법을 사용하는 장점은 분리가능한 필터들이 채용될 수 있다른 것이다. 달리 말하면, 한 서브밴드 블록의 증가 및 분수 이동에 사용된 필터들은 다른 서브밴드 블록의 증가 및 분수 이동에 사용될 수 있다. 실예로, SB0의 서브밴드 블록들은 x= ±1/2 이고 y = ±1/2의 4개의 가능한 분수 이동을 가진다. 그리고, SB1의 서브밴드 블록들은 x= ±1/4, ±1/2 및 ±3/4 이고, y = ±1/2의 8개의 가능한 분수 이동을 가진다. SB00및 SB1의 x= ±1/2 이고 y = ±1/2의 공통 분수 이동 때문에, 분리가능한 단일 필터들은 두 서브밴드들에서 x= +1/2 ,x= -1/2, y = +1/2, 이고 y = -1/2의 분수 이동들에 사용될 수 있다. 이런 방법은 지연된 랭크된 서브밴드 그루핑(57)의 모든 공통 분수 이동에 사용될 수 있다. 분리가능한 필터들의 동일한 장점적인 사용은 동작 예측 블록(60)에서 실행될 수 있다.An advantage of using the method is that separable filters can be employed. In other words, filters used for incremental and fractional shifts of one subband block may be used for incremental and fractional shifts of another subband block. For example, the subband blocks of SB 0 have four possible fractional shifts of x = ± 1/2 and y = ± 1/2. And, the subband blocks of SB 1 have x = ± 1/4, ± 1/2 and ± 3/4, and have eight possible fractional shifts of y = ± 1/2. Because of the common fractional shift of SB 00 and SB 1 with x = ± 1/2 and y = ± 1/2, the separable single filters are x = + 1/2 , x = -1 / 2, y in both subbands. = +1/2, and y = -1/2 can be used for fractional shifts. This method can be used for all common fractional shifts of delayed ranked subband grouping 57. The same advantageous use of separable filters may be implemented in motion prediction block 60.

도10을 참고하면, 모든 유효 서브밴드 블록들이 동작 추정 블록(56)에서 처리된 이후에, 동작 벡터(58)들의 모음이 동작 예측 블록(60) 및 위치 인코딩 블록(76)에 출력된다. 동작 예측 블록(60)에서, 동작 벡터들은 랭크된 서브밴드 그루핑(53)('현재'프레임)을 예측하기 위해 지연된 랭크된 서브밴드 그루핑(57)('기준'프레임)의 각각의 서브밴드로부터 계수들의 특정 모음들의 신규한 위치로의 시프트를 계산하기 위해 사용된다.Referring to FIG. 10, after all valid subband blocks have been processed in motion estimation block 56, a collection of motion vectors 58 is output to motion prediction block 60 and position encoding block 76. In motion prediction block 60, motion vectors are derived from each subband of the ranked subband grouping 57 ('reference' frame) that is delayed to predict the ranked subband grouping 53 ('current' frame). It is used to calculate the shift to a new location of certain collections of coefficients.

어느 마스크가 이런 시프트를 발생시키기 위해 사용되는지 결정하기 위해, x 및 y 성분들은 각 서브밴드 블록의 상응하는 모듈로(modulo)의 역수로 곱해진다. 실예로, SB0의 2,4위치로 이동되도록 결정된 계수(148)들의 8 x 8 모음을 시프트하도록 x 및 y 성분들을 결정하기 위해, MV2,4의 x 및 y 성분들은 상응하는 모듈로 2의 역수로 각각 곱해진다. 이 계산 결과는 x = -3 1/2 이고 y = -2이다. 그러므로, x=-3의 증가 이동에 대한 마스크, x = -1/2의 분수 이동에 대한 마스크, 및 y= -2의 증가 이동에 대한 마스크는 8 x 8 계수(148)들에 적용된다.To determine which mask is used to generate this shift, the x and y components are multiplied by the inverse of the corresponding modulo of each subband block. For example, to determine the x and y components to shift the 8 x 8 collection of coefficients 148 determined to be moved to the 2,4 positions of SB 0 , the x and y components of MV 2,4 are modulo 2 corresponding. Multiply each by the inverse of The result of this calculation is x = -3 1/2 and y = -2. Therefore, a mask for incremental movement of x = -3, a mask for fractional movement of x = −1 / 2, and a mask for incremental movement of y = −2 is applied to the 8 × 8 coefficients 148.

제2 실시예에 따라, SB1의 2,4위치로 이동되도록 결정된 계수(149)들의 8 x 4 모음을 시프트하도록 x 및 y 성분들을 결정하기 위해, MV2,4의 x 성분은 모듈로 4의 역수로 곱해지고 MV2,4의 y 성분들은 모듈로 2의 역수로 곱해진다. 이 계산 결과는 x = -3 3/4 이고 y = -2이다. 그러므로, x=-1의 증가 이동에 대한 마스크, x = -3/4의 분수 이동에 대한 마스크, 및 y= -2의 증가 이동에 대한 마스크가 적용된다.According to the second embodiment, the x component of MV 2,4 is modulo 4 to determine the x and y components to shift an 8 x 4 collection of coefficients 149 determined to be moved to positions 2,4 of SB 1 . Multiply by the inverse of and the y components of MV 2,4 are multiplied by the inverse of modulo 2. The result of this calculation is x = -3 3/4 and y = -2. Therefore, a mask for incremental movement of x = -1, a mask for fractional movement of x = -3/4, and a mask for incremental movement of y = -2 is applied.

도10은 계수들의 모든 모음들의 SMB2,4에 상응하는 서브밴드 블록들로의 이동을 예시한다. 동작 벡터(58)들의 모음으로부터 지연된 랭크된 서브밴드 그루핑(57)('기준'프레임)으로의 모든 동작 벡터(MVx,x)의 적용은 랭크된 서브밴드 그루핑(53)('현재' 프레임)의 예측을 초래하고 예측된 그루핑(66)(도3)으로 칭해진다.10 illustrates the movement of all collections of coefficients into subband blocks corresponding to SMB 2,4 . Application of all motion vectors MV x, x from the collection of motion vectors 58 to delayed ranked subband grouping 57 ('reference' frame) results in rank subband grouping 53 ('current' frame). And predicted grouping 66 (FIG. 3).

프레임들 사이의 분수 이동을 결정하기 위한 상기 마스킹 처리의 변형 실시예는 3×3 계수 마스크의 사용을 포함한다. 이 마스크들은 선택된 계수를 둘러싸는 계수들의 가중 평균을 취한다. 변형 수단에서, 증가 이동만을 포함하는 동작 벡터(58)들의 모음은 각각의 서브밴드(SB0내지 SB33) 또는 선택된 수의 서브밴드, 실예로, SB0만의 각각의 유효 서브밴드 블록에 대해 도 9(a) 및 9(b)에 상기되며 도시된 바와같이 결정된다. 동작 벡터(58)의 모음은 동작 예측 블록(60)에 전달된다.An alternative embodiment of the masking process for determining fractional movement between frames involves the use of a 3x3 coefficient mask. These masks take a weighted average of the coefficients surrounding the selected coefficient. In the modifying means, a collection of motion vectors 58 containing only incremental movements may be derived for each subband SB 0 to SB 33 or for a selected number of subbands, e.g. for each valid subband block of only SB 0 . 9 (a) and 9 (b) described above and determined as shown. The collection of motion vectors 58 is passed to a motion prediction block 60.

동작 예측 블록(60)에서, 동작 벡터(58)들의 모음이 도 10에 도시되는 것과 유사한 방식으로 적용되어 지연된 랭크된 서브밴드 그루핑(57)의 유효 서브밴드 블록들이 증가되게 시프트된다. 이후, 계수들의 각각의 시프트된 모음의 각 계수는 그것에 적용된 3×3 마스크를 가진다. 적용되는 마스크는 각각의 시프트된 계수 주변의 계수들의 가중된 평균을 결정한다. 그 계산의 결과는 시프트된 계수의 예측치, 즉, 새 값의 계수들이다.In motion prediction block 60, a collection of motion vectors 58 is applied in a manner similar to that shown in FIG. 10 to shift the effective subband blocks of delayed ranked subband grouping 57 to increase. Each coefficient of each shifted vowel of coefficients then has a 3x3 mask applied to it. The mask applied determines the weighted average of the coefficients around each shifted coefficient. The result of the calculation is the predicted value of the shifted coefficient, that is, the coefficients of the new value.

동작 벡터(58)들의 모음으로부터의 모든 동작 벡터들이 지연된 랭크된 서브밴드 그루핑(57)에 적용되고 동작 벡터들에 의해 시프트된 모드계수들이 3×3 마스크를 이들에 적용시킨 이후, 결과는 예측된 그루핑(66)으로 동작 예측 블록(60)으로부터 출력된다. 물론, 처리는 디코더(82)의 예측 블록(98)에서 반복되어, 동작 예측 블록(60)에서 실행된 마스킹 처리를 반복한다.After all motion vectors from the collection of motion vectors 58 are applied to the delayed ranked subband grouping 57 and the mode coefficients shifted by the motion vectors apply to them a 3x3 mask, the result is predicted. The grouping 66 outputs from the motion prediction block 60. Of course, the process is repeated at the prediction block 98 of the decoder 82 to repeat the masking process executed at the motion prediction block 60.

예측치가 상기 방법들 중 어느 하나에 의해 결정된 이후, 예측된 그루핑(66)이 랭크된 서브밴드 그루핑(53)과 예측된 그루핑(66) 사이의 차이가 결정되는 차이 블록(68)에 전달된다. 상기한 바와같이, 차이 블록(68)은 그루핑 차이(70)를 발생시킨다.After the prediction is determined by any of the above methods, the predicted grouping 66 is passed to a difference block 68 where the difference between the ranked subband grouping 53 and the predicted grouping 66 is determined. As noted above, difference block 68 generates grouping difference 70.

본문에 기술된 동작 보상 방법이 텐서 곱 웨이브릿과 결합하여 함수로 예시되지만, 그 방법들이 다른 유형의 변환들과 사용될 수 있음을 인지하는 것은 중요하다. 이것은 시간 영역 또는 변환 영역의 다른 변환들과 동작 보상 방법들을 사용하는 것을 포함한다. 실예로, DCT로 변환된 데이터는 상기된 것과 유사한 방식으로 보상된 동작일 수 있다. 즉, DCT의 각각 8×8 블록들의 64 변환계수들은 텐서 곱 웨이브릿 변환의 SB0의 각각의 8×8 서브밴드 블록들의 64 변환계수들을 동작 보상하기 위해 사용된 것과 유사한 방식으로 동작 보상될 수 있다.Although the motion compensation method described herein is illustrated as a function in conjunction with tensor product wavelets, it is important to recognize that the methods can be used with other types of transforms. This involves using other transforms and motion compensation methods in the time domain or transform domain. For example, the data converted to DCT may be a compensated operation in a similar manner as described above. That is, the 64 transform coefficients of each 8x8 block of the DCT may be motion compensated in a manner similar to that used to motion compensate the 64 transform coefficients of each 8x8 subband blocks of SB 0 of the tensor product wavelet transform. have.

도 11을 참고하면, 비디오 인코더의 또 다른 실시예가 도시되어 있다. 상기되며 도 3에 도시되는 실시예에 따라, 동작 추정 및 동작 예측은 블럭(150, 152)들의 변환 영역에서 각각 실행된다. 또한, 실시예의 전방부는 상기되고 도 3에 도시된 것과 유사하다. 보다 상세하게, CIF 이미지(26)는 컨버터(28)에서 QCIF이미지(30)로 변환된다. QCIF 이미지(30)는 형상 매핑 성분(20)들에 대한 이미지에 의해 서브밴드 매크로-블록 그루핑(40)으로 변환되어 전환된다. 그리고, 서브밴드(34)의 모음 및 서브밴드 매크로-블록 그루핑(40)은 변화된 형상을 결정하는 것과 관련된 성분들에 의해 랭크된 서브밴드 그루핑(53) 및 랭크된 서브밴드 매크로-블록 그루핑(54)으로 각각 전환된다.Referring to FIG. 11, another embodiment of a video encoder is shown. According to the embodiment described above and shown in FIG. 3, motion estimation and motion prediction are performed in the transform domain of blocks 150 and 152, respectively. Also, the front part of the embodiment is similar to that described above and shown in FIG. 3. More specifically, CIF image 26 is converted to QCIF image 30 in converter 28. QCIF image 30 is converted to subband macro-block grouping 40 by the image for shape mapping components 20 and converted. Then, the vowels of subband 34 and subband macro-block grouping 40 are ranked by subband grouping 53 and ranked subband macro-block grouping 54 by components associated with determining the changed shape. Respectively).

도 3에 도시된 실시예와 또한 유사하게 랭크된 서브밴드 매크로-블록 그루핑(54)은 동작 추정 블록(150)에 전달되며 랭크된 서브밴드 그루핑(53)은 차이 블록(68)에 전달된다. 그러나, 지연된 랭크된 서브밴드 그루핑(57)을 기준 프레임으로서 사용하는 대신, 이에 가산된 누적 오류를 갖는 오류 보정 서브밴드 그루핑(171)이 지연블록(156)에 전송되어 지연된 서브밴드 그루핑(172)('기준프레임')을 생성시킨다. 이런 변동은 양자화(또는 스케일링)가 그것이 차이 블록(68)에서 발생된 예측 오류(70)들을 실질적으로 변경시킬 정도로 클 때 필요하다.Similarly to the embodiment shown in FIG. 3, the ranked subband macro-block grouping 54 is passed to the motion estimation block 150 and the ranked subband grouping 53 is passed to the difference block 68. However, instead of using the delayed ranked subband grouping 57 as a reference frame, an error correction subband grouping 171 having a cumulative error added thereto is sent to the delay block 156 to delay the subband grouping 172. Create a 'reference frame'. This variation is necessary when the quantization (or scaling) is so large that it substantially changes the prediction errors 70 generated in the difference block 68.

오류 보정된 서브밴드 그루핑(171)을 전개시키기 위해, 랭크된 서브밴드 그루핑(53)의 복사가 차이 블록(68)을 통해 변화되지 않고 전달되어 시스템이 0으로 레퍼런스될 때, 실예로, 시스템이 초기화되거나 또는 디코더의 기준이 리프레시되어야 할 때, 메모리에 기억된다. 이후에, 예측오류(70)는 각각의 후속 프레임의 예측오류(70)가 양자화 블록(158)을 통과함에 따라, 누적되는데, 즉, 기준치에 가산된다. 갱신된 기준 이미지는 지연블록(156)에 전달되어 지연된 서브밴드 그루핑(172)를 발생시킨다. 이런 방법을 사용하여 인코더의 기준치는 디코더의 기준치와 동기를 유지한다. 당업자들은 다량의 스케일링 및/또는 양자화가 동작예측 및 위치 인코딩 사이에서 실행될 때 이런 배치가 인코더와 디코더 사이의 동기화를 유지할시 유용하다는 것을 인지할 것이다.For example, when a copy of the ranked subband grouping 53 is propagated unchanged through the difference block 68 to deploy the error corrected subband grouping 171, the system is referenced to zero. When it is initialized or when the reference of the decoder is to be refreshed, it is stored in memory. Thereafter, the prediction error 70 accumulates as the prediction error 70 of each subsequent frame passes through the quantization block 158, ie is added to the reference value. The updated reference image is passed to delay block 156 to cause delayed subband grouping 172. Using this method, the reference value of the encoder is kept in sync with the reference value of the decoder. Those skilled in the art will appreciate that this arrangement is useful in maintaining synchronization between the encoder and decoder when a large amount of scaling and / or quantization is performed between predictive and positional encoding.

동작 추정 블록(150) 및 동작 예측 블록(152)이 지연블록(156)로부터 지연된 서브밴드 그루핑(172)를 수신한 이후, 동작 추정 및 동작 예측은 본문에서 상기되고 도 8 내지 10에 도시되는 것과 유사한 절차에 의해 결정된다. 게다가, 전방 이송부(159)는 블록이 변화된 양에 따라, 특정 블록상에서 이행되어야 할 양자화의 양을 조정하기 위해 변화 검출부(46)와 양자화 블록(158) 사이에 제공된다. 다량의 변화가 변화 검출부(46)에서 검출될 때, 다수의 비트들이 양자화를 위해 할당된다. 그리고 역으로, 소량의 변화가 변화 검출부(46)에서 검출될 때, 비례적으로 보다 적은 수의 비트들이 양자화를 위해 할당된다.After the motion estimation block 150 and the motion prediction block 152 receive the delayed subband grouping 172 from the delay block 156, the motion estimation and motion prediction is described above in the text and shown in FIGS. 8-10. It is determined by a similar procedure. In addition, a forward transfer unit 159 is provided between the change detection unit 46 and the quantization block 158 to adjust the amount of quantization to be performed on a particular block according to the amount of change of the block. When a large amount of change is detected in the change detector 46, a plurality of bits are allocated for quantization. And conversely, when a small amount of change is detected in the change detector 46, proportionally fewer bits are allocated for quantization.

도 12를 참고하면, 비디오 인코더의 또다른 실시예가 도시된다. 이 실시예의 전방부는 상기되고 도 3 및 도 11에 도시된 실시예들과 유사하다. 그러나, 상기 실시예들과 다르게, 동작 추정이 이미지 영역에서 실행된다. 이런 실시예는 다소의 처리기들에서 현재 사용가능한 특정 하드웨어 구성을 사용한다.Referring to FIG. 12, another embodiment of a video encoder is shown. The front part of this embodiment is similar to the embodiments described above and shown in FIGS. 3 and 11. However, unlike the above embodiments, motion estimation is performed in the image area. This embodiment uses a specific hardware configuration currently available in some processors.

도 12에서, CIF 이미지(26)는 컨버터 블록(28)에서 QCIF 이미지(30)로 전환된다. QCIF 이미지(30)는 매핑 성분(20)들을 특징짓기 위한 이미지에 의해 서브밴드 매크로-블록 그루핑(40)으로 변환 및 전환된다. 서브밴드 매크로-블록 그루핑(40)은 서브밴드 매크로-블록 랭킹을 결정하기 위해 변화된(22) 특징들을 결정하는 것과 관련된 성분들에 의해 처리된다. 결과는 서브밴드(34)의 모음에 적용되어 랭크된 서브밴드 그루핑(53)을 초래한다. 랭크된 서브밴드 그루핑(53)은 이후 차이 블록(68)에 전달된다.In FIG. 12, CIF image 26 is converted to QCIF image 30 in converter block 28. QCIF image 30 is transformed and transformed into subband macro-block grouping 40 by an image for characterizing mapping components 20. Subband macro-block grouping 40 is processed by the components involved in determining the changed 22 features to determine the subband macro-block ranking. The result is applied to the collection of subbands 34 resulting in ranked subband grouping 53. Ranked subband grouping 53 is then passed to difference block 68.

또한 '현재' 프레임으로 칭해지는 QCIF 이미지(30)는 동작 벡터(162)들의 모음을 결정하기 위해 동작 추정 블록(160) 및 지연 블록(166)에 또한 전달된다. 보다 상세하게는, 이미지 프레임(30)이 '기준'프레임으로 칭해지는 지연된 이미지 프레임(167)을 발생시키는 지연부(166)에서 지연된다. 도 13을 참고하면, 지연된 이미지 프레임(167)은 P×P 펠 검색 영역이 각각의 유효 이미지 매크로-블록에 대해 전개되는 동작 추정 블록(160)에 전달된다. 실예로, P×P펠 검색 영역(107)은 이미지 매크로-블록(2, 4)(IMB2,4)에 대해 설정된다. 실험적 분석에 근거하여, 32×32펠의 검색 영역(107)은 QCIF 이미지 프레임의 16×16펠 이미지 매크로-블록에 대한 검색 영역으로 사용된다.QCIF image 30, also referred to as a 'current' frame, is also passed to motion estimation block 160 and delay block 166 to determine a collection of motion vectors 162. More specifically, image frame 30 is delayed in delay unit 166, which generates delayed image frame 167, referred to as a 'reference' frame. Referring to FIG. 13, delayed image frame 167 is passed to motion estimation block 160 where a P × P pel search region is developed for each valid image macro-block. By way of example, the P × Ppel search area 107 is set for image macro-blocks 2, 4 (IMB 2 , 4 ). Based on the experimental analysis, the search area 107 of 32x32 Fell is used as the search area for the 16x16 Fel image macro-block of the QCIF image frame.

동작 추정 블록(160)에서, 현재 QCIF 이미지(30) 프레임의 각각의 유효 이미지 매크로-블록(IMBX,X)은 동작 벡터들을 결정하기 위해 결정하기 위해 지연된 이미지 프레임(167)의 상응하는 검색 영역내에 위치된다. 실예로, IMB2,4는 QCIF 이미지(30)로부터 복원되고 지연된 이미지 프레임(167)의 검색 영역(107)내에 위치된다. 이런 처리는 상기되고 도 8 및 9(a)에 도시된 변환 영역에서 실행되는 것과 유사하다.In motion estimation block 160, each valid image macro-block IMB X, X of the current QCIF image 30 frame is corresponding to the search region of image frame 167 that is delayed to determine to determine motion vectors. Is located within. For example, IMB 2 , 4 are reconstructed from QCIF image 30 and located within search area 107 of delayed image frame 167. This processing is similar to that performed in the conversion area described above and shown in Figs. 8 and 9 (a).

상기되고 도9(b)에 도시된 것과 유사한 방식으로, IMB2,4는 IMB2,4와 검색 영역(107) 사이의 각 단계에서 최소 총 절대 차이(minimum total absolute difference)를 결정하기 위한 검색 영역(107)을 트래버스한다. 그러나, 상기된 서브배드 검색과 다르게, 분수(fractional) 검색은 이미지 영역의 검색시에 필요하지 않다. 그러므로, IMB2,4의 증가 이동을 결정한 이후, x 및 y좌표는 반전(-1로 곱해짐)되며 동작 벡터(162)의 모음과 메모리에 저장된다. 동작 벡터들은 예측 블록(154) 및 위치 인코딩 블록(76)에 전달된다. 이후, 동작 벡터들은 도 3과 관련하여 상기되고 도 10에 도시된 것과 유사한 방식으로 지연된 서브밴드 그루핑(172)에 적용된다.In a manner similar to that described above and shown in Figure 9 (b), IMB 2,4 is a search for determining the minimum total absolute difference at each step between IMB 2,4 and search area 107. Traverse the region 107. However, unlike the subbad search described above, fractional search is not necessary in the search of the image area. Therefore, after determining the incremental movement of IMB 2,4, the y and y coordinates are inverted (multiplied by -1) and stored in a collection of motion vectors 162 and in memory. The motion vectors are passed to prediction block 154 and position encoding block 76. The motion vectors are then applied to the delayed subband grouping 172 in a manner similar to that described above with respect to FIG. 3 and shown in FIG. 10.

도 14를 참고하면, 비디오 인코더의 또다른 실시예가 예시되는데, 여기에서, 전방부는 상기되고 도 3, 11 및 12에서 도시된 실시예들과 유사하다. 그러나, 상기된 실시예들과 다르게, 동작 예측 및 동작 추정 둘 모두 이미지 영역에서 실행된다.Referring to FIG. 14, another embodiment of a video encoder is illustrated, wherein the front portion is similar to the embodiments described above and shown in FIGS. 3, 11 and 12. However, unlike the embodiments described above, both motion prediction and motion estimation are performed in the image area.

도 14에서, 동작 벡터(162)들의 모음은 상기되고 도 12 및 13에 도시된 것과 유사한 방식으로 결정된다. 동작 벡터(162)들의 모음은 동작 예측을 위한 블록(164) 및 위치 인코딩을 위한 블록(76)에 전달된다. 상기되고 도 11 및 12에 도시된 것과 유사한 방식으로, 이에 가산된 누적 오류들을 갖는 오류 보정된 서브밴드 그루핑(171)은 지연블록(156)에 전달되므로써, 지연된 서브밴드 그루핑(172)('기준프레임')을 발생시킨다. 그러나 상기된 실시예들과 달리, 지연된 서브밴드 그루핑(172)은 이후 재구성된 이미지(176)를 형성하기 위해 역 웨이브릿 변환 블록(174)에 의해 재구성된다. 재구성된 이미지는 도 4(a)에 도시된 QCIF 이미지(30)와 유사한 구조를 가진다.In FIG. 14, a collection of motion vectors 162 is determined in a manner similar to that described above and shown in FIGS. 12 and 13. The collection of motion vectors 162 is passed to block 164 for motion prediction and block 76 for location encoding. In a manner similar to that described above and illustrated in FIGS. 11 and 12, error corrected subband grouping 171 with cumulative errors added to it is passed to delay block 156, thereby delayed subband grouping 172 ('reference). Frame '). However, unlike the embodiments described above, delayed subband grouping 172 is then reconstructed by inverse wavelet transform block 174 to form reconstructed image 176. The reconstructed image has a structure similar to the QCIF image 30 shown in Fig. 4A.

변형적으로, 지연된 서브밴드 그루핑(172)을 완전히 재구성하는 대신, 일부 그루핑이 재구성되어 유효성을 실현할 수 있다. 실예로, 3, 5 필터는 48×48 펠을 갖는 재구성된 영역을 얻는데 사용될 수 있다. 영역들은 그 영역들이 중심에 있는 이미지 매크로-블록(16×16)의 유효성 즉, 그 내부의 검출된 변화에 근거하여 선택된다.Alternatively, instead of completely reconstructing delayed subband grouping 172, some grouping may be reconstructed to realize validity. For example, 3, 5 filters can be used to obtain reconstituted regions with 48 × 48 pels. The regions are selected based on the validity of the image macro-block 16x16, ie the regions in which they are centered, i.

동작 예측 블록(164)에서, 동작 벡터(162)들의 모음은 재구성된 이미지(176)(또는 영역들이 역 웨이브릿 변환되기만 하면 재구성된 48×48 펠 영역들)에 적용된다. 동작 벡터(162)들의 모음은 QCIF 이미지의 서브밴드 표시의 변환 계수들의 모음을 시프트를 위해 상기되고 도 10에 도시된 것과 유사한 방식으로 재구성된 기준 이미지(176)에 적용된다. 이후에, 예측치(178)는 예측된 그루핑(66)을 발생시키는 전방 웨이브릿 변환 블록(180)에 전달된다. 예측된 그루핑(66)은 그 후 차이 블록(68)에서 랭크된 서브밴드 그루핑(58)로부터 감산되어 그루핑 차이(70)를 초래한다. 양자화는 블록(158)에서 수행되고 오류들은(상기된) 기준치를 유지하기 위해 누적되며 또한 위치 인코딩 블록(76)에 전달된다. 양자화된 오류의 위치 인코딩 및 동작 벡터(162)들이 상기된 바와같이 발생되고 전송선(80)을 통해 디코더에 전송된다.In motion prediction block 164, the collection of motion vectors 162 is applied to the reconstructed image 176 (or reconstructed 48x48 pel regions once the regions are inverse wavelet transformed). The collection of motion vectors 162 is applied to the reference image 176 reconstructed in a manner similar to that described above and shown in FIG. 10 for shifting the collection of transform coefficients of the subband representation of the QCIF image. The prediction 178 is then passed to a forward wavelet transform block 180 that produces the predicted grouping 66. Predicted grouping 66 is then subtracted from ranked subband grouping 58 at difference block 68 resulting in grouping difference 70. Quantization is performed at block 158 and errors are accumulated to maintain the baseline (described above) and are also passed to position encoding block 76. Position encoding and motion vectors 162 of the quantized error are generated as described above and transmitted to the decoder via transmission line 80.

비록 본문에서는 소프트웨어 실현으로 예시되지만, 본 발명의 실시예들의 원리들은 하드웨어, 실예로, 응용 주문형 집적회로(ASIC)를 통해 실현될 수도 있다. 바람직하게는, 필요한 메모리 요건을 포함하는 ASIC 실현체는 ⅰ)실시예와 일치하는 전원 소모를 최소화하고 ⅱ) 13.5㎒이하의 데이터 레이트의 실예로, 완전 CCIR601 같은, 완전 컬러 비디오의 압축을 허용하기 위해 펠 레이트로 작동해야 한다. 전원 소모는 통상적 소프트웨어 및 처리기 구현과 비교하여 ASIC를 사용하므로써 10배의 팩터정도 감소될 것임을 알 수 있다.Although illustrated herein as a software realization, the principles of embodiments of the present invention may be realized through hardware, for example, application specific integrated circuit (ASIC). Preferably, the ASIC implementation comprising the necessary memory requirements iii) minimizes power consumption consistent with the embodiment and ii) allows compression of full color video, such as full CCIR601, as an example of a data rate of less than 13.5 MHz. In order to operate as a pellet. It can be seen that power consumption will be reduced by a factor of 10 by using ASICs compared to conventional software and processor implementations.

변형적으로, 광학 방법은 보다 더 전원을 절약하기 위해 채용될 수 있다. 상기한 바와같이, 이미지에 대한 근사값이 웨이브릿 변환의 각 단에서 생성되며 이 근사값을 만들므로써 손실된 세부값들은 기록된다. 광-전자 또는 광학 구현에 있어, 광이 어떻게 모아지고 관련 전하가 감지되는지는 각각의 근사값 이미지의 샘플들을 모으기 위해 조절될 수 있다. 이런 근사값 이미지들이 평행하게 공동-등록된다면, 세부 항들은 아날로그 또는 디지털 수단에 의해 이런 중간 값들로부터 계산될 수 있다. 바람직하게는, 아날로그 수단이 아날로그 단의 출력으로 세부 항들을 계산하는데 사용될 수 있다.Alternatively, optical methods can be employed to save more power. As mentioned above, an approximation to the image is generated at each stage of the wavelet transform and the details lost by making this approximation are recorded. In an opto-electronic or optical implementation, how light is collected and the associated charge is sensed can be adjusted to collect samples of each approximation image. If these approximation images are co-registered in parallel, the detail terms can be calculated from these intermediate values by analog or digital means. Preferably, analog means can be used to calculate the details terms at the output of the analog stage.

세부항들은 양자화 전략을 구현하는 비트 직열 아날로그/디지털 컨버터의 사용을 통해 양자화될 수 있다. 이런 식으로, 포토닉/광학 장치는 즉, 발생되는 디지털 변이의 갯수는 이미지 데이터 레이트(ASIC의 경우에서 같은) 또는 처리기 데이터 레이트(통상적 처리기의 경우에서 같은) 보다는 오히려 압축된 데이터 레이트로 작동한다. 이것은 매우 적은 전류들 소모하여 전원을 덜 필요로하는 구현체를 초래할 것이다. 광학 방법의 구현은 ASIC 구현의 것보다 약 10배의 팩터만큼 전원 소모를 더 감소시킬 것이라는 것이 예상된다.The details may be quantized through the use of a bit-series analog-to-digital converter that implements a quantization strategy. In this way, the photonic / optical device acts at a compressed data rate, i.e., the number of digital variations generated, rather than the image data rate (as in the case of ASIC) or processor data rate (as in the case of conventional processor). . This will result in implementations that consume very little current and require less power. It is expected that the implementation of the optical method will further reduce power consumption by about 10 times the factor of that of the ASIC implementation.

본문에 도시되고 기술된 실시예들 및 변형들은 본 발명의 원리들의 예시일 뿐이고 다양한 수정이 본 발명의 범위 및 사상을 벗어나지 않고 당업자들에 의해 구현될 수 있음이 이해되어야 한다.It is to be understood that the embodiments and variations shown and described herein are merely illustrative of the principles of the invention and that various modifications may be made by those skilled in the art without departing from the scope and spirit of the invention.

Claims (60)

제1 및 제2 데이터 세트를 포함하는 데이터를 압축하는 방법에 있어서,A method of compressing data comprising first and second data sets, the method comprising: 상기 제1 및 제2 데이터 세트를 상응하는 제1 및 제2 변환 계수 세트로 변환시키는 단계;Converting the first and second data sets into corresponding first and second transform coefficient sets; 상기 제1 및 제2 변환 계수 세트들 사이의 차이를 나타내는 데이터를 발생시키는 단계; 및Generating data indicative of a difference between the first and second transform coefficient sets; And 전송을 위해 상기 발생된 데이터를 인코딩하는 단계Encoding the generated data for transmission 를 포함하는 것을 특징으로 하는 방법.Method comprising a. 제 1 항에 있어서, 상기 제1 및 제2 데이터 세트를 변환시키는 단계는 텐서 곱 웨이브릿 변환을 사용하여 이행되는 것을 특징으로 하는 방법.10. The method of claim 1, wherein transforming the first and second data sets is performed using tensor product wavelet transform. 제 2 항에 있어서, 하나의 서브밴드로부터의 나머지는 다른 서브밴드에 전송되는 것을 특징으로 하는 방법.3. The method of claim 2, wherein the remainder from one subband is transmitted to another subband. 제 1 항에 있어서,The method of claim 1, 상기 제1 및 제2 변환 계수 세트들 사이의 차이를 나타내는 데이터를 발생시키는 단계는,Generating data indicative of a difference between the first and second transform coefficient sets, 동작 벡터를 제공하기 위해 상기 제1 및 제2 변환 계수 세트들 사이의 상기 차이를 추정하는 단계;Estimating the difference between the first and second transform coefficient sets to provide a motion vector; 상기 제2 변환 계수 세트의 예측치를 발생시키기 위해 상기 동작 벡터를 상기 제1 변환 계수 세트에 적용하는 단계;Applying the motion vector to the first transform coefficient set to generate a prediction of the second transform coefficient set; 상기 제2 변환 계수 세트로부터 상기 예측치를 감산하여 예측 오류의 세트를 발생시키는 단계Subtracting the prediction value from the second set of transform coefficients to generate a set of prediction errors 를 포함하는 것을 특징으로 하는 방법.Method comprising a. 제 4 항에 있어서, 상기 제1 및 제2 변환 계수 세트는 오류 보정되는 것을 특징으로 하는 방법.5. The method of claim 4, wherein the first and second set of transform coefficients are error corrected. 제 4 항에 있어서, 상기 제1 변환 계수 세트에 상기 동작 벡터를 적용하는 단계는 인접 변환 계수들의 가중 평균치를 얻기 위해 각각의 유효 변환 계수에 대해 마스크를 적용시키는 단계를 더 포함하는 것을 특징으로 하는 방법.5. The method of claim 4, wherein applying the motion vector to the first set of transform coefficients further comprises applying a mask to each valid transform coefficient to obtain a weighted average of adjacent transform coefficients. Way. 제 4 항에 있어서,The method of claim 4, wherein 상기 제1 및 제2 변환 계수 세트들 사이의 차이를 추정하는 단계는,Estimating the difference between the first and second transform coefficient sets, 상기 제1 및 제2 변환 계수 세트들 중 하나로부터 변환 계수들의 서브세트에 대한 검색 영역을 발생시키는 단계;Generating a search region for a subset of transform coefficients from one of the first and second transform coefficient sets; 변환 계수들의 관련 서브세트를 제1 및 제2 변환 계수 세트들 중 나머지로부터 상기 검색 영역에 적용시키는 단계; 및Applying a relevant subset of transform coefficients to the search region from the remainder of the first and second transform coefficient sets; And 최량의 증가 매치를 나타내는 위치까지 상기 검색 영역내의 변환 계수들의 상기 관련 서브세트를 점증적으로 트래버스시키는 단계를 포함하는 것을 특징으로 하는 방법.Incrementally traversing the relevant subset of transform coefficients in the search region to a location that indicates a best incremental match. 제 7 항에 있어서, 상기 검색 영역내의 변환 계수들의 상기 관련 서브세트를 최량의 분수 매치를 나타내는 위치까지 분수적으로 트래버스시키는 것을 더 포함하는 것을 특징으로 하는 방법.8. The method of claim 7, further comprising fractionally traversing said relevant subset of transform coefficients in said search region to a location that represents a best fractional match. 제 1 항에 있어서, 상기 제1 및 제2 데이터 세트들의 변환은 서브밴드의 제1 모음으로서 상기 제1 변환 계수 세트를 발생시키며 서브밴드의 제2 모음으로서 상기 제2 변환 계수 세트를 발생시키는 것을 특징으로 하는 방법.2. The method of claim 1, wherein transforming the first and second data sets generates the first set of transform coefficients as a first vowel of subbands and generates the second set of transform coefficients as a second vowel of subbands. How to feature. 제 9 항에 있어서, 서브밴드 매크로-블록 그루핑을 형성하기 위해 상기 서브밴드의 제2 모음을 패킹하는 매크로-블록을 더 포함하는 것을 특징으로 하는 방법.10. The method of claim 9, further comprising a macro-block packing the second collection of subbands to form subband macro-block grouping. 제 10 항에 있어서, 상기 서브밴드 매크로-블록 그루핑내의 서브밴드 매크로-블록들에 대해 가중을 가하는 단계를 더 포함하는 것을 특징으로 하는 방법.11. The method of claim 10, further comprising weighting subband macro-blocks in the subband macro-block grouping. 제 10 항에 있어서, 상기 서브밴드 매크로-블록 그루핑과 기준치 사이의 변화를 검출하는 단계를 더 포함하는 것을 특징으로 하는 방법.12. The method of claim 10, further comprising detecting a change between the subband macro-block grouping and a reference value. 제 12 항에 있어서, 상기 서브밴드 매크로-블록 그루핑과 상기 기준치 사이의 변화를 검출하는 것은 이하 일반 등식:13. The method of claim 12, wherein detecting a change between the subband macro-block grouping and the reference value is general equation: 에 따른 왜곡 평가에 기초하는 것을 특징으로 하는 방법.And based on distortion assessment according to the method. 제 13 항에 있어서, 상기 서브밴드 매크로-블록 그루핑과 상기 기준치 사이의 변화를 검출하는 것은 이하 보다 특정 형태의 등식:14. The method of claim 13, wherein detecting a change between the subband macro-block grouping and the reference value is a more specific form of equation: 에 따른 왜곡 평가에 기초하는 것을 특징으로 하는 방법.And based on distortion assessment according to the method. 제 10 항에 있어서, 상기 제1 및 제2 변환 계수 세트들 사이의 차이를 나타내는 데이터를 발생시키는 단계는,The method of claim 10, wherein generating data indicative of a difference between the first and second transform coefficient sets, 동작 벡터를 제공하기 위해 서브밴드들의 상기 제1 모음과 상기 서브밴드 매크로-블록 그루핑 사이의 상기 차이를 추정하는 단계;Estimating the difference between the first collection of subbands and the subband macro-block grouping to provide a motion vector; 서브밴드들의 상기 제2 모음의 예측치를 발생시키기 위해 서브밴드들의 상기 제1 모음에 상기 동작 벡터들을 적용하는 단계;Applying the motion vectors to the first collection of subbands to generate a prediction of the second collection of subbands; 서브밴드들의 상기 제2 모음으로부터 상기 예측치를 감산하여 예측 오류의 세트를 발생시키는 단계Subtracting the prediction from the second collection of subbands to generate a set of prediction errors 를 포함하는 것을 특징으로 하는 방법.Method comprising a. 제 15 항에 있어서,The method of claim 15, 서브밴드들의 상기 제1 모음과 상기 서브밴드 매크로-블록 그루핑 사이의 차이를 추정하는 것은,Estimating the difference between the first collection of subbands and the subband macro-block grouping, 상기 서브밴드들의 제1 모음으로부터 변환 계수들의 서브세트에 대한 검색 영역을 발생시키는 단계;Generating a search region for a subset of transform coefficients from the first collection of subbands; 상기 서브밴드 매크로-블록 그루핑으로부터 변환 계수들의 관련된 서브세트를 상기 검색 영역에 적용시키는 단계; 및Applying a relevant subset of transform coefficients from the subband macro-block grouping to the search region; And 상기 검색 영역내의 변환 계수들의 상기 관련된 서브세트를 최량의 증가 매치를 나타내는 위치까지 점증적으로 트래버스시키는 단계Incrementally traversing the related subset of transform coefficients in the search region to a location that represents the best incremental match 를 포함하는 것을 특징으로 하는 방법.Method comprising a. 제 16 항에 있어서, 상기 검색 영역내의 변환 계수들의 상기 관련된 서브세트를 최량의 분수 매치를 나타내는 위치까지 분수적으로 트래버스시키는 단계를 더 포함하는 것을 특징으로 하는 방법.17. The method of claim 16, further comprising fractionally traversing the associated subset of transform coefficients in the search region to a location that represents the best fractional match. 제 1 항에 있어서, 전송을 위해 상기 발생된 데이터를 인코딩하는 단계는 제로인 상기 발생된 데이터의 서브세트들을 식별하는 단계를 더 포함하는 것을 특징으로 하는 방법.2. The method of claim 1, wherein encoding the generated data for transmission further comprises identifying subsets of the generated data that are zero. 제1 및 제2 데이터 세트들을 포함하는 데이터를 압축하는 방법에 있어서,A method of compressing data comprising first and second data sets, the method comprising: 상기 제1 데이터 세트 및 상기 제2 데이터 세트를 상응하는 제1 및 제2 변환 계수 세트들로 변환시키는 단계;Converting the first data set and the second data set into corresponding first and second transform coefficient sets; 동작 벡터들을 제공하기 위해 상기 제1 및 제2 변환 계수 세트들 사이의 차이를 추정하는 단계;Estimating a difference between the first and second transform coefficient sets to provide motion vectors; 상기 동작 벡터들을 상기 제1 변환 계수 세트에 적용하므로써 상기 제2 변환 계수 세트를 예측하는 단계;Predicting the second transform coefficient set by applying the motion vectors to the first transform coefficient set; 예측 오류를 얻기 위해 상기 예측된 제2 변환 계수 세트를 상기 제2 변환 계수 세트로부터 감산하는 단계; 및Subtracting the predicted second transform coefficient set from the second transform coefficient set to obtain a prediction error; And 디코더에 전달하기 위해 상기 예측 오류 및 상기 동작 벡터들을 인코딩하는 단계Encoding the prediction error and the motion vectors for delivery to a decoder 를 포함하는 것을 특징으로 하는 방법.Method comprising a. 제 19 항에 있어서, 상기 제1 데이터 세트 및 상기 제2 데이터 세트를 변환시키는 단계는 텐서 곱 웨이브릿 변환을 사용하여 실행되는 것을 특징으로 하는 방법.20. The method of claim 19, wherein transforming the first data set and the second data set is performed using tensor product wavelet transform. 제 19 항에 있어서,The method of claim 19, 상기 제1 및 제2 변환 계수 세트들 사이의 차이를 추정하는 단계는,Estimating the difference between the first and second transform coefficient sets, 상기 제1 및 제2 변환 계수 세트들 중 하나로부터 변환 계수들의 서브세트에 대한 검색 영역을 발생시키는 단계;Generating a search region for a subset of transform coefficients from one of the first and second transform coefficient sets; 변환 계수들의 관련 서브세트를 제1 및 제2 변환 계수 세트들 중 나머지로부터 상기 검색 영역에 적용시키는 단계; 및Applying a relevant subset of transform coefficients to the search region from the remainder of the first and second transform coefficient sets; And 최량의 증가 매치를 나타내는 위치까지 상기 검색 영역내의 변환 계수들의 상기 관련 서브세트를 점증적으로 트래버스시키는 단계를 포함하는 것을 특징으로 하는 방법.Incrementally traversing the relevant subset of transform coefficients in the search region to a location that indicates a best incremental match. 제 21 항에 있어서, 상기 검색 영역내의 변환 계수들의 상기 관련 서브세트를 최량의 분수 매치를 나타내는 위치까지 분수적으로 트래버스시키는 단계를 더 포함하는 것을 특징으로 하는 방법.22. The method of claim 21, further comprising fractionally traversing the relevant subset of transform coefficients in the search region to a location that represents the best fractional match. 제 19 항에 있어서, 상기 제1 데이터 세트 및 제2 데이터 세트의 변환은 서브밴드의 제1 모음으로서 상기 제1 변환 계수 세트를 발생시키며 서브밴드의 제2 모음으로서 상기 제2 변환 계수 세트를 발생시키는 것을 특징으로 하는 방법.20. The method of claim 19, wherein the transforming of the first data set and the second data set generates the first transform coefficient set as a first vowel of subbands and the second transform coefficient set as a second vowel of subbands. Characterized in that the method. 제 23 항에 있어서, 서브밴드 매크로-블록 그루핑을 형성하기 위해 상기 서브밴드의 제2 모음을 패킹하는 매크로-블록을 더 포함하는 것을 특징으로 하는 방법.24. The method of claim 23, further comprising a macro-block packing the second collection of subbands to form subband macro-block grouping. 제 24 항에 있어서, 상기 서브밴드 매크로-블록 그루핑을 형성하는 서브밴드 매크로-블록들에 대해 가중을 가하는 단계를 더 포함하는 것을 특징으로 하는 방법.25. The method of claim 24, further comprising weighting subband macro-blocks forming the subband macro-block grouping. 제 24 항에 있어서, 상기 서브밴드 매크로-블록 그루핑과 기준치 사이의 변화를 검출하는 단계를 더 포함하는 것을 특징으로 하는 방법.25. The method of claim 24, further comprising detecting a change between the subband macro-block grouping and a reference value. 제 26 항에 있어서, 상기 서브밴드 매크로-블록 그루핑과 기준치 사이의 변화를 검출하는 것은 이하 형태의 일반 등식:27. The method of claim 26, wherein detecting a change between the subband macro-block grouping and a reference value is of the general form of: 에 따른 왜곡 평가에 기초하는 것을 특징으로 하는 방법.And based on distortion assessment according to the method. 제 19 항에 있어서, 상기 디코더에 전달하기 위해 상기 예측 오류 및 상기 동작 벡터를 인코딩하는 단계는 제로인 상기 예측 오류의 서브세트를 식별하는 단계를 더 포함하는 것을 특징으로 하는 방법.20. The method of claim 19, wherein encoding the prediction error and the motion vector for delivery to the decoder further comprises identifying a subset of the prediction error that is zero. 제1및 제2 데이터 세트들을 포함하는 데이터를 압축하는 방법에 있어서,A method of compressing data comprising first and second data sets, the method comprising: 상기 제1 데이터 세트 및 상기 제2 데이터 세트를 상응하는 제1 및 제2 변환 계수 세트들로 변환시키는 단계;Converting the first data set and the second data set into corresponding first and second transform coefficient sets; 동작 벡터를 제공하기 위해 상기 제1 및 제2 데이터 세트들 사이의 차이를 추정하는 단계;Estimating a difference between the first and second data sets to provide a motion vector; 상기 동작 벡터를 상기 제1 변환 계수 세트에 적용하므로써 상기 제2 변환 계수 세트를 예측하는 단계;Predicting the second transform coefficient set by applying the motion vector to the first transform coefficient set; 예측 오류를 얻기 위해 상기 제2 변환 계수 세트로부터 상기 예측된 제2 변환 계수 세트를 감산하는 단계Subtracting the predicted second transform coefficient set from the second transform coefficient set to obtain a prediction error 를 포함하는 것을 특징으로 하는 방법.Method comprising a. 제 29 항에 있어서, 상기 제1 변환 계수 세트는 오류 보정되는 것을 특징으로 하는 방법.30. The method of claim 29, wherein the first set of transform coefficients is error corrected. 디코더에 전달된 비트들의 갯수를 감소시키기 위해 인코더의 데이터를 압축하는 방법에 있어서,A method of compressing data of an encoder to reduce the number of bits passed to a decoder, 제1 데이터 세트 및 후속의 제2 데이터 세트를 변환시켜 상응하는 제1 및 제2 변환 계수 세트들을 생성하는 단계;Transforming the first data set and the subsequent second data set to produce corresponding first and second transform coefficient sets; 동작 벡터를 제공하기 위해 상기 제1 및 제2 데이터 세트들 사이의 차이를 추정하는 단계;Estimating a difference between the first and second data sets to provide a motion vector; 상기 동작 벡터를 상기 제1 데이터 세트에 적용하므로써 상기 제2 변환 계수 세트를 예측하여 상기 예측 결과를 변환하는 단계;Predicting the second set of transform coefficients by applying the motion vector to the first data set to transform the prediction result; 예측 오류를 얻기 위해 상기 제2 변환 계수 세트로부터 상기 변환된 예측 결과를 감산하는 단계Subtracting the transformed prediction result from the second set of transform coefficients to obtain a prediction error 를 포함하는 것을 특징으로 하는 방법.Method comprising a. 제 31 항에 있어서, 상기 제1 변환 계수 세트를 역변환하는 단계 및 상기 제1 변환 계수 세트를 예측동안 기준치로서 제공하는 단계를 더 포함하는 것을 특징으로 하는 방법.32. The method of claim 31, further comprising inversely transforming the first set of transform coefficients and providing the first set of transform coefficients as reference values during prediction. 제 32 항에 있어서, 상기 제1 변환 계수 세트는 오류 보정되는 것을 특징으로 하는 방법.33. The method of claim 32, wherein the first set of transform coefficients is error corrected. 데이터 세트의 서브세트에 상응하는 서브밴드 블록들을 패킹하는 방법에 있어서,A method of packing subband blocks corresponding to a subset of a data set, the method comprising: 서브밴드의 모음으로부터 관련 서브밴드 블록들의 세트를 분리시키는 단계;Separating the set of related subband blocks from the collection of subbands; 상기 관련된 서브밴드 블록들의 세트들을 함께 서브밴드 매크로-블록으로 패킹하는 단계; 및Packing the sets of related subband blocks together into a subband macro-block; And 서브밴드 매크로-블록 그루핑을 형성하기 위해 상기 서브밴드들의 모음의 관련된 서브밴드 블록들의 각각의 세트에 대해 상기의 분리 및 패킹 단계를 반복하는 단계Repeating the above separating and packing steps for each set of related subband blocks of the collection of subbands to form subband macro-block grouping 를 포함하는 것을 특징으로 하는 방법.Method comprising a. 제 34 항에 있어서, 상기 패킹 단계는 서브밴드들의 모음에 위치된 상기 서브밴드 블록들과 동일한 상대적 위치에 상기 서브밴드 매크로-블록 내의 관련된 서브밴드 블록들의 세트를 정렬하는 단계를 포함하는 것을 특징으로 하는 방법.35. The method of claim 34, wherein the packing step includes aligning a set of related subband blocks in the subband macro-block at the same relative position as the subband blocks located in the collection of subbands. How to. 제 34 항에 있어서, 상기 패킹 단계는 상기 상응하는 데이터 서브세트가 상기 데이터 세트내에 위치되는 것과 동일한 공간적 위치에 상기 서브밴드 매크로-블록 그루핑내의 상기 서브밴드 매크로-블록을 위치시키는 단계를 포함하는 것을 특징으로 하는 방법.35. The method of claim 34, wherein the packing step includes placing the subband macro-block within the subband macro-block grouping at the same spatial location that the corresponding subset of data is located within the data set. How to feature. 데이터 세트를 변환 계수들로 변환시키는 방법은 적어도 두 필터 경로를 갖는 텐서 곱 웨이브릿 변환을 사용하여 상기 데이터 세트를 변환하는 단계 및 상기 적어도 두 필터 경로들 사이에서 변환하는 중에 유도된 나머지를 전달시키는 단계를 포함하는 것을 특징으로 하는 방법.The method of transforming a data set into transform coefficients comprises transforming the data set using a tensor product wavelet transform having at least two filter paths and passing the remainder derived during the conversion between the at least two filter paths. And comprising a step. 제 37 항에 있어서, 상기 적어도 두 필터 경로 중 제1 필터 경로로부터의 상기 나머지들은 상기 적어도 두 필터 경로들 중 제2 필터 경로에 전달되고 상기 제2 필터 경로로부터의 상기 나머지들은 상기 제1 필터 경로에 전달되는 것을 특징으로 하는 방법.38. The method of claim 37, wherein the remainder from the first filter path of the at least two filter paths is passed to a second filter path of the at least two filter paths and the remainder from the second filter path is the first filter path. Characterized in that delivered to. 제 37 항에 있어서, 상기 텐서 곱 웨이브릿 변환은 고역 통과 성분 및 저역 통과 성분을 결정하기 위한 텐서 곱 웨이브릿 쌍인 것을 특징으로 하는 방법.38. The method of claim 37, wherein the tensor product wavelet transform is a tensor product wavelet pair for determining a high pass component and a low pass component. 제 39 항에 있어서, 상기 데이터 세트를 변환하고 상기 필터 경로들 사이에서 나머지를 전달하는 단계는,40. The method of claim 39, wherein converting the data set and passing the remainder between the filter paths, 상기 데이터 세트의 상기 저역 통과 성분 및 상기 고역 통과 성분을 결정하는 단계;Determining the low pass component and the high pass component of the data set; 저역 통과 정규화 출력 및 제1 나머지(rl)를 발생시키기 위해 상기 저역 통과 성분을 정규화시키는 단계;Normalizing the low pass component to generate a low pass normalization output and a first remainder rl; 고역 통과 정규화 출력 및 제2 나머지(rh)를 발생시키기 위해 상기 고역 통과 성분을 정규화시키는 단계;Normalizing the high pass component to generate a high pass normalization output and a second remainder rh; 상기 제1 및 제2 나머지(rl,rh)상에서 제1 연산(g(rl,rh))을 수행하며 이로부터 출력되는 결과를 근사값을 발생시키기 위해 상기 저역 통과 정규화 출력에 가산하는 단계; 및Performing a first operation (g (rl, rh)) on the first and second remainders (rl, rh) and adding the output therefrom to the low pass normalization output to approximate a value; And 상기 제1 및 제2 나머지(rl,rh)상에서 제2 연산(f(rl,rh))을 수행하며 이로부터 출력되는 결과를 세부값을 발생시키기 위해 상기 고역 통과 정규화 출력에 가산하는 단계Performing a second operation (f (rl, rh)) on the first and second remainders (rl, rh) and adding the result output therefrom to the high pass normalization output to generate a detail value; 를 포함하는 것을 특징으로 하는 방법.Method comprising a. 제 40 항에 있어서, 저역 통과 성분 및 고역 통과 성분을 다운샘플링하는 단계를 더 포함하는 것을 특징으로 하는 방법.41. The method of claim 40 further comprising downsampling the low pass component and the high pass component. 제 39 항에 있어서, 저역통과 성분은 값 -1,2,6,2,-1을 갖는 필터를 사용하여 결정되고; 고역 통과 성분은 -1,2,-1을 갖는 필터를 사용하여 결정되며; 이하의 함수:40. The method of claim 39, wherein the lowpass component is determined using a filter having values -1,2,6,2, -1; The high pass component is determined using a filter having -1,2, -1; The following function: g(rl,rh) = rh; 및g (rl, rh) = rh; And f(rl,rh) = floor(rh + 1/2), 여기에서, nh =1/2f (rl, rh) = floor (rh + 1/2), where nh = 1/2 인 함수를 갖는 제1 연산(g(rl,rh)) 및 제2 연산(f(rl,rh))를 더 포함하는 것을 특징으로 하는 방법.And further comprising a first operation (g (rl, rh)) and a second operation (f (rl, rh)) having a function. 제 39 항에 있어서, 텐서 곱 웨이브릿 쌍은 이하 형태:40. The method of claim 39, wherein the tensor product wavelet pair is of the form: 로 구성되는 것을 특징으로 하는 방법.Method consisting of. 데이터 세트를 변환계수들로 인코딩하는 방법은 인코딩 기술을 사용하여 데이터 세트를 변환하며 인코딩하는 중에 유도된 나머지들을 인코더의 제1 필터 경로에서 제2 필터 경로로 전달하는 단계를 포함하는 것을 특징으로 하는 방법.A method of encoding a data set with transform coefficients comprises transforming the data set using an encoding technique and passing the remainders derived during encoding from the first filter path of the encoder to the second filter path. Way. 제 44 항에 있어서, 나머지를 상기 제2 필터 경로에서 상기 제1 필터 경로에 전달하는 단계를 더 포함하는 것을 특징으로 하는 방법.45. The method of claim 44, further comprising passing a remainder from the second filter path to the first filter path. 제 44 항에 있어서, 인코딩 기술은 텐서 곱 웨이브릿 변환인 것을 특징으로 하는 방법.45. The method of claim 44, wherein the encoding technique is a tensor product wavelet transform. 제 44 항에 있어서, 인코딩 기술은 이산 코사인 변환인 것을 특징으로 하는 방법.45. The method of claim 44, wherein the encoding technique is a discrete cosine transform. 데이터 세트를 인코딩하는 방법에 있어서,In a method of encoding a data set, 제1 필터 경로의 데이터 세트의 제1 필터 성분을 결정하는 단계;Determining a first filter component of the data set of the first filter path; 제2 필터 경로의 데이터 세트의 제2 필터 성분을 결정하는 단계;Determining a second filter component of the data set of the second filter path; 정규화된 출력 및 나머지를 발생시키기 위해 상기 제1 필터 성분을 정규화시키는 단계; 및Normalizing the first filter component to generate a normalized output and remainder; And 상기 나머지를 상기 제2필터 경로에 전달하는 단계Delivering the remainder to the second filter path 를 포함하는 것을 특징으로 하는 방법.Method comprising a. 제1 데이터 세트와 제2 데이터 세트 사이에서 발생하는 변화를 추정하는 방법에 있어서,A method for estimating a change that occurs between a first data set and a second data set, 상기 제1 및 제2 데이터 세트 중 하나로부터 데이터 서브세트에 대한 검색 영역을 발생시키는 단계;Generating a search region for a subset of data from one of the first and second data sets; 상기 제1 및 제2 데이터 세트 중 나머지로부터 관련 데이터 서브세트를 상기 검색 영역에 적용시키는 단계; 및Applying a relevant subset of data to the search region from the remainder of the first and second data sets; And 최량의 증가 매치를 나타내는 위치까지 상기 검색 영역 내의 상기 관련 데이터 서브세트를 점증적으로 트래버스시키는 단계Incrementally traversing the relevant subset of data in the search region to a location that represents the best incremental match 를 포함하는 것을 특징으로 하는 방법.Method comprising a. 제 49 항에 있어서, 상기 검색 영역내의 상기 관련된 데이터 서브세트를 최량의 분수 매치를 나타내는 위치까지 분수적으로 트래버스시키는 단계를 더 포함하는 것을 특징으로 하는 방법.50. The method of claim 49, further comprising fractionally traversing the related subset of data in the search region to a location that represents the best fractional match. 인코더 장치에 있어서,In the encoder device, 데이터의 제1 및 제2 세트를 수신하기 위해 형성된 입력부를 가지며 상응하는 서브밴드들의 제1 및 제2 모음을 발생시키기 위해 추가로 형성되는 변환 장치; 및A conversion device having an input configured to receive first and second sets of data and further formed to generate first and second collections of corresponding subbands; And 상기 변환 장치에 결합된 입력부를 가지며, 상기 서브밴드들의 제1 및 제2 모음을 수신하기 위해 형성되고, 서브밴드들의 제1 및 제2 모음 사이의 차이를 유효하게 나타내기 위해 추가로 형성되는 동작 보상 장치Has an input coupled to the conversion device, is configured to receive the first and second vowels of the subbands, and further formed to effectively indicate a difference between the first and second vowels of the subbands Compensation device 를 포함하는 것을 특징으로 하는 인코더 장치.An encoder device comprising a. 제 51 항에 있어서, 상기 동작 보상 장치는 상기 변환 영역의 서브밴드들의 상기 제1 및 제2 모음상에서 모든 연산을 수행하는 것을 특징으로 하는 인코더 장치.53. The encoder device of claim 51 wherein the motion compensation device performs all operations on the first and second collections of subbands in the transform region. 제 51 항에 있어서, 상기 동작 보상 장치로부터의 예측치 및 상기 변환 장치로부터의 서브밴드들의 상기 제2 모음을 수신하기 위해 형성되며 예측 오류를 발생시키기 위해 상기 예측치와 상기 서브밴드들의 제2 모음 사이의 차이를 결정하기 위해 추가로 형성되는 차이 블록을 더 포함하는 것을 특징으로 하는 인코더 장치.53. The apparatus of claim 51, formed to receive a prediction from the motion compensation device and the second collection of subbands from the transform device and between the prediction and the second collection of subbands to generate a prediction error. And a difference block further formed to determine a difference. 제 51 항에 있어서,The method of claim 51, wherein 상기 동작 보상 장치는,The motion compensation device, 상기 변환 장치에 결합되며, 동작 벡터들을 발생시키기 위해 상기 서브밴드들의 제1 및 제2 모음을 비교하기 위해 형성되는 동작 추정 장치; 및A motion estimation device coupled to the transform device, the motion estimation device configured to compare the first and second collections of the subbands to generate motion vectors; And 상기 동작 추정 장치 및 변환 장치에 결합되며, 상기 동작 벡터들 및 상기 서브밴드들의 제1 모음을 수신하기 위해 형성되고, 상기 서브밴드들의 제2 모음의 예측치를 발생시키기 위해 추가로 형성되는 동작 예측 장치A motion prediction device coupled to the motion estimation device and the transform device, the motion prediction device formed to receive the motion vectors and the first collection of subbands, and further formed to generate a prediction of the second collection of subbands. 를 포함하는 것을 특징으로 하는 인코더 장치.An encoder device comprising a. 변화를 검출하기 위한 인코더 장치에 있어서,In the encoder device for detecting a change, 제1 데이터 세트 및 제2 데이터 세트를 수신하기 위해 형성된 입력부를 가지며, 서브밴드들의 제1 모음 및 서브밴드들의 제2 모음을 이로부터 각각 발생시키기 위해 추가로 형성되는 변환 장치; 및A conversion device having an input configured to receive a first data set and a second data set, and further formed to generate, respectively, a first collection of subbands and a second collection of subbands; And 상기 변환 장치에 결합되고 상기 서브밴드들의 제1 모음 및 상기 서브밴드들의 제2 모음을 수신하기 위해 형성되는 입력부를 가지며, 제1 서브밴드 매크로-블록 표시 및 제2 서브밴드 매크로-블록 표시를 각각 발생시키기 위해 추가로 형성되는 매크로-블록 패킹 장치A first subband macro-block indication and a second subband macro-block indication, each having an input coupled to the conversion device and configured to receive a first vowel of the subbands and a second vowel of the subbands, respectively; Macro-block packing device further formed to generate 를 포함하는 것을 특징으로 하는 인코더 장치.An encoder device comprising a. 제 55 항에 있어서, 상기 매크로-블록 패킹 장치와 통신하도록 형성되며 감지 유효성에 근거한 상기 제1 서브밴드 매크로-블록 표시 및 상기 제2 서브밴드 매크로-블록 표시를 수신하여 스케일링하기 위해 형성된 입력부를 갖는 가중 장치를 추가로 포함하는 것을 특징으로 하는 인코더 장치.56. The apparatus of claim 55, further comprising an input configured to communicate with the macro-block packing apparatus and configured to receive and scale the first subband macro-block indication and the second subband macro-block indication based on sensing effectiveness. An encoder device, further comprising a weighting device. 제 55 항에 있어서, 상기 매크로-블록 패킹 장치와 통신하도록 형성된 입력부를 가지며 상기 제1 서브밴드 매크로-블록 표시 및 상기 제2 서브밴드 매크로-블록 표시를 비교하여 이들 사이의 변화를 결정하기 위해 형성되는 변화-검출 장치를 더 포함하며, 상기 변화-검출 장치는 상기 변화를 반영하는 변화-검출 그루핑을 발생시키도록 추가로 형성되는 것을 특징으로 하는 인코더 장치.56. The apparatus of claim 55, having an input configured to communicate with the macro-block packing apparatus and configured to compare the first subband macro-block indication and the second subband macro-block indication to determine a change therebetween. And a change-detection device, wherein the change-detection device is further configured to generate a change-detection grouping that reflects the change. 제 57 항에 있어서, 상기 변화-검출 장치에 결합된 입력부를 가지며 상기 변화-검출된 그루핑을 랭크시키기 위해 형성되는 매크로-블록 랭킹 장치를 더 포함하는 것을 특징으로 하는 인코더 장치.59. The encoder device of claim 57 further comprising a macro-block ranking device having an input coupled to the change-detection device and configured to rank the change-detected grouping. 제 57 항에 있어서, 상기 제1 서브밴드 매크로-블록 표시 및 상기 제2 서브밴드 매크로-블록 표시의 비교는 이하의 일반 등식:59. The method of claim 57, wherein the comparison of the first subband macro-block representation and the second subband macro-block representation is as follows. 에 따른 왜곡 평가에 근거하는 것을 특징으로 하는 인코더 장치.The encoder device according to the distortion evaluation according to. 제 59 항에 있어서, 상기 제1 서브밴드 매크로-블록 표시 및 상기 제2 서브밴드 매크로-블록 표시의 비교는 이하의 보다 특정한 형태의 등식:60. The method of claim 59, wherein the comparison of the first subband macro-block representation and the second subband macro-block representation is a more specific form of equation: 에 따른 왜곡 평가에 근거하는 것을 특징으로 하는 인코더 장치.The encoder device according to the distortion evaluation according to.
KR1020007005298A 1997-11-14 1998-11-13 Apparatus and method for compressing video information KR100614522B1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US6663897P 1997-11-14 1997-11-14
US60/066,638 1997-11-14
PCT/US1998/024189 WO1999026418A1 (en) 1997-11-14 1998-11-13 Apparatus and method for compressing video information

Publications (2)

Publication Number Publication Date
KR20010032113A true KR20010032113A (en) 2001-04-16
KR100614522B1 KR100614522B1 (en) 2006-08-22

Family

ID=22070754

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020007005298A KR100614522B1 (en) 1997-11-14 1998-11-13 Apparatus and method for compressing video information

Country Status (7)

Country Link
EP (1) EP1031238A4 (en)
JP (2) JP4675477B2 (en)
KR (1) KR100614522B1 (en)
CN (1) CN1190084C (en)
AU (1) AU752219B2 (en)
CA (1) CA2310602C (en)
WO (1) WO1999026418A1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100440567B1 (en) * 2001-11-06 2004-07-21 한국전자통신연구원 A method for forming binary plane for motion search and a motion estimating apparatus using the same
KR100472476B1 (en) * 2002-08-31 2005-03-10 삼성전자주식회사 Interpolation apparatus and method for moving vector compensation
WO2007052927A1 (en) * 2005-11-02 2007-05-10 Mtekvision Co., Ltd. Image pickup device and encoded data outputting method
WO2007052914A1 (en) * 2005-11-02 2007-05-10 Mtekvision Co., Ltd Image pickup device and encoded data transferring method

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1999041912A2 (en) * 1998-02-13 1999-08-19 Koninklijke Philips Electronics N.V. Method and arrangement for video coding
FR2813486B1 (en) * 2000-08-31 2003-01-24 Canon Kk DATA TRANSFORMATION METHOD AND DEVICE
KR100366382B1 (en) * 2001-02-12 2002-12-31 (주) 멀티비아 Apparatus and method for coding moving picture
FI111592B (en) * 2001-09-06 2003-08-15 Oulun Yliopisto Method and apparatus for encoding successive images
KR100612849B1 (en) * 2003-07-18 2006-08-14 삼성전자주식회사 Apparatus and method for encoding and decoding image
JP4556124B2 (en) * 2005-02-04 2010-10-06 ソニー株式会社 Encoding apparatus and method, decoding apparatus and method, image processing system, recording medium, and program
KR101277713B1 (en) * 2007-02-08 2013-06-24 삼성전자주식회사 Apparatus and method for video encoding
JP5527588B2 (en) * 2007-03-30 2014-06-18 ソニー株式会社 Information processing apparatus and method
KR101279573B1 (en) * 2008-10-31 2013-06-27 에스케이텔레콤 주식회사 Motion Vector Encoding/Decoding Method and Apparatus and Video Encoding/Decoding Method and Apparatus
US20120075346A1 (en) * 2010-09-29 2012-03-29 Microsoft Corporation Low Complexity Method For Motion Compensation Of DWT Based Systems
CN106688229B (en) * 2014-05-30 2019-09-03 陈仕东 Method based on transform domain transmission HD video

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5777678A (en) * 1995-10-26 1998-07-07 Sony Corporation Predictive sub-band video coding and decoding using motion compensation
US5808683A (en) * 1995-10-26 1998-09-15 Sony Corporation Subband image coding and decoding
US5764814A (en) * 1996-03-22 1998-06-09 Microsoft Corporation Representation and encoding of general arbitrary shapes

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100440567B1 (en) * 2001-11-06 2004-07-21 한국전자통신연구원 A method for forming binary plane for motion search and a motion estimating apparatus using the same
KR100472476B1 (en) * 2002-08-31 2005-03-10 삼성전자주식회사 Interpolation apparatus and method for moving vector compensation
WO2007052927A1 (en) * 2005-11-02 2007-05-10 Mtekvision Co., Ltd. Image pickup device and encoded data outputting method
WO2007052914A1 (en) * 2005-11-02 2007-05-10 Mtekvision Co., Ltd Image pickup device and encoded data transferring method

Also Published As

Publication number Publication date
JP2001523928A (en) 2001-11-27
WO1999026418A1 (en) 1999-05-27
EP1031238A1 (en) 2000-08-30
AU752219B2 (en) 2002-09-12
CN1190084C (en) 2005-02-16
CN1281618A (en) 2001-01-24
CA2310602A1 (en) 1999-05-27
EP1031238A4 (en) 2003-05-07
JP2008289132A (en) 2008-11-27
AU1457799A (en) 1999-06-07
JP4675477B2 (en) 2011-04-20
KR100614522B1 (en) 2006-08-22
CA2310602C (en) 2009-05-19

Similar Documents

Publication Publication Date Title
US7680191B2 (en) Apparatus and method for compressing video information
JP2008289132A (en) Method for transforming data set into transform coefficient
US10616576B2 (en) Error recovery using alternate reference frame
US6438168B2 (en) Bandwidth scaling of a compressed video stream
EP1138152B8 (en) Method and apparatus for performing hierarchical motion estimation using nonlinear pyramid
US7627040B2 (en) Method for processing I-blocks used with motion compensated temporal filtering
KR20010075232A (en) Encoding method for the compression of a video sequence
JP2006503518A (en) Highly scalable 3D overcomplete wavelet video coding
US7242717B2 (en) Wavelet domain motion compensation system
EP0825778A2 (en) Method for motion estimation
EP0809404B1 (en) Apparatus for coding an object region of a video signal by using a rearranged block-based technique
JPH09502840A (en) Encoder / Decoder for Television Image Subband Compatible Coding and Its Application to Hierarchical Motion Coding with Tree Structure
Lee et al. Subband video coding with scene-adaptive hierarchical motion estimation
KR20030010983A (en) Moving object based Motion estimation Wavelet picture Compression and Decompression system
KR100229533B1 (en) Improved image decoding system
KR100229795B1 (en) Improved image decoding system
KR0185845B1 (en) A layered encoder using wavelet transform
MXPA00004526A (en) Apparatus and method for compressing video information
KR20020015231A (en) System and Method for Compressing Image Based on Moving Object
Dutoit et al. How are digital images compressed in the web?
Younis et al. Dept. of Computer Science, College of Science, University of Basrah, Basrah, IRAQ
Younis et al. Video Compression for Communication and Storage Using Wavelet Transform and Adaptive Rood Pattern Search Matching Algorithm

Legal Events

Date Code Title Description
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20110819

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20120725

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee