KR20090073112A - Method and apparatus for multiple pass video coding and decoding - Google Patents

Method and apparatus for multiple pass video coding and decoding Download PDF

Info

Publication number
KR20090073112A
KR20090073112A KR1020097005789A KR20097005789A KR20090073112A KR 20090073112 A KR20090073112 A KR 20090073112A KR 1020097005789 A KR1020097005789 A KR 1020097005789A KR 20097005789 A KR20097005789 A KR 20097005789A KR 20090073112 A KR20090073112 A KR 20090073112A
Authority
KR
South Korea
Prior art keywords
encoding path
encoding
video
picture
motion
Prior art date
Application number
KR1020097005789A
Other languages
Korean (ko)
Inventor
베이베이 왕
펭 인
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20090073112A publication Critical patent/KR20090073112A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/583Motion compensation with overlapping blocks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/43Hardware specially adapted for motion estimation or compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • H04N19/635Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by filter definition or implementation details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/97Matching pursuit coding

Abstract

There are provided a video encoder, a video decoder and corresponding method for encoding and decoding video signal data using a multiple-pass video encoding scheme. The video encoder includes a motion estimator (116) and a decomposition module (174). The motion estimator performs motion estimation on the video signal data to obtain a motion residual corresponding to the video signal data in a first encoding pass. The decomposition module, in signal communication with the motion estimator, decomposes the motion residual in a subsequent encoding pass.

Description

다중 경로 비디오 코딩 및 디코딩을 위한 방법 및 장치{METHOD AND APPARATUS FOR MULTIPLE PASS VIDEO CODING AND DECODING}METHOD AND APPARATUS FOR MULTIPLE PASS VIDEO CODING AND DECODING}

본 출원은, 본 명세서에 전체가 참고용으로 병합된, 2006년 9월 22일에 출원된 "다중 경로 비디오 코딩 및 디코딩을 위한 방법 및 장치"라는 명칭의 PCT 국제 출원 번호 PCT/US2006/037139호의 우선권을 주장한다.This application is directed to PCT International Application No. PCT / US2006 / 037139, entitled “Methods and Apparatus for Multi-Path Video Coding and Decoding,” filed September 22, 2006, which is hereby incorporated by reference in its entirety. Insist on priority.

본 발명은 일반적으로 비디오 인코딩 및 디코딩에 관한 것이고, 특히 다중 경로 비디오 인코딩 및 디코딩을 위한 방법 및 장치에 관한 것이다.The present invention relates generally to video encoding and decoding, and in particular, to a method and apparatus for multipath video encoding and decoding.

국제 표준화 기구/국제 전기 표준 회의(ISO/IEC: International Organization for Standardization/International Electrotechnical Commission) MPEG-4(Moving Picture Experts Group-4) 파트 10 어드밴스드 비디오 코딩(AVC: Advanced Video Coding) 표준/국제 전기통신 연합, 전기통신 섹터(ITU-T: International Telecommunication Union, Telecommunication Sector) H.264 표준(이후, "MPEG4/H.264 표준" 또는 간단히 "H.264 표준")은 현재 가장 강력한 최신식 비디오 코딩 표준이다. 모든 다른 비디오 코딩 표준과 같이, H.264 표준은 블록 기반의 움직임 보상 및 이산 코사인 변환(DCT: Discrete Cosine Transform)형 변환 코딩을 이용한다. DCT가 비디오 코딩에 있어서 효율적이고, 방송 고선명 텔레비 전(HDTV: high definition television)과 같은 고성능의 애플리케이션에 적합하다는 것이 잘 공지되어 있다. 하지만, DCT 알고리즘은, 전용 비디오 셀 폰과 같은 매우 낮은 비트 레이트를 요구하는 애플리케이션에 대해서도 적합한 것은 아니다. 매우 낮은 비트 레이트에서, DCT 변환은, 디블로킹(deblocking) 필터를 이용하더라도, 블로킹 아티팩트(blocking artifact)들을 가져올 것이고, 이는 매우 낮은 비트 레이트에서 코딩될 수 있는 계수들이 거의 없으며, 각 계수가 매우 간격이 넓은 양자화 단계를 갖는 경향이 있기 때문이다.International Organization for Standardization / International Electrotechnical Commission (ISO / IEC) Moving Picture Experts Group-4 (MPEG-4) Part 10 Advanced Video Coding (AVC) Standard / International Telecommunications Union, Telecommunication Sector (ITU-T) H.264 standard (hereafter “MPEG4 / H.264 standard” or simply “H.264 standard”) is the most powerful and up-to-date video coding standard. . Like all other video coding standards, the H.264 standard uses block-based motion compensation and Discrete Cosine Transform (DCT) type transform coding. It is well known that DCT is efficient in video coding and suitable for high performance applications such as broadcast high definition television (HDTV). However, the DCT algorithm is not suitable for applications that require very low bit rates, such as dedicated video cell phones. At very low bit rates, the DCT transform will result in blocking artifacts, even when using a deblocking filter, with very few coefficients that can be coded at very low bit rates, with each coefficient being very spacing. This is because there is a tendency to have this wide quantization step.

매칭 추적(MP: Matching Pursuit)은, 임의의 신호를 함수들의 리던던트 사전(redundant dictionary)으로부터 선택된 파형들의 선형 확장으로 분해하는 그리디(greedy) 알고리즘이다. 이러한 파형들은 신호 구조를 최적으로 매치시키도록 선택된다.Matching Pursuit (MP) is a greedy algorithm that decomposes an arbitrary signal into a linear extension of selected waveforms from a redundant dictionary of functions. These waveforms are chosen to optimally match the signal structure.

1-D 신호 f(t)를 가지며, 오버컴플릿(over-complete) 사전 세트 G로부터 기저 벡터를 이용해서 이 신호를 분해하기를 원한다고 가정한다.Suppose we have a 1-D signal f (t) and want to decompose this signal using a basis vector from an over-complete preset G.

Figure 112009016985440-PCT00001
Figure 112009016985440-PCT00001

여기에서, γ는 특정 사전 요소와 관련된 인덱싱(indexing) 파라미터이다. 분해는 γ를 선택하여 내적의 절대값을 다음과 같이 최대화하는 것으로 시작된다:Here, γ is an indexing parameter associated with a particular dictionary element. Decomposition begins by choosing γ to maximize the absolute value of the dot product as follows:

Figure 112009016985440-PCT00002
Figure 112009016985440-PCT00002

그러면 잔여(residual) 신호가 다음과 같이 계산된다:The residual signal is then calculated as follows:

Figure 112009016985440-PCT00003
Figure 112009016985440-PCT00003

그리고나서, 이 잔여 신호는 원 신호와 동일한 방식으로 확장된다. 그 절차는, 확장 계수의 설정 넘버가 생성되거나, 그 잔여에 대한 소정 에너지 임계치가 도달될 때까지 반복적으로 계속된다. 각 단계 n은 사전 함수 γn를 생성한다. 전체 M 단계 후, 신호는 사전 요소들의 선형 함수에 의해 다음과 같이 근사화될 수 있다:This residual signal is then extended in the same way as the original signal. The procedure is repeated repeatedly until a set number of expansion factors is generated or a predetermined energy threshold for the remainder is reached. Each step n produces a dictionary function γ n . After the entire M step, the signal can be approximated by the linear function of the dictionary elements as follows:

Figure 112009016985440-PCT00004
Figure 112009016985440-PCT00004

n 샘플들의 신호의 MP 분해의 복잡도는 차수 kㆍNㆍdㆍnlog2n가 되는 것으로 입증된다. 여기에서 d는 변환을 고려하지 않으면서 사전의 사이즈에 따르고, N은 선택된 확장 계수의 수이고, 상수 k는 사전 함수를 선택하기 위한 전략에 따른다. 높은 오버컴플릿 사전이 주어지면, MP는, 그 복잡도가 o(nlog2n)으로서 정의되는, H.264 표준에서 사용되는 8×8 및 4×4 DCT 정수 변환보다 더 많이 계산을 요구한다.The complexity of MP decomposition of the signal of n samples is proved to be of order k.N.d.nlog 2 n. Where d depends on the size of the dictionary without considering the transformation, N is the number of expansion coefficients selected, and constant k follows the strategy for selecting the dictionary function. Given the high-over Complete Dictionary, MP is, its complexity requires more computation than the 8 × 8 and 4 × 4 DCT integer transform used in, H.264 standard, which is defined as o (nlog 2 n).

일반적으로, MP 알고리즘은 임의의 세트의 잔여 기저 형태들에 적합하다. 가버(Gabor) 함수의 오버컴플릿 기저를 이용해서 신호를 확장하는 것이 제안되었다. 2-D 가버 사전은 매우 리던던트하고, 각 형태는 코딩된 잔여 화상의 임의의 정수-화소 위치에 존재할 수 있다. MP가 훨씬 더 큰 사전 세트를 갖고, 각각의 코딩된 기저 함수가 잔여 신호의 구조에 잘 매칭되기 때문에, 프레임 기반의 가버 사전은 의사(artificial) 블록 구조를 갖지 않는다.In general, the MP algorithm is suitable for any set of residual basis forms. It is proposed to extend the signal using the overcomplete basis of the Gabor function. The 2-D Gabor dictionary is very redundant, and each form may be at any integer-pixel location of the coded residual picture. Since the MP has a much larger dictionary set, and each coded basis function is well matched to the structure of the residual signal, the frame-based Gabor dictionary does not have an artificial block structure.

가버 리던던트 사전 세트는, MP 알고리즘(이후, "종래 기술의 가버 기반의 MP 비디오 코딩 접근법"으로서 지칭됨)을 이용해서 제안된 비디오 코딩 시스템에 대해, MP에 기초한 매우 낮은 비트 레이트의 비디오 코딩에 대해 적응되어 왔다. 제안된 시스템은, 매우 낮은 비트 레이트의 화상 코딩에 대한 시뮬레이션 모델, 또는 간단히 "SIM3"로서 지칭되는 낮은 비트 레이트의 하이브리드 DCT 시스템의 프레임워크에 기초하고, 여기에서, DCT 잔여 코더는 MP 코더로 대체된다. 이 코더는 MP를 이용해서, 사전 분리가능 2-D 가버 함수들로 움직임 잔여 화상을 분해한다. 이 제안된 시스템은 낮은 비트 레이트의 로우(low) 움직임 시퀀스들에서 잘 동작하는 것으로 보여진다.The Gabor Redundant Dictionary Set uses a MP algorithm (hereinafter referred to as "a Gabor-based MP video coding approach of the prior art") for a very low bit rate video coding based on MP for a proposed video coding system. Has been adapted. The proposed system is based on a simulation model for very low bit rate picture coding, or a framework of a low bit rate hybrid DCT system, referred to simply as "SIM3", where the DCT residual coder is replaced with an MP coder. do. This coder uses MP to decompose the residual motion picture into pre-separable 2-D Gabor functions. This proposed system is shown to work well in low bit rate low motion sequences.

스무스(smooth) 16×16 사인 제곱(sine-square) 윈도는 종래 기술의 가버 기반의 MP 비디오 코딩 접근법의 8×8 파티션(partition)들에 대한 예측 화상에 적용되었다. 종래 기술의 가버 기반의 MP 비디오 코딩 접근법의 MP 비디오 코덱은 ITU-T H.263 코덱에 기초한다. 하지만, H.264 표준은, 루마(luma) 움직임 보상에 대해 4×4만큼 작을 수 있는 작은 블록 사이즈의 가변 블록-사이즈 움직임 보상을 가능하게 한다. 또한, H.264 표준은 기선(baseline) 및 메인 프로파일에 대해, 대 부분의 다른 현저한 종래의 비디오 코딩 표준들에서와 같은 8×8이 아닌, 4×4 DCT형 변환에 주로 기초한다. 인트라 코딩에 대한 방향성 공간 예측은 예측 신호의 품질을 향상시킨다. 이와 같은 모든 중요한 설계 특성들은 H.264 표준이 더욱 효과적이게 하지만, 이는 H.264 표준에 MP를 적용할 시에 보다 복잡한 상황들을 처리해야 하는 것을 요구한다. 스무스 16×16 사인 제곱 윈도는 다음과 같이 표현된다:A smooth 16x16 sine-squared window was applied to the predictive picture for 8x8 partitions of the Gabor-based MP video coding approach of the prior art. The MP video codec of the Gabor-based MP video coding approach of the prior art is based on the ITU-T H.263 codec. However, the H.264 standard enables small block size variable block-size motion compensation, which can be as small as 4 × 4 for luma motion compensation. In addition, the H.264 standard is based primarily on 4 × 4 DCT type transforms, rather than 8 × 8 as in most other significant conventional video coding standards, for baseline and main profiles. Directional spatial prediction for intra coding improves the quality of the prediction signal. All of these important design features make the H.264 standard more effective, but require more complex situations when applying MP to the H.264 standard. A smooth 16 × 16 sine squared window would look like this:

Figure 112009016985440-PCT00005
Figure 112009016985440-PCT00005

Figure 112009016985440-PCT00006
Figure 112009016985440-PCT00006

움직임 보상에 대해 H.264 표준에 의해 도입된 일부 특성들로부터 이익을 얻고 공간 도메인에서의 변환을 대체하는 하이브리드 코딩 기법(이후, "종래 기술의 하이브리드 코딩 기법")이 제안되었다. 예측 오류는 MP 알고리즘을 이용해서 코딩되고, 이 알고리즘은 적절하게 설계된 2차원의 이방성 리던던트 사전으로 신호를 분해한다. 또한, 고속 원자 검색 기술이 소개되었다. 하지만, 제안된 종래 기술의 하이브리드 코딩 기법은, 1-패스 또는 2-패스 기법을 이용하는지 여부를 기술하지 않는다. 또한, 제안된 종래 기술의 하이브리드 코딩 기법은, 움직임 보상부가 H.264 표준에 따른다고 개시하였지만, 임의의 디블로킹 필터가 코딩 기법에서 이용되었는지 여부, 또는 매우 낮은 비트 레이트에서 예측 화상에 의해 야기되는 블로 킹 아티팩트를 스무스하게 하도록 임의의 다른 방법들이 이용되었는지 여부를 기술하지 않는다.A hybrid coding technique (hereafter “hybrid coding technique of the prior art”) has been proposed that benefits from some features introduced by the H.264 standard for motion compensation and replaces the transform in the spatial domain. The prediction error is coded using the MP algorithm, which decomposes the signal into a properly designed two-dimensional anisotropic redundant dictionary. In addition, fast atom search techniques have been introduced. However, the proposed prior art hybrid coding technique does not describe whether to use the 1-pass or 2-pass technique. In addition, the proposed prior art hybrid coding scheme described that the motion compensation unit is in accordance with the H.264 standard, but any deblocking filter was used in the coding scheme, or caused by the predictive picture at a very low bit rate. It does not describe whether any other methods have been used to smooth the blocking artifacts.

종래 기술의 상기 및 기타 단점 및 결점은, 다중 경로 비디오 인코딩 및 디코딩을 위한 방법 및 장치에 관한 본 발명에 의해 해결된다.The above and other drawbacks and drawbacks of the prior art are solved by the present invention with respect to methods and apparatus for multipath video encoding and decoding.

본 발명의 일 양상에 따라서, 다중 경로 비디오 인코딩 기법을 이용해서 비디오 신호 데이터를 인코딩하는 비디오 인코더가 제공된다. 비디오 인코더는 움직임 추정기 및 분해 모듈을 포함한다. 움직임 추정기는 비디오 신호 데이터에 대해 움직임 추정을 수행하여, 제1 인코딩 경로에서 비디오 신호 데이터에 대응하는 움직임 잔여(residual)를 얻는다. 움직임 추정기와 신호 통신하는 분해 모듈은 후속하는 인코딩 경로에서 움직임 잔여를 분해한다.According to one aspect of the present invention, a video encoder is provided that encodes video signal data using a multipath video encoding technique. The video encoder includes a motion estimator and a decomposition module. The motion estimator performs motion estimation on the video signal data to obtain a motion residual corresponding to the video signal data in the first encoding path. A decomposition module in signal communication with the motion estimator decomposes the motion residuals in subsequent encoding paths.

본 발명의 다른 양상에 따라서, 다중 경로 비디오 인코딩 기법을 이용해서 비디오 신호 데이터를 인코딩하는 방법이 제공된다. 이 방법은, 비디오 신호 데이터에 대해 움직임 추정을 수행하여, 제1 인코딩 경로에서 비디오 신호 데이터에 대응하는 움직임 잔여를 얻는 단계, 및 후속하는 인코딩 경로에서 움직임 잔여를 분해하는 단계를 포함한다.According to another aspect of the present invention, a method of encoding video signal data using a multipath video encoding technique is provided. The method includes performing motion estimation on the video signal data to obtain a motion residual corresponding to the video signal data in the first encoding path, and decomposing the motion residual in the subsequent encoding path.

본 발명의 또 다른 양상에 따라서, 비디오 비트스트림을 디코딩하는 비디오 디코더가 제공된다. 비디오 디코더는, 엔트로피 디코더, 원자 디코더, 역변환기, 움직임 보상기, 디블로킹 필터, 및 합성기를 포함한다. 엔트로피 디코더는 비디오 비트스트림을 디코딩하여 분해된 비디오 비트스트림을 얻는다. 엔트로피 디코더와 신호 통신하는 원자 디코더는 분해된 비트스트림에 대응하는 분해된 원자를 디코딩하여 디코딩된 원자를 얻는다. 원자 디코더와 신호 통신하는 역변환기는 디코딩된 원자에 역변환을 적용하여 재생된 잔여 화상을 형성한다. 엔트로피 디코더와 신호 통신하는 움직임 보상기는 분해된 비트스트림에 대응하는 움직임 벡터를 이용해서 움직임 보상을 수행하여 재생된 예측 화상을 형성한다. 움직임 보상기와 신호 통신하는 디블로킹 필터는 재생된 예측 화상에 디블로킹 필터링을 수행하여 재생된 예측 화상을 스무스하게 한다. 역변환기 및 중첩 블록 움직임 보상기와 신호 통신하는 합성기는 재생된 예측 화상과 잔여 화상을 합성하여 재생된 화상을 얻는다.According to another aspect of the invention, a video decoder is provided for decoding a video bitstream. Video decoders include entropy decoders, atomic decoders, inverse transformers, motion compensators, deblocking filters, and synthesizers. The entropy decoder decodes the video bitstream to obtain a decomposed video bitstream. An atomic decoder in signal communication with the entropy decoder decodes the resolved atoms corresponding to the resolved bitstream to obtain decoded atoms. The inverse transformer in signal communication with the atomic decoder applies an inverse transform to the decoded atoms to form a reproduced residual image. A motion compensator in signal communication with the entropy decoder performs motion compensation using a motion vector corresponding to the decomposed bitstream to form a reproduced predicted picture. The deblocking filter in signal communication with the motion compensator performs deblocking filtering on the reproduced predictive image to smooth the reproduced predictive image. A synthesizer in signal communication with the inverse transformer and the overlapping block motion compensator synthesizes the reproduced prediction picture and the residual picture to obtain a reproduced picture.

본 발명의 또 다른 양상에 따라서, 비디오 비트스트림을 디코딩하는 방법이 제공된다. 이 방법은, 비디오 비트스트림을 디코딩하여 분해된 비디오 비트스트림을 얻는 단계, 분해된 비트스트림에 대응하는 분해된 원자를 디코딩하여 디코딩된 원자를 얻는 단계, 디코딩된 원자에 역변환을 적용하여 재생된 잔여 화상을 형성하는 단계, 분해된 비트스트림에 대응하는 움직임 벡터를 이용해서 움직임 보상을 수행하여 재생된 예측 화상을 형성하는 단계, 재생된 예측 화상에 디블로킹 필터링을 수행하여 재생된 예측 화상을 스무스하게 하는 단계, 및 재생된 예측 화상과 잔여 화상을 합성하여 재생된 화상을 얻는 단계를 포함한다.According to another aspect of the present invention, a method of decoding a video bitstream is provided. The method includes decoding a video bitstream to obtain a decomposed video bitstream, decoding a decomposed atom corresponding to the decomposed bitstream to obtain a decoded atom, and applying an inverse transform to the decoded atom to reproduce the residual. Forming an image, performing motion compensation using a motion vector corresponding to the decomposed bitstream, forming a reproduced prediction image, and performing deblocking filtering on the reproduced prediction image to smoothly reproduce the reproduced prediction image And synthesizing the reproduced predictive picture and the residual picture to obtain a reproduced picture.

본 발명의 상기 및 기타 양상, 특징 및 장점은, 첨부 도면과 관련하여 기술될 예시적 실시예들의 후술하는 상세한 설명으로부터 명백해질 것이다.These and other aspects, features, and advantages of the present invention will become apparent from the following detailed description of exemplary embodiments to be described in conjunction with the accompanying drawings.

본 발명은 후술하는 예시적 도면에 따라 더욱 잘 이해될 것이다.The invention will be better understood according to the exemplary drawings described below.

도 1a 및 1b는, 본 발명의 원리가 본 발명의 일 실시예에 따라 적용될 수 있는 2중 경로 H.264 표준 기반의 MP 인코더/디코더(CODEC)의 인코더의 예시적인 제1 및 제2 경로부에 대한 도면이다.1A and 1B illustrate exemplary first and second path portions of an encoder of an MP encoder / decoder (CODEC) based on a two-path H.264 standard, in which the principles of the present invention may be applied in accordance with one embodiment of the present invention. It is a drawing about.

도 2는, 본 발명의 원리가 본 발명의 일 실시예에 따라 적용될 수 있는 2중 경로 H.264 표준 기반의 MP 인코더/디코더(CODEC)의 예시적인 디코더에 대한 도면이다.FIG. 2 is a diagram of an exemplary decoder of a dual path H.264 standard based MP encoder / decoder (CODEC) in which the principles of the present invention may be applied in accordance with an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따른 입력 비디오 시퀀스를 인코딩하기 위한 예시적인 방법에 대한 도면이다.3 is a diagram of an exemplary method for encoding an input video sequence in accordance with an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따른 입력 비디오 시퀀스를 디코딩하기 위한 예시적인 방법에 대한 도면이다.4 is a diagram of an exemplary method for decoding an input video sequence in accordance with an embodiment of the present invention.

본 발명은, 다중 경로 비디오 인코딩 및 디코딩을 위한 방법 및 장치에 관한 것이다. 유익하게, 본 발명은, 매우 낮은 비트 레이트의 애플리케이션에서 예를 들어, H.264 표준에서 이용되는 DCT 변환에 의해 도입되는 블로킹 아티팩트를 정정한다. 또한, 본 발명이 낮은 비트 레이트의 애플리케이션만으로 제한되는 것은 아니며, 본 발명의 범위를 유지하면서 다른 (더 높은) 비트 레이트에도 이용될 수 있다는 것이 이해될 것이다.The present invention relates to a method and apparatus for multipath video encoding and decoding. Advantageously, the present invention corrects the blocking artifacts introduced by the DCT transform used in, for example, the H.264 standard in very low bit rate applications. It will also be appreciated that the present invention is not limited to low bit rate applications, but may be used for other (higher) bit rates while maintaining the scope of the present invention.

본 설명은 본 발명의 원리를 기술한다. 따라서, 당업자는, 본 명세서에서 명확하게 기술 또는 도시되지 않더라도, 본 발명의 원리를 구체화하고 그 사상 및 범위 내에 포함되는 다양한 구성을 고안해낼 수 있을 것이다.This description describes the principles of the invention. Therefore, those skilled in the art will be able to devise various configurations that embody the principles of the present invention and fall within the spirit and scope, even if not explicitly described or illustrated herein.

본 명세서에서 언급된 모든 예 및 조건부 언어는, 발명자에 의해 제공되는 본 발명의 원리 및 개념에 대한 독자들의 이해를 도와 그 기술을 증진시키는 교육학적 목적을 위한 것으로서, 그러한 특정하게 언급된 예들 및 조건들로 제한되지는 않는 것으로 해석되어야 한다.All examples and conditional languages mentioned herein are for pedagogical purposes that aid the reader in understanding the principles and concepts of the present invention as provided by the inventors and to enhance their skills, and such specifically mentioned examples and conditions. It should not be construed as limited to these.

또한, 본 발명의 특정 예뿐만 아니라, 본 발명의 원리, 양상 및 실시예들을 인용하는 본 명세서의 모든 설명은 그 구조적 및 기능적 등가물들을 모두 포함하는 것으로 의도된다. 또한, 이러한 등가물들은 현재 공지된 등가물뿐만 아니라 미래에 개발될 등가물, 즉, 구조에 관계없이 동일한 기능을 행하도록 개발된 임의의 구성 요소들을 모두 포함하는 것으로 의도된다.Moreover, not only the specific examples of the present invention, but all descriptions citing the principles, aspects, and embodiments of the present invention are intended to include both structural and functional equivalents thereof. In addition, these equivalents are intended to include not only equivalents now known, but also equivalents to be developed in the future, that is, any components developed to perform the same function regardless of structure.

따라서, 예를 들어, 당업자는, 본 명세서에서 제시된 블록도들이 본 발명을 구현하는 예시적인 회로의 개념도를 나타내는 것임을 이해할 것이다. 마찬가지로, 임의의 플로차트, 순서도, 상태 전이도, 의사코드 등이, 컴퓨터 또는 프로세서가 명확하게 도시되는지 여부에 관계없이, 실질적으로 컴퓨터 판독가능 매체로 표현되어 컴퓨터 또는 프로세서에 의해 실행될 수 있는 다양한 프로세스를 나타낸다는 것을 이해할 것이다.Thus, for example, those skilled in the art will understand that the block diagrams presented herein represent conceptual diagrams of exemplary circuits implementing the present invention. Likewise, any flowchart, flowchart, state transition diagram, pseudocode, or the like may represent various processes that can be represented by a computer-readable medium and executed by a computer or processor, regardless of whether the computer or processor is clearly shown. Will be understood.

도면에 도시된 다양한 구성 요소들의 기능은, 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 결합되어 소프트웨어를 실행시킬 수 있는 하드웨어의 사용을 통해 제공될 수 있다. 프로세서에 의해 제공될 때, 기능들은 단일의 전용 프로세서, 단일의 공유 프로세서, 또는 일부가 공유될 수도 있는 복수의 개별 프로세서에 의해 제공될 수 있다. 또한, "프로세서" 또는 "컨트롤러"라는 용어의 명시적인 이용 은 소프트웨어를 실행할 수 있는 하드웨어를 배타적으로 지칭하는 것으로 해석되어서는 안 되며, 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 ROM(read only memory), RAM(random access memory), 및 비휘발성 저장 장치를 제한 없이 함축적으로 포함할 수 있다.The functionality of the various components shown in the figures may be provided through the use of dedicated hardware as well as hardware capable of executing software in combination with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, by a single shared processor, or by a plurality of individual processors, some of which may be shared. In addition, the explicit use of the term "processor" or "controller" should not be interpreted exclusively to refer to hardware capable of executing software, and is not limited to digital signal processor (DSP) hardware, ROM (read to store software). only memory (RAM), random access memory (RAM), and non-volatile storage devices may be implicitly included.

다른 하드웨어, 관용 및/또는 주문도 포함될 수 있다. 마찬가지로, 도면에 도시된 임의의 스위치들은 단지 개념적인 것이다. 이들의 기능은, 프로그램 로직의 동작을 통해서, 전용 로직을 통해서, 프로그램 제어 및 전용 로직의 상호작용을 통해서, 또는 수동으로도 수행될 수 있으며, 특정 기술은 컨텍스트로부터 보다 명확하게 이해되는 바와 같이 구현자에 의해 선택가능하다.Other hardware, tolerances and / or orders may also be included. Likewise, any switches shown in the figures are merely conceptual. Their functions may be performed through the operation of program logic, through dedicated logic, through program control and interaction of dedicated logic, or manually, and certain techniques are implemented as will be more clearly understood from the context. It is selectable by ruler.

본 명세서의 청구항에서, 특정 기능을 수행하기 위한 수단으로서 표시되는 임의의 구성 요소는, 예를 들어, a) 그 기능을 수행하는 회로 소자의 조합 또는 b) 소프트웨어가 그 기능을 수행하도록 하는 적절한 회로와 결합된, 펌웨어, 마이크로코드 등을 포함하는 임의의 형태의 소프트웨어를 포함하는, 그 기능을 수행하는 임의의 수단을 포괄하는 것으로 의도된다. 이러한 청구항에 의해 정의되는 바와 같은 본 발명은, 다양한 인용된 수단에 의해 제공되는 기능성들이 청구항이 청구하는 식으로 함께 결합되어 얻어진다는 사실에 근거한다. 따라서, 이러한 기능성들을 제공할 수 있는 임의의 수단은 본 명세서에 도시된 것과 동일한 것으로 간주된다.In the claims of this specification, any component indicated as a means for performing a particular function is, for example, a) a combination of circuit elements that perform the function or b) a suitable circuit for causing the software to perform that function. It is intended to cover any means for carrying out its functions, including any form of software, including firmware, microcode, etc., in conjunction with. The invention as defined by these claims is based on the fact that the functionality provided by the various recited means is obtained by combining together in a manner claimed by the claims. Thus, any means capable of providing these functionalities is considered to be the same as shown herein.

본 발명의 원리에 따라서, 다중 경로 비디오 인코딩 및 디코딩 기법이 제공된다. 다중 경로 비디오 인코딩 및 디코딩 기법에는 매칭 추적(MP)이 사용될 수 있다. 예시적 실시예에서, 2중 경로 H.264 기반의 코딩 기법이 MP 비디오 코딩에 대해 개시된다.In accordance with the principles of the present invention, a multipath video encoding and decoding technique is provided. Matching tracking (MP) may be used for the multipath video encoding and decoding techniques. In an exemplary embodiment, a two path H.264 based coding technique is disclosed for MP video coding.

H.264 표준은, 다른 비디오 압축 표준과 유사하게 블록 기반의 움직임 보상 및 DCT형 변환을 적용한다. 매우 낮은 비트 레이트에서, DCT 변환은, 디블로킹 필터를 이용하더라도, 블로킹 아티팩트들을 가져올 것이고, 이는 매우 낮은 비트 레이트에서 코딩될 수 있는 계수들이 거의 없으며, 각 계수가 매우 간격이 넓은 양자화 단계를 갖는 경향이 있기 때문이다. 본 발명의 원리에 따라서, 오버컴플릿 기저를 사용하는 MP가 잔여 화상을 코딩하도록 적용된다. 움직임 보상 및 모드 결정부는 H.264 표준에 따른다. 중첩 블록 움직임 보상(OBMC: Overlapped block motion compensation)은 예측 화상을 스무스하게 하는 데 적용된다. 또한, 새로운 접근법이 MP 외의 기저를 선택하기 위해 제공된다.The H.264 standard applies block-based motion compensation and DCT type transformation similarly to other video compression standards. At very low bit rates, the DCT transform will result in blocking artifacts, even with a deblocking filter, which has few coefficients that can be coded at very low bit rates, and each coefficient tends to have a very spaced quantization step. Because of this. In accordance with the principles of the present invention, an MP using an overcomplete basis is applied to code the residual picture. The motion compensation and mode determiner follows the H.264 standard. Overlapped block motion compensation (OBMC) is applied to smooth the predicted picture. In addition, a new approach is provided to select a base other than MP.

본 발명의 원리에 따라서, 비디오 인코더 및/또는 디코더는 예측 화상에 OBMC를 적용하여, 예측 모델에 의해 야기되는 블로킹 아티팩트를 감소시킨다. MP 알고리즘은 잔여 화상을 코딩하는 데 이용된다. MP의 장점은, 블록 기반이 아니고 프레임 기반이어서, 코딩 잔여 차에 의해 야기되는 블로킹 아티팩트가 없다는 점이다.In accordance with the principles of the present invention, the video encoder and / or decoder applies OBMC to the predictive picture, thereby reducing the blocking artifacts caused by the predictive model. The MP algorithm is used to code the residual picture. The advantage of MP is that it is not block based but frame based, so there are no blocking artifacts caused by the coding residual difference.

도 1a 및 1b를 참조하면, 2중 경로 H.264 표준 기반의 MP 인코더/디코더(CODEC)의 인코더의 예시적인 제1 및 제2 경로부가 일반적으로 참조 번호 110 및 160으로 표시된다. 인코더는 일반적으로 참조 번호 190으로 표시되고, 디코더부는 일반적으로 참조 번호 191로 표시된다.1A and 1B, exemplary first and second path portions of an encoder of a dual path H.264 standard based MP encoder / decoder (CODEC) are indicated generally by reference numerals 110 and 160. The encoder is indicated generally by the reference numeral 190 and the decoder portion is indicated generally by the reference numeral 191.

도 1a를 참조하면, 제1 경로부(110)의 입력은 합성기(112)의 비반전 입력, 인코더 제어 모듈(114)의 입력, 및 움직임 추정기(116)의 제1 입력과 신호 통신으로 접속된다. 합성기(112)의 제1 출력은 버퍼(118)의 제1 입력과 신호 통신으로 접속된다. 합성기(112)의 제2 출력은 정수 변환/크기 조정(scaling)/양자화 모듈(120)의 입력과 신호 통신으로 접속된다. 정수 변환/크기 조정/양자화 모듈(120)의 출력은 크기 조정/역변환 모듈(122)의 제1 입력과 신호 통신으로 접속된다.1A, the input of the first path portion 110 is connected in signal communication with a non-inverting input of the synthesizer 112, an input of the encoder control module 114, and a first input of the motion estimator 116. . The first output of synthesizer 112 is connected in signal communication with a first input of buffer 118. The second output of the synthesizer 112 is connected in signal communication with an input of an integer conversion / scaling / quantization module 120. An output of the integer conversion / scaling / quantization module 120 is connected in signal communication with a first input of the scale / inverse conversion module 122.

인코더 제어 모듈(114)의 제1 출력은 인트라 프레임 예측기(126)의 제1 입력과 신호 통신으로 접속된다. 인코더 제어 모듈(114)의 제2 출력은 움직임 보상기(124)의 제1 입력과 신호 통신으로 접속된다. 인코더 제어 모듈(114)의 제3 출력은 움직임 추정기(116)의 제2 입력과 신호 통신으로 접속된다. 인코더 제어 모듈(114)의 제4 출력은 크기 조정/역변환 모듈(122)의 제2 입력과 신호 통신으로 접속된다. 인코더 제어 모듈(114)의 제5 출력은 버퍼(118)의 제1 입력과 신호 통신으로 접속된다.A first output of the encoder control module 114 is connected in signal communication with a first input of the intra frame predictor 126. A second output of the encoder control module 114 is connected in signal communication with a first input of the motion compensator 124. A third output of the encoder control module 114 is connected in signal communication with a second input of the motion estimator 116. A fourth output of the encoder control module 114 is connected in signal communication with a second input of the scale / inverse transform module 122. A fifth output of the encoder control module 114 is connected in signal communication with a first input of a buffer 118.

움직임 추정기(116)의 출력은 움직임 보상기(124)의 제2 입력 및 버퍼(128)의 제2 입력과 신호 통신으로 접속된다. 합성기(112)의 반전 입력은 움직임 보상기(124)의 출력 또는 인트라 프레임 예측기(126)의 출력과 신호 통신으로 선택적으로 접속된다. 움직임 보상기(124) 또는 인트라 프레임 예측기(126) 중 선택된 하나의 출력은 합성기(128)의 제1 입력과 신호 통신으로 접속된다. 크기 조정/역변환 모듈(122)의 출력은 합성기(128)의 제2 입력과 신호 통신으로 접속된다. 합성기(128)의 출력은 인트라 프레임 예측기(126)의 제2 입력, 움직임 추정기(116)의 제3 입력, 및 움직임 보상기(124)의 입/출력과 신호 통신으로 접속된다. 버퍼(118)의 출력은 제1 경로부(110)의 출력으로서 이용가능하다.An output of the motion estimator 116 is connected in signal communication with a second input of the motion compensator 124 and a second input of the buffer 128. The inverting input of the synthesizer 112 is selectively connected in signal communication with the output of the motion compensator 124 or the output of the intra frame predictor 126. An output of a selected one of the motion compensator 124 or the intra frame predictor 126 is connected in signal communication with a first input of the synthesizer 128. An output of the scale / inverse transform module 122 is connected in signal communication with a second input of the synthesizer 128. An output of the synthesizer 128 is connected in signal communication with a second input of the intra frame predictor 126, a third input of the motion estimator 116, and an input / output of the motion compensator 124. The output of the buffer 118 is available as the output of the first path portion 110.

제1 경로부(110)에 있어서, 인코더 제어 모듈(114), 정수 변환/크기 조정/양자화 모듈(120), 버퍼(118), 및 움직임 추정기(116)는 인코더(190)에 포함된다. 또한, 제1 경로부에 있어서, 크기 조정/역변환 모듈(122), 인트라 프레임 예측기(126), 및 움직임 보상기(124)는 디코더부(191)에 포함된다.In the first path unit 110, the encoder control module 114, the integer transform / size adjustment / quantization module 120, the buffer 118, and the motion estimator 116 are included in the encoder 190. In addition, in the first path unit, the scale / inverse transform module 122, the intra frame predictor 126, and the motion compensator 124 are included in the decoder unit 191.

제1 경로부(110)의 입력은 입력 비디오(111)를 수신하고, 제2 경로부(160)에서 이용하기 위한 제어 데이터(예를 들어, 움직임 벡터, 모드 선택, 예측 화상, 등)를 버퍼(118)에 저장한다.An input of the first path unit 110 receives the input video 111 and buffers control data (eg, a motion vector, a mode selection, a predictive picture, etc.) for use in the second path unit 160. Stored at 118.

도 1b를 참조하면, 제2 경로부(160)의 제1 입력은 엔트로피 코더(166)의 입력과 신호 통신으로 접속된다. 이 제1 입력은, 제1 경로부(110)로부터 제어 데이터(162)(예를 들어, 모드 선택, 등) 및 움직임 벡터(164)를 수신한다. 제2 경로부(160)의 제2 입력은 합성기(168)의 비반전 입력과 신호 통신으로 접속된다. 제2 경로부(160)의 제3 입력은 중첩 블록 움직임 보상(OBMC)/디블로킹 모듈(170)의 입력과 신호 통신으로 접속된다. 제2 경로부(160)의 제2 입력은 입력 비디오(111)를 수신하고, 제2 경로부의 제3 입력은 제1 경로부(110)로부터 예측 화상(187)을 수신한다.Referring to FIG. 1B, the first input of the second path unit 160 is connected in signal communication with an input of the entropy coder 166. This first input receives control data 162 (eg, mode selection, etc.) and motion vector 164 from first path portion 110. The second input of the second path portion 160 is connected in signal communication with the non-inverting input of the synthesizer 168. The third input of the second path unit 160 is connected in signal communication with an input of the overlapping block motion compensation (OBMC) / deblocking module 170. The second input of the second path unit 160 receives the input video 111, and the third input of the second path unit 160 receives the predicted image 187 from the first path unit 110.

잔여(172)를 제공하는 합성기(168)의 출력은 원자 파인더(atom finder)(174)의 입력과 신호 통신으로 접속된다. 코딩된 잔여(178)를 제공하는 원자 파인더(174)의 출력은 원자 코더(176)의 입력 및 합성기(180)의 제1 비반전 입력과 신 호 통신으로 접속된다. OBMC/디블로킹 모듈(170)의 출력은 합성기(168)의 반전 입력 및 합성기(180)의 제2 비반전 입력과 신호 통신으로 접속된다. 출력 비디오를 제공하는 합성기(180)의 출력은 기준 버퍼(182)의 입력과 신호 통신으로 접속된다. 원자 코더(176)의 출력은 엔트로피 코더(166)의 입력과 신호 통신으로 접속된다. 엔트로피 코더(166)의 출력은 제2 경로부(160)의 출력으로서 이용가능하고, 출력 비트스트림을 제공한다.An output of synthesizer 168 providing residual 172 is connected in signal communication with an input of atom finder 174. The output of the atomic finder 174 providing the coded residual 178 is connected in signal communication with the input of the atomic coder 176 and the first non-inverting input of the synthesizer 180. An output of the OBMC / deblocking module 170 is connected in signal communication with an inverting input of the synthesizer 168 and a second non-inverting input of the synthesizer 180. The output of synthesizer 180, which provides output video, is connected in signal communication with an input of reference buffer 182. An output of the atomic coder 176 is connected in signal communication with an input of an entropy coder 166. The output of entropy coder 166 is available as the output of second path portion 160 and provides an output bitstream.

제2 경로부(160)에 있어서, 엔트로피 코더는 인코더(190)에 포함되고, 합성기(168), OBMC 모듈(170), 원자 파인더(174), 원자 코더(176), 및 기준 버퍼(182)는 디코더부(191)에 포함된다.In the second path portion 160, an entropy coder is included in the encoder 190, the synthesizer 168, the OBMC module 170, the atomic finder 174, the atomic coder 176, and the reference buffer 182. Is included in the decoder unit 191.

도 2를 참조하면, 2중 경로 H.264 표준 기반의 MP 인코더/디코더(CODEC)의 예시적인 디코더가 일반적으로 참조 번호 200으로 표시된다.With reference to FIG. 2, an exemplary decoder of a dual path H.264 standard based MP encoder / decoder (CODEC) is indicated generally by the reference numeral 200.

디코더(200)의 입력은 엔트로피 디코더(210)의 입력과 신호 통신으로 접속된다. 엔트로피 디코더의 출력은 원자 디코더(220)의 입력 및 움직임 보상기(250)의 입력과 신호 통신으로 접속된다. 잔여를 제공하는 역변환 모듈(230)의 출력은 합성기(270)의 제1 비반전 입력과 신호 통신으로 접속된다. 움직임 보상기(250)의 출력은 OBMC/디블로킹 모듈(260)의 입력과 신호 통신으로 접속된다. OBMC/디블로킹 모듈(260)의 출력은 합성기(270)의 제2 비반전 입력과 신호 통신으로 접속된다. 합성기의 출력은 디코더(200)의 출력으로서 이용가능하다.An input of the decoder 200 is connected in signal communication with an input of the entropy decoder 210. The output of the entropy decoder is connected in signal communication with the input of the atomic decoder 220 and the input of the motion compensator 250. An output of inverse transform module 230 providing residual is connected in signal communication with a first non-inverting input of synthesizer 270. The output of the motion compensator 250 is connected in signal communication with an input of the OBMC / deblocking module 260. An output of the OBMC / deblocking module 260 is connected in signal communication with a second non-inverting input of the synthesizer 270. The output of the synthesizer is available as the output of the decoder 200.

H.263 코덱에 기초한 종래 기술의 가버 기반의 MP 비디오 코딩 접근법의 MP 비디오 코덱과 다르게, 본 발명은 ITU-T H.264/AVC 코딩 시스템에 적용가능하다. 프레임 기반의 잔여 코딩으로 인해, OBMC를 예측 화상에 적용하고, 이는 H.264/AVC 코덱에서는 구현되지 않는다.Unlike the MP video codec of the Gabor based MP video coding approach of the prior art based on the H.263 codec, the present invention is applicable to the ITU-T H.264 / AVC coding system. Due to the frame-based residual coding, OBMC is applied to the predictive picture, which is not implemented in the H.264 / AVC codec.

본 발명에 따른 일 실시예에서, 비디오 인코딩 기법의 제1 경로는 H.264 표준에 따른다. 제1 경로에서 실제 코딩은 없다. 예를 들어, 모드 선택, 예측 화상 및 움직임 벡터와 같은 모든 제어 데이터가 제2 경로를 위해 버퍼에 저장된다. DCT 변환은 레이트 왜곡 최적화(RDO: Rate Distortion Optimization)를 이용하는 모드 선택 및 움직임 보상에 대해 제1 경로에서 여전히 적용된다. DCT 계수를 이용하여 잔여 화상을 코딩하는 대신, 모든 잔여 화상이 제2 경로를 위해 저장된다. 본 발명의 일 실시예에서, 16×16 제한 인트라 코딩 또는 H.264 표준 호환 제한 인트라 코딩을 적용하고, 특히 인트라 코딩된 매크로블록과 인터 코딩된 매크로블록 간의 경계부를 처리하는 것이 제안되었다.In one embodiment according to the invention, the first path of the video encoding technique is in accordance with the H.264 standard. There is no actual coding in the first path. For example, all control data such as mode selection, predictive pictures and motion vectors are stored in the buffer for the second path. DCT conversion is still applied in the first path for mode selection and motion compensation using Rate Distortion Optimization (RDO). Instead of coding the residual picture using the DCT coefficients, all residual pictures are stored for the second path. In one embodiment of the present invention, it has been proposed to apply 16x16 restricted intra coding or H.264 standard compliant limited intra coding, and in particular to process the boundary between intra coded macroblock and inter coded macroblock.

제2 경로에서, 움직임 벡터 및 제어 데이터는 엔트로피 코딩에 의해 코딩될 수 있다. 잔여 화상은 MP에 의해 코딩될 수 있다. 원자 검색 및 파라미터 코딩은, 예를 들어, 종래 기술의 가버 기반의 MP 비디오 코딩 접근법에 따라서 수행될 수 있다. 재생된 화상은 기준 프레임을 위해 저장된다.In the second path, the motion vector and control data can be coded by entropy coding. The residual picture may be coded by the MP. Atomic retrieval and parametric coding can be performed, for example, according to the Gabor based MP video coding approach of the prior art. The reproduced picture is stored for the reference frame.

MP 비디오 코딩의 이점들 중 하나는, MP가 블록 기반이 아니어서 블로킹 아티팩트가 없다는 것이다. 하지만, 움직임 예측이 블록 기반으로 수행되어 부정확한 경우, MP 비디오 코딩은, 매우 낮은 비트 레이트에서 소정의 블로킹 아티팩트들을 여전히 발생시킨다. 시뮬레이션은, 원자들이 움직이는 윤곽, 및 움직임 벡터(MV)가 매우 정확하지는 않은 영역에서 나타나는 것을 보여준다. 움직임 추정의 개선은 원자들이 잔여를 더욱 잘 나타내도록 한다.One of the advantages of MP video coding is that MP is not block based and therefore has no blocking artifacts. However, if motion prediction is performed block-based and inaccurate, MP video coding still generates certain blocking artifacts at very low bit rates. The simulation shows that the contour in which the atoms move and the motion vector (MV) appear in areas that are not very accurate. Improvements in motion estimation allow atoms to better represent residuals.

움직임 예측으로부터 아티팩트를 제거하기 위해서, 일 방법은 H.264형 또는 개선된 디블로킹 필터를 이용하여 예측 화상의 뭉툭한 경계를 스무스하게 하는 것과 관련된다. 다른 접근법에서, 중첩 블록(OBMC)을 이용하는 스무더(smoother) 움직임 모델이 채용된다. 종래 기술의 가버 기반의 MP 비디오 코딩 접근법에서는, 16×16 사인 제곱 윈도가 적응되었다. N×N 사인 제곱 윈도는, 예를 들어, 종래 기술의 하이브리드 코딩 기법에 따라서 정의될 수 있다. 16×16 사인 제곱 윈도는 8×8 블록에 대해 설계되고, 16×16 블록은 4개의 8×8 블록으로서 처리된다.To remove artifacts from motion prediction, one method involves smoothing the blunt boundaries of the predictive picture using an H.264 type or an improved deblocking filter. In another approach, a smoother motion model using overlapping blocks (OBMC) is employed. In the Gabor-based MP video coding approach of the prior art, a 16x16 sine squared window has been adapted. The N × N sine squared window can be defined according to, for example, a hybrid coding technique of the prior art. A 16x16 sine squared window is designed for 8x8 blocks, and the 16x16 blocks are treated as four 8x8 blocks.

하지만, H.264 표준에서는, 루마 블록 사이즈 16×16, 16×8, 8×16, 및 8×8 샘플들을 갖는 파티션들이 지원된다. 8×8 샘플들을 갖는 파티션들이 선택되는 경우, 8×8 파티션은 8×4, 4×8 또는 4×4 루마 샘플들 및 대응하는 색채(chroma) 샘플들로 더 분할된다. 여기에서, 추가의 분할 형태들을 처리하기 위한 4개의 접근법들이 제안된다. 첫 번째 접근법은 4×4 파티션에 대해 8×8 사인 제곱 윈도를 이용하는 것이다. 4×4 위의 모든 다른 파티션들에 대해서, 이 파티션들을 다수의 4×4 파티션들로 나눈다. 두 번째 접근법은 8×8 및 그 위의 파티션들에 대해 16×16 사인 제곱 윈도를 이용하지만, 8×8보다 작은 파티션들에 대해서는 건드리지 않는 것이다. 세 번째 접근법은 모든 파티션들에 대해 적응적 OBMC를 사용하는 것이다. 이러한 세 개의 접근법은 모두 OBMC만을 구현하고 디블로킹 필터는 구현하지 않으며, 네 번째 접근법은 OBMC와 디블로킹 필터(들)를 결합하는 것이다.However, in the H.264 standard, partitions with luma block size 16x16, 16x8, 8x16, and 8x8 samples are supported. If partitions with 8x8 samples are selected, the 8x8 partition is further divided into 8x4, 4x8 or 4x4 luma samples and corresponding chroma samples. Here, four approaches are proposed for dealing with further partition forms. The first approach is to use 8x8 sine squared windows for 4x4 partitions. For all other partitions above 4x4, divide these partitions into multiple 4x4 partitions. The second approach uses a 16x16 sine squared window for 8x8 and partitions above it, but does not touch partitions smaller than 8x8. The third approach is to use adaptive OBMC for all partitions. All three approaches implement only OBMC, not deblocking filter, and the fourth approach is to combine OBMC and deblocking filter (s).

잔여 코딩에 대해 구현된, 종래 기술의 가버 기반의 MP 비디오 코딩 접근법 의 리던던트 가버 사전 세트 외에도, 더욱 오버컴플릿한 베이스(base)의 활용을 제안한다. 낮은 비트 레이트에서, 변환 움직임 모델은 무빙 에지와 같은 관련 시각적 특성들의 자연스런 움직임을 정확하게 나타내지 못한다. 따라서, 대부분의 잔여 오류 에너지는 이 영역들에 위치한다. 따라서, 에지 검출 리던던트 사전을 이용하여 오류 화상을 나타내는 것이 중요하다. 2-D 가버 사전이 활용될 수 있는, 낮은 리던던시를 갖는 이산 웨이블렛 변환(예를 들어, 2-D DDWT(Dual-Tree Discrete Wavelet Transform)), 또는 소정의 다른 에지 검출 사전이 이용될 수 있다. 2-D DDWT는 2-D DWT보다 더 많은 서브밴드/방향들을 갖는다. 각각의 서브밴드는 하나의 방향을 나타내고, 이는 에지 검출적이다. 노이즈 정형(noise shaping) 후, 2-D DDWT는 동일하게 유지되는 계수로 표준 2-D DWT에 비해 더 높은 PSNR을 달성한다. 따라서, 2-D DDWT는 에지 정보를 코딩하는 데 더 적합하다. 예측 화상에 OBMC를 적용한 후, 오류 화상은 더 스무스한 에지를 가질 것이다. 파라메트릭(parametric) 오버컴플릿 2-D 사전은 더 스무스한 에지를 제공하기 위해 이용될 수 있다.In addition to redundant Gabor dictionary sets of prior art Gabor based MP video coding approaches, implemented for residual coding, we propose the use of a more overcomplete base. At low bit rates, the transform motion model does not accurately represent the natural movement of related visual characteristics such as moving edges. Thus, most of the residual error energy is located in these areas. Therefore, it is important to represent an error image using the edge detection redundant dictionary. Low redundancy discrete wavelet transform (eg, 2-D Dual-Tree Discrete Wavelet Transform (DDWT)), or any other edge detection dictionary, in which a 2-D Gaver dictionary may be utilized may be used. 2-D DDWT has more subbands / directions than 2-D DWT. Each subband represents one direction, which is edge detective. After noise shaping, the 2-D DDWT achieves higher PSNR compared to standard 2-D DWT with coefficients that remain the same. Thus, 2-D DDWT is more suitable for coding edge information. After applying the OBMC to the predictive picture, the error picture will have smoother edges. Parametric overcomplete 2-D dictionaries can be used to provide smoother edges.

도 3을 참조하면, 입력 비디오 시퀀스를 인코딩하기 위한 예시적인 방법이 일반적으로 참조 번호 300으로 표시된다. 방법(300)은 제어를 판정 블록 310으로 보내는 개시 블록 305를 포함한다. 판정 블록 310은 현재 프레임이 I 프레임인지 여부를 판정한다. 현재 프레임이 I 프레임이면, 제어는 기능 블록 355로 보내진다. 그렇지 않으면, 제어는 기능 블록 315로 보내진다.Referring to FIG. 3, an exemplary method for encoding an input video sequence is indicated generally at 300. The method 300 includes initiation block 305 that passes control to a decision block 310. Decision block 310 determines whether the current frame is an I frame. If the current frame is an I frame, control is passed to a function block 355. Otherwise, control is passed to a function block 315.

기능 블록 355는 H.264 표준 호환 프레임 코딩을 수행하여 출력 비트스트림 을 제공하고, 제어를 종료 블록 370으로 보낸다.Function block 355 performs an H.264 standard compliant frame coding to provide an output bitstream, and passes control to end block 370.

기능 블록 315는 H.264 표준 호환 움직임 보상을 수행하고, 제어를 기능 블록 320으로 보낸다. 기능 블록 320은 움직임 벡터(MV), 제어 데이터, 및 예측 블록을 저장하고, 제어를 판정 블록 325로 보낸다. 판정 블록 325는 프레임의 엔드(end)에 도달했는지 여부를 판정한다. 프레임의 엔드에 도달했다면, 제어는 기능 블록 330으로 보내진다. 그렇지 않으면, 제어는 기능 블록 315로 되돌아간다.The function block 315 performs H.264 standard compliant motion compensation, and passes control to a function block 320. The function block 320 stores the motion vector (MV), the control data, and the prediction block, and passes control to a decision block 325. The decision block 325 determines whether the end of the frame has been reached. If the end of the frame has been reached, control is passed to a function block 330. Otherwise, control returns to function block 315.

기능 블록 330은 예측 화상에 대해 OBMC 및/또는 디블로킹 필터링을 수행하고, 제어를 기능 블록 335로 보낸다. 기능 블록 335는 원 화상 및 예측 화상으로부터 잔여 화상을 얻고, 제어를 기능 블록 340으로 보낸다. 기능 블록 340은 MP를 이용해서 잔여를 코딩하고, 제어를 기능 블록 345로 보낸다. 기능 블록 345는 엔트로피 코딩을 수행하여 출력 비트스트림을 제공하고, 제어를 종료 블록 370으로 보낸다.The function block 330 performs OBMC and / or deblocking filtering on the predictive picture, and passes control to a function block 335. The function block 335 obtains the residual picture from the original picture and the predictive picture, and passes control to a function block 340. The function block 340 codes the residual using the MP, and passes control to a function block 345. The function block 345 performs entropy coding to provide an output bitstream, and passes control to an end block 370.

도 4를 참조하면, 입력 비디오 시퀀스를 디코딩하기 위한 예시적인 방법이 일반적으로 참조 번호 400으로 표시된다. 방법(400)은 제어를 판정 블록 410으로 보내는 개시 블록 405를 포함한다. 판정 블록 410은 현재 프레임이 I 프레임인지 여부를 판정한다. 현재 프레임이 I 프레임이면, 제어는 기능 블록 435로 보내진다. 그렇지 않으면, 제어는 기능 블록 415로 보내진다.Referring to FIG. 4, an exemplary method for decoding an input video sequence is indicated generally at 400. The method 400 includes initiation block 405, which passes control to a decision block 410. Decision block 410 determines whether the current frame is an I frame. If the current frame is an I frame, control is passed to a function block 435. Otherwise, control is passed to a function block 415.

기능 블록 435는 H.264 표준 호환 디코딩을 수행하여 재생된 화상을 제공하고, 제어를 종료 블록 470으로 보낸다.The function block 435 performs H.264 standard compliant decoding to provide a reproduced picture, and passes control to an end block 470.

기능 블록 415는 움직임 벡터, 제어 데이터, 및 MP 원자를 디코딩하고, 제어 를 기능 블록 420 및 기능 블록 425로 보낸다. 기능 블록 420은 디코딩된 원자를 이용해서 잔여 화상을 재생하고, 제어를 기능 블록 430으로 보낸다. 기능 블록 425는, 움직임 벡터 및 다른 제어 데이터를 디코딩하고 OBMC 및/또는 디블로킹 필터링을 적용함으로써 예측 화상을 재생하고, 제어를 기능 블록 430으로 보낸다. 기능 블록 430은 재생된 잔여 화상과 재생된 예측 화상을 합성하여 재생된 화상을 제공하고, 제어를 종료 블록 470으로 보낸다.Function block 415 decodes the motion vectors, control data, and MP atoms, and passes control to function block 420 and function block 425. The function block 420 reproduces the residual picture using the decoded atoms, and passes control to a function block 430. The function block 425 reproduces the predictive picture by decoding motion vectors and other control data and applying OBMC and / or deblocking filtering, and passes control to a function block 430. The function block 430 synthesizes the reproduced residual picture and the reproduced predictive picture to provide a reproduced picture, and passes control to an end block 470.

이제, 본 발명의 다수의 부수적 장점/특징의 일부에 대해서 설명될 것이며, 이들의 일부는 상술하였다. 예를 들어, 한 장점/특징은, 다중 경로 비디오 인코딩 기법을 이용해서 비디오 신호 데이터를 인코딩하는 비디오 인코더로서, 비디오 인코더는 움직임 추정기 및 분해 모듈을 포함한다. 움직임 추정기는 비디오 신호 데이터에 대해 움직임 추정을 수행하여, 제1 인코딩 경로에서 비디오 신호 데이터에 대응하는 움직임 잔여를 얻는다. 움직임 추정기와 신호 통신하는 분해 모듈은 후속하는 인코딩 경로에서 움직임 잔여를 분해한다.Now, some of the many minor advantages / features of the present invention will be described, some of which have been described above. For example, one advantage / feature is a video encoder that encodes video signal data using a multipath video encoding technique, which includes a motion estimator and a decomposition module. The motion estimator performs motion estimation on the video signal data to obtain a motion residual corresponding to the video signal data in the first encoding path. A decomposition module in signal communication with the motion estimator decomposes the motion residuals in subsequent encoding paths.

다른 장점/특징은 상술한 바와 같은 비디오 인코더로서, 여기에서 다중 경로 비디오 코딩 기법은 2중 경로 비디오 인코딩 기법이다. 비디오 인코더는, 움직임 추정기 및 분해 모듈과 신호 통신하는, 제2 인코딩 경로에서의 후속 이용을 위해 제1 인코딩 경로에서 얻어진 움직임 잔여를 저장하는 버퍼를 더 포함한다. 분해 모듈은 제2 인코딩 경로에서 리던던트 가버 사전 세트를 이용해서 움직임 잔여를 분해한다.Another advantage / feature is the video encoder as described above, wherein the multipath video coding technique is a double path video encoding technique. The video encoder further includes a buffer in signal communication with the motion estimator and decomposition module to store the motion residue obtained in the first encoding path for subsequent use in the second encoding path. The decomposition module decomposes the motion residual using a redundant Gabor dictionary set in the second encoding path.

또 다른 장점/특징은 상술한 바와 같은 2중 경로 비디오 인코딩 기법을 이용 하는 비디오 인코더로서, 여기에서 움직임 추정기는, 제1 인코딩 경로에서 국제 전기통신 연합, 전기통신부(ITU-T) H.264 표준에 따라 움직임 추정 및 코딩 모드 선택을 수행한다.Another advantage / feature is a video encoder employing the two-path video encoding technique as described above, wherein the motion estimator is in the first encoding path the International Telecommunication Union, Department of Telecommunications (ITU-T) H.264 standard. According to the motion estimation and coding mode selection.

또 다른 장점/특징은 상술한 바와 같은 2중 경로 비디오 인코딩 기법을 이용하는 비디오 인코더로서, 여기에서 비디오 인코더는 예측 모듈 및 중첩 블록 움직임 보상기를 더 포함한다. 버퍼와 신호 통신하는 예측 모듈은 제1 인코딩 경로에서 비디오 신호 데이터에 대응하는 예측 화상을 형성한다. 버퍼와 신호 통신하는 중첩 블록 움직임 보상기는 16×16 사인 제곱 윈도를 이용해서 예측 화상에 대해 중첩 블록 움직임 보상(OBMC)을 수행하여, 제2 인코딩 경로에서 예측 화상을 스무스하게 한다. 버퍼는, 제2 인코딩 경로에서의 후속 이용을 위해 제1 인코딩 경로에서 예측 화상을 그 내부에 저장한다.Yet another advantage / feature is a video encoder using a dual path video encoding technique as described above, wherein the video encoder further comprises a prediction module and a nested block motion compensator. The prediction module in signal communication with the buffer forms a predictive picture corresponding to the video signal data in the first encoding path. An overlapping block motion compensator in signal communication with the buffer performs overlapping block motion compensation (OBMC) on the predictive picture using a 16 × 16 sine squared window to smooth the predictive picture in the second encoding path. The buffer stores therein the predictive picture in the first encoding path for subsequent use in the second encoding path.

또한, 다른 장점/특징은 상술한 바와 같은 2중 경로 비디오 인코딩 기법을 이용하는 비디오 인코더로서, 여기에서 비디오 인코더는 예측 모듈 및 중첩 블록 움직임 보상기를 더 포함한다. 버퍼와 신호 통신하는 예측 모듈은 제1 인코딩 경로에서 비디오 신호 데이터에 대응하는 예측 화상을 형성한다. 버퍼와 신호 통신하는 중첩 블록 움직임 보상기는 제2 인코딩 경로에서 예측 화상의 8×8 및 그보다 큰 파티션에 대해서만 중첩 블록 움직임 보상(OBMC)을 수행한다. 버퍼는, 제2 인코딩 경로에서의 후속 이용을 위해 제1 인코딩 경로에서 예측 화상을 그 내부에 저장한다.Further, another advantage / feature is a video encoder using a dual path video encoding technique as described above, wherein the video encoder further comprises a prediction module and an overlapping block motion compensator. The prediction module in signal communication with the buffer forms a predictive picture corresponding to the video signal data in the first encoding path. The overlapping block motion compensator in signal communication with the buffer performs overlapping block motion compensation (OBMC) only for partitions of 8x8 and larger of the predicted picture in the second encoding path. The buffer stores therein the predictive picture in the first encoding path for subsequent use in the second encoding path.

또한, 다른 장점/특징은 상술한 바와 같은 2중 경로 비디오 인코딩 기법을 이용하는 비디오 인코더로서, 여기에서 비디오 인코더는 예측 모듈 및 중첩 블록 움직임 보상기를 더 포함한다. 버퍼와 신호 통신하는 예측 모듈은 제1 인코딩 경로에서 비디오 신호 데이터에 대응하는 예측 화상을 형성한다. 버퍼와 신호 통신하는 중첩 블록 움직임 보상기는 제2 인코딩 경로에서 예측 화상의 4×4 파티션에 대해 8×8 사인 제곱 윈도를 이용해서 중첩 블록 움직임 보상(OBMC)을 수행한다. 예측 화상의 모든 파티션은 제2 인코딩 경로에서 OBMC가 수행될 때 4×4 파티션으로 분할된다. 버퍼는, 제2 인코딩 경로에서의 후속 이용을 위해 제1 인코딩 경로에서 예측 화상을 그 내부에 저장한다.Further, another advantage / feature is a video encoder using a dual path video encoding technique as described above, wherein the video encoder further comprises a prediction module and an overlapping block motion compensator. The prediction module in signal communication with the buffer forms a predictive picture corresponding to the video signal data in the first encoding path. An overlapping block motion compensator in signal communication with the buffer performs overlapping block motion compensation (OBMC) using an 8x8 sine square window for the 4x4 partition of the predictive picture in the second encoding path. All partitions of the predictive picture are divided into 4x4 partitions when OBMC is performed in the second encoding path. The buffer stores therein the predictive picture in the first encoding path for subsequent use in the second encoding path.

또한, 다른 장점/특징은 상술한 바와 같은 2중 경로 비디오 인코딩 기법을 이용하는 비디오 인코더로서, 여기에서 비디오 인코더는 예측 모듈 및 중첩 블록 움직임 보상기를 더 포함한다. 버퍼와 신호 통신하는 예측 모듈은 제1 인코딩 경로에서 비디오 신호 데이터에 대응하는 예측 화상을 형성한다. 버퍼와 신호 통신하는 중첩 블록 움직임 보상기는 제2 인코딩 경로에서 예측 화상의 모든 파티션에 대해 적응적 중첩 블록 움직임 보상(OBMC)을 수행한다. 버퍼는, 제2 인코딩 경로에서의 후속 이용을 위해 제1 인코딩 경로에서 예측 화상을 그 내부에 저장한다.Further, another advantage / feature is a video encoder using a dual path video encoding technique as described above, wherein the video encoder further comprises a prediction module and an overlapping block motion compensator. The prediction module in signal communication with the buffer forms a predictive picture corresponding to the video signal data in the first encoding path. An overlapping block motion compensator in signal communication with the buffer performs adaptive overlapping block motion compensation (OBMC) on all partitions of the predictive picture in the second encoding path. The buffer stores therein the predictive picture in the first encoding path for subsequent use in the second encoding path.

또한, 다른 장점/특징은 상술한 바와 같은 2중 경로 비디오 인코딩 기법을 이용하는 비디오 인코더로서, 여기에서 비디오 인코더는 예측 모듈 및 디블로킹 필터를 더 포함한다. 버퍼와 신호 통신하는 예측 모듈은 제1 인코딩 경로에서 비디오 신호 데이터에 대응하는 예측 화상을 형성한다. 버퍼와 신호 통신하는 디블로킹 필터는 제2 인코딩 경로에서 예측 화상에 대해 디블로킹 동작을 수행한다. 버 퍼는, 제2 인코딩 경로에서의 후속 이용을 위해 제1 인코딩 경로에서 예측 화상을 그 내부에 저장한다.Further, another advantage / feature is a video encoder using a dual path video encoding technique as described above, wherein the video encoder further comprises a prediction module and a deblocking filter. The prediction module in signal communication with the buffer forms a predictive picture corresponding to the video signal data in the first encoding path. The deblocking filter in signal communication with the buffer performs a deblocking operation on the predictive picture in the second encoding path. The buffer stores the prediction picture therein in the first encoding path for subsequent use in the second encoding path.

또한, 다른 장점/특징은 상술한 바와 같은 2중 경로 비디오 인코딩 기법을 이용하는 비디오 인코더로서, 여기에서 분해 모듈은 듀얼 트리(dual-tree) 웨이블렛 변환을 수행하여 움직임 잔여를 분해한다.Also, another advantage / feature is a video encoder using the dual path video encoding technique as described above, wherein the decomposition module performs a dual-tree wavelet transform to decompose the motion residuals.

또 다른 장점/특징은 상술한 바와 같은 2중 경로 비디오 인코딩 기법 및 듀얼 트리 웨이블렛 변환을 이용하는 비디오 인코더로서, 여기에서 분해 모듈은 노이즈 정형을 이용해서 듀얼 트리 웨이블렛 변환의 계수를 선택한다.Another advantage / feature is a video encoder using a dual path video encoding technique and dual tree wavelet transform as described above, wherein the decomposition module selects the coefficients of the dual tree wavelet transform using noise shaping.

또한, 다른 장점/특징은 상술한 바와 같은 2중 경로 비디오 인코딩 기법을 이용하는 비디오 인코더로서, 여기에서 분해 모듈은 파라메트릭 오버컴플릿 2-D 사전을 적용하여 제2 인코딩 경로에서 움직임 잔여를 분해한다.Another advantage / feature is a video encoder using a dual path video encoding technique as described above, wherein the decomposition module applies a parametric overcomplete 2-D dictionary to decompose the motion residuals in the second encoding path.

또한, 다른 장점/특징은 비디오 비트스트림을 디코딩하는 비디오 디코더로서, 여기에서 비디오 디코더는, 엔트로피 디코더, 원자 디코더, 역변환기, 움직임 보상기, 디블로킹 필터, 및 합성기를 포함한다. 엔트로피 디코더는 비디오 비트스트림을 디코딩하여 분해된 비디오 비트스트림을 얻는다. 엔트로피 디코더와 신호 통신하는 원자 디코더는 분해된 비트스트림에 대응하는 분해된 원자를 디코딩하여 디코딩된 원자를 얻는다. 원자 디코더와 신호 통신하는 역변환기는 디코딩된 원자에 역변환을 적용하여 재생된 잔여 화상을 형성한다. 엔트로피 디코더와 신호 통신하는 움직임 보상기는 분해된 비트스트림에 대응하는 움직임 벡터를 이용해서 움직임 보상을 수행하여 재생된 예측 화상을 형성한다. 움직임 보상기와 신호 통신 하는 디블로킹 필터는, 재생된 예측 화상에 디블로킹 필터링을 수행하여 재생된 예측 화상을 스무스하게 한다. 역변환기 및 중첩 블록 움직임 보상기와 신호 통신하는 합성기는 재생된 예측 화상과 잔여 화상을 합성하여 재생된 화상을 얻는다.Another advantage / feature is a video decoder that decodes a video bitstream, wherein the video decoder includes an entropy decoder, an atomic decoder, an inverse transformer, a motion compensator, a deblocking filter, and a synthesizer. The entropy decoder decodes the video bitstream to obtain a decomposed video bitstream. An atomic decoder in signal communication with the entropy decoder decodes the resolved atoms corresponding to the resolved bitstream to obtain decoded atoms. The inverse transformer in signal communication with the atomic decoder applies an inverse transform to the decoded atoms to form a reproduced residual image. A motion compensator in signal communication with the entropy decoder performs motion compensation using a motion vector corresponding to the decomposed bitstream to form a reproduced predicted picture. The deblocking filter in signal communication with the motion compensator performs deblocking filtering on the reproduced predictive image to smooth the reproduced predictive image. A synthesizer in signal communication with the inverse transformer and the overlapping block motion compensator synthesizes the reproduced prediction picture and the residual picture to obtain a reproduced picture.

본 발명의 상기 및 기타 특징 및 장점은 본 명세서의 교시에 기초해서 당업자에 의해 용이하게 확인될 수 있을 것이다. 본 발명의 교시가 다양한 형태의 하드웨어, 소프트웨어, 펌웨어, 전용 프로세서, 또는 이들의 조합으로 구현될 수 있다는 것을 이해할 것이다.These and other features and advantages of the present invention will be readily apparent to those skilled in the art based on the teachings herein. It will be appreciated that the teachings of the present invention may be implemented in various forms of hardware, software, firmware, dedicated processors, or a combination thereof.

가장 바람직하게, 본 발명의 교시는 하드웨어 및 소프트웨어의 조합으로서 구현된다. 또한, 소프트웨어는 프로그램 저장부에 실재적으로 구현되는 애플리케이션 프로그램으로서 구현될 수 있다. 애플리케이션 프로그램은 임의의 적합한 구조를 갖는 머신으로 업로드되어 이 머신에 의해 실행될 수 있다. 바람직하게, 머신은, 하나 이상의 중앙 처리 장치(CPU), RAM, 및 입/출력(I/O) 인터페이스와 같은 하드웨어를 갖는 컴퓨터 플랫폼으로 구현된다. 컴퓨터 플랫폼은 또한 운영 체계 및 마이크로명령어 코드를 포함할 수 있다. 본 명세서에서 기술된 다양한 프로세스 및 기능은, CPU에 의해 실행될 수 있는, 마이크로명령어 코드의 일부 또는 애플리케이션 프로그램의 일부, 또는 이들의 임의의 조합일 수 있다. 또한, 추가의 데이터 저장부 및 인쇄부와 같은 다양한 다른 주변부가 컴퓨터 플랫폼에 연결될 수 있다.Most preferably, the teachings of the present invention are implemented as a combination of hardware and software. In addition, the software may be implemented as an application program that is actually implemented in the program storage unit. The application program can be uploaded to and executed by a machine having any suitable structure. Preferably, the machine is implemented with a computer platform having hardware such as one or more central processing units (CPUs), RAM, and input / output (I / O) interfaces. The computer platform may also include an operating system and microinstruction code. The various processes and functions described herein may be part of microinstruction code or part of an application program, or any combination thereof, that may be executed by a CPU. In addition, various other peripherals, such as additional data storage and printing, may be connected to the computer platform.

또한, 첨부 도면에 도시된 구성 시스템 요소 및 방법들의 일부가 양호하게 소프트웨어로 구현되기 때문에, 시스템 구성 요소들 또는 프로세스 기능 블록들 간 의 실제 접속은, 본 발명이 프로그램되는 방식에 따라서 달라질 수 있다. 본 명세서의 교시를 통해서, 당업자는 본 발명의 상기 및 유사 구현들 또는 구성들을 고안할 수 있을 것이다.In addition, since some of the component system elements and methods shown in the accompanying drawings are preferably implemented in software, the actual connection between system components or process functional blocks may vary depending on how the invention is programmed. Through the teachings herein, those skilled in the art will be able to devise the above and similar implementations or configurations of the present invention.

예시적인 실시예들이 첨부 도면을 참조해서 본 명세서에서 기술되었지만, 본 발명은 이러한 명확한 실시예들로 제한되는 것은 아니며, 본 발명의 범위 또는 사상에서 벗어나지 않으면서 다양한 변경 및 수정들이 당업자에 의해 이루어질 수 있다는 것을 이해해야 한다. 이러한 모든 변경 및 수정들은 첨부된 청구항에서 정의되는 바와 같이 본 발명의 범위 내에 포함되는 것으로 의도된다.Although exemplary embodiments have been described herein with reference to the accompanying drawings, the invention is not limited to these specific embodiments, and various changes and modifications may be made by those skilled in the art without departing from the scope or spirit of the invention. It must be understood. All such changes and modifications are intended to be included within the scope of the present invention as defined in the appended claims.

Claims (24)

다중 경로 비디오 인코딩 기법을 이용해서 비디오 신호 데이터를 인코딩하기 위한 비디오 인코더로서,A video encoder for encoding video signal data using a multipath video encoding technique, 상기 비디오 신호 데이터에 대해 움직임 추정을 수행하여, 제1 인코딩 경로에서 상기 비디오 신호 데이터에 대응하는 움직임 잔여(residual)를 얻는 움직임 추정기(116)와,A motion estimator 116 for performing motion estimation on the video signal data to obtain a motion residual corresponding to the video signal data in a first encoding path; 상기 움직임 추정기와 신호 통신하고, 후속하는 인코딩 경로에서 상기 움직임 잔여를 분해하는 분해 모듈(174)Decomposition module 174 in signal communication with the motion estimator and for decomposing the motion residual in subsequent encoding paths 을 포함하는 비디오 인코더.Video encoder comprising a. 제1항에 있어서,The method of claim 1, 상기 다중 경로 비디오 코딩 기법은 2중 경로 비디오 인코딩 기법이고,The multipath video coding technique is a double path video encoding technique, 상기 비디오 인코더는, 상기 움직임 추정기 및 상기 분해 모듈과 신호 통신하고, 제2 인코딩 경로에서의 후속 이용을 위해 상기 제1 인코딩 경로에서 얻은 상기 움직임 잔여를 저장하는 버퍼(118)를 더 포함하고,The video encoder further comprises a buffer 118 in signal communication with the motion estimator and the decomposition module and for storing the motion residual obtained in the first encoding path for subsequent use in a second encoding path, 상기 분해 모듈(174)은 상기 제2 인코딩 경로에서 리던던트 가버 사전(redundant Gabor dictionary) 세트를 이용해서 상기 움직임 잔여를 분해하는 비디오 인코더.The decomposition module (174) decomposes the motion residual using a set of redundant Gabor dictionaries in the second encoding path. 제2항에 있어서,The method of claim 2, 상기 움직임 추정기(116)는, 상기 제1 인코딩 경로에서 국제 전기통신 연합, 전기통신 섹터(ITU-T: International Telecommunication Union, Telecommunication Sector) H.264 표준에 따라 상기 움직임 추정 및 코딩 모드 선택을 수행하는 비디오 인코더.The motion estimator 116 performs the motion estimation and coding mode selection according to the International Telecommunication Union (ITU-T: Telecommunication Sector) H.264 standard in the first encoding path. Video encoder. 제2항에 있어서,The method of claim 2, 상기 버퍼와 신호 통신하고, 상기 제1 인코딩 경로에서 상기 비디오 신호 데이터에 대응하는 예측 화상을 형성하는 예측 모듈(124, 126)과,A prediction module (124, 126) in signal communication with the buffer and forming a predictive picture corresponding to the video signal data in the first encoding path; 상기 버퍼와 신호 통신하고, 16×16 사인 제곱 윈도를 사용해서 상기 예측 화상에 대해 중첩 블록 움직임 보상(OBMC: Overlapping block motion compensation)을 수행하여, 상기 제2 인코딩 경로에서 상기 예측 화상을 스무스(smooth)하게 하는 중첩 블록 움직임 보상기(170)를 더 포함하고,In signal communication with the buffer, and performing overlapping block motion compensation (OBMC) on the predicted picture using a 16 × 16 sine square window to smooth the predicted picture in the second encoding path. Further comprises an overlapping block motion compensator (170), 상기 버퍼는, 상기 제2 인코딩 경로에서의 후속 이용을 위해 상기 제1 인코딩 경로에서 상기 예측 화상을 그 내부에 저장하는 비디오 인코더.The buffer stores therein the predictive picture in the first encoding path for subsequent use in the second encoding path. 제2항에 있어서,The method of claim 2, 상기 버퍼와 신호 통신하고, 상기 제1 인코딩 경로에서 상기 비디오 신호 데이터에 대응하는 예측 화상을 형성하는 예측 모듈(124, 126)과,A prediction module (124, 126) in signal communication with the buffer and forming a predictive picture corresponding to the video signal data in the first encoding path; 상기 버퍼와 신호 통신하고, 상기 제2 인코딩 경로에서 상기 예측 화상의 8 ×8 및 그보다 큰 파티션(partition)에 대해서만 중첩 블록 움직임 보상(OBMC)을 수행하는 중첩 블록 움직임 보상기(170)를 더 포함하고,And an overlapping block motion compensator 170 in signal communication with the buffer and performing overlapping block motion compensation (OBMC) only for 8 × 8 and larger partitions of the predicted picture in the second encoding path. , 상기 버퍼는, 상기 제2 인코딩 경로에서의 후속 이용을 위해 상기 제1 인코딩 경로에서 상기 예측 화상을 그 내부에 저장하는 비디오 인코더.The buffer stores therein the predictive picture in the first encoding path for subsequent use in the second encoding path. 제2항에 있어서,The method of claim 2, 상기 버퍼와 신호 통신하고, 상기 제1 인코딩 경로에서 상기 비디오 신호 데이터에 대응하는 예측 화상을 형성하는 예측 모듈(124, 126)과,A prediction module (124, 126) in signal communication with the buffer and forming a predictive picture corresponding to the video signal data in the first encoding path; 상기 버퍼와 신호 통신하고, 상기 제2 인코딩 경로에서 상기 예측 화상의 4×4 파티션에 대해 8×8 사인 제곱 윈도를 이용해서 중첩 블록 움직임 보상(OBMC)을 수행하는 중첩 블록 움직임 보상기(170)를 더 포함하고,An overlapping block motion compensator 170 in signal communication with the buffer and performing overlapping block motion compensation (OBMC) using an 8 × 8 sine squared window for the 4 × 4 partition of the predicted picture in the second encoding path. Including more, 상기 예측 화상의 모든 파티션은, 상기 제2 인코딩 경로에서 OBMC가 수행될 때 4×4 파티션으로 분할되고,All partitions of the predictive picture are divided into 4x4 partitions when OBMC is performed in the second encoding path, 상기 버퍼는, 상기 제2 인코딩 경로에서의 후속 이용을 위해 상기 제1 인코딩 경로에서 상기 예측 화상을 그 내부에 저장하는 비디오 인코더.The buffer stores therein the predictive picture in the first encoding path for subsequent use in the second encoding path. 제2항에 있어서,The method of claim 2, 상기 버퍼와 신호 통신하고, 상기 제1 인코딩 경로에서 상기 비디오 신호 데이터에 대응하는 예측 화상을 형성하는 예측 모듈(124, 126)과,A prediction module (124, 126) in signal communication with the buffer and forming a predictive picture corresponding to the video signal data in the first encoding path; 상기 버퍼와 신호 통신하고, 상기 제2 인코딩 경로에서 상기 예측 화상의 모 든 파티션에 대해 적응적 중첩 블록 움직임 보상(OBMC)을 수행하는 중첩 블록 움직임 보상기(170)를 더 포함하고,An overlapping block motion compensator 170 in signal communication with the buffer and performing adaptive overlapping block motion compensation (OBMC) on all partitions of the predictive picture in the second encoding path, 상기 버퍼는, 상기 제2 인코딩 경로에서의 후속 이용을 위해 상기 제1 인코딩 경로에서 상기 예측 화상을 그 내부에 저장하는 비디오 인코더.The buffer stores therein the predictive picture in the first encoding path for subsequent use in the second encoding path. 제2항에 있어서,The method of claim 2, 상기 버퍼와 신호 통신하고, 상기 제1 인코딩 경로에서 상기 비디오 신호 데이터에 대응하는 예측 화상을 형성하는 예측 모듈(124, 126)과,A prediction module (124, 126) in signal communication with the buffer and forming a predictive picture corresponding to the video signal data in the first encoding path; 상기 버퍼와 신호 통신하고, 상기 제2 인코딩 경로에서 상기 예측 화상에 대해 디블로킹(deblocking) 동작을 수행하는 디블로킹 필터(170)를 더 포함하고,And a deblocking filter 170 in signal communication with the buffer, the deblocking filter 170 performing a deblocking operation on the predicted picture in the second encoding path, 상기 버퍼는, 상기 제2 인코딩 경로에서의 후속 이용을 위해 상기 제1 인코딩 경로에서 상기 예측 화상을 그 내부에 저장하는 비디오 인코더.The buffer stores therein the predictive picture in the first encoding path for subsequent use in the second encoding path. 제2항에 있어서,The method of claim 2, 상기 분해 모듈(174)은 듀얼 트리(dual-tree) 웨이블렛 변환을 수행하여 상기 움직임 잔여를 분해하는 비디오 인코더.The decomposition module (174) performs a dual-tree wavelet transform to decompose the residual motion. 제9항에 있어서,The method of claim 9, 상기 분해 모듈(174)은 노이즈 정형(noise shaping)을 이용해서 상기 듀얼 트리 웨이블렛 변환의 계수를 선택하는 비디오 인코더.The decomposition module (174) selects coefficients of the dual tree wavelet transform using noise shaping. 제2항에 있어서,The method of claim 2, 상기 분해 모듈(174)은 파라메트릭 오버컴플릿(parametric over-complete) 2-D 사전을 적용하여 상기 제2 인코딩 경로에서 상기 움직임 잔여를 분해하는 비디오 인코더.The decomposition module (174) applies a parametric over-complete 2-D dictionary to decompose the motion residual in the second encoding path. 다중 경로 비디오 인코딩 기법을 이용해서 비디오 신호 데이터를 인코딩하기 위한 방법으로서,A method for encoding video signal data using a multipath video encoding technique, 상기 비디오 신호 데이터에 대해 움직임 추정을 수행하여, 제1 인코딩 경로에서 상기 비디오 신호 데이터에 대응하는 움직임 잔여를 얻는 단계(315)와,Performing motion estimation on the video signal data to obtain a motion residual corresponding to the video signal data in a first encoding path (315); 후속하는 인코딩 경로에서 상기 움직임 잔여를 분해하는 단계(340)Decomposing (340) the motion residue in a subsequent encoding path 를 포함하는 방법.How to include. 제12항에 있어서,The method of claim 12, 상기 다중 경로 비디오 코딩 기법은 2중 경로 비디오 인코딩 기법이고,The multipath video coding technique is a double path video encoding technique, 상기 방법은, 제2 인코딩 경로에서의 후속 이용을 위해 상기 제1 인코딩 경로에서 얻은 상기 움직임 잔여를 저장하는 단계(320)를 더 포함하고,The method further includes storing 320 the motion residual obtained in the first encoding path for subsequent use in a second encoding path, 상기 분해 단계(340)는 상기 제2 인코딩 경로에서 리던던트 가버 사전 세트를 이용해서 상기 움직임 잔여를 분해하는 방법.Said decomposition step (340) decomposing said motion residual using a redundant Gabor dictionary set in said second encoding path. 제13항에 있어서,The method of claim 13, 상기 움직임 추정 및 코딩 모드 선택은 상기 제1 인코딩 경로에서 국제 전기통신 연합, 전기통신 섹터(ITU-T) H.264 표준에 따라 수행되는 방법.The motion estimation and coding mode selection is performed according to the International Telecommunication Union, Telecommunications Sector (ITU-T) H.264 standard in the first encoding path. 제13항에 있어서,The method of claim 13, 상기 제1 인코딩 경로에서 상기 비디오 신호 데이터에 대응하는 예측 화상을 형성하는 단계(315)와,Forming a predictive picture corresponding to the video signal data in the first encoding path (315); 상기 제1 인코딩 경로에서 상기 예측 화상을 저장하는 단계(320)와,Storing (320) the prediction picture in the first encoding path; 16×16 사인 제곱 윈도를 이용해서 상기 예측 화상에 대해 중첩 블록 움직임 보상(OBMC)을 수행하여, 상기 제2 인코딩 경로에서 상기 예측 화상을 스무스하게 하는 단계(330)Performing overlapping block motion compensation (OBMC) on the prediction picture using a 16 × 16 sine squared window to smooth the prediction picture in the second encoding path (330) 를 더 포함하는 방법.How to include more. 제13항에 있어서,The method of claim 13, 상기 제1 인코딩 경로에서 상기 비디오 신호 데이터에 대응하는 예측 화상을 형성하는 단계(315)와,Forming a predictive picture corresponding to the video signal data in the first encoding path (315); 상기 제1 인코딩 경로에서 상기 예측 화상을 저장하는 단계(320)와,Storing (320) the prediction picture in the first encoding path; 상기 제2 인코딩 경로에서 상기 예측 화상의 8×8 및 그보다 큰 파티션에 대해서만 중첩 블록 움직임 보상(OBMC)을 수행하는 단계(330)Performing overlap block motion compensation (OBMC) only on 8x8 and larger partitions of the predictive picture in the second encoding path (330) 를 더 포함하는 방법.How to include more. 제13항에 있어서,The method of claim 13, 상기 제1 인코딩 경로에서 상기 비디오 신호 데이터에 대응하는 예측 화상을 형성하는 단계(315)와,Forming a predictive picture corresponding to the video signal data in the first encoding path (315); 상기 제1 인코딩 경로에서 상기 예측 화상을 저장하는 단계(320)와,Storing (320) the prediction picture in the first encoding path; 상기 제2 인코딩 경로에서 상기 예측 화상의 4×4 파티션에 대해 8×8 사인 제곱 윈도를 이용해서 중첩 블록 움직임 보상(OBMC)을 수행하는 단계(330)를 더 포함하고,Performing an overlapping block motion compensation (OBMC) on a 4x4 partition of the predictive picture using an 8x8 sine square window in the second encoding path (330), 상기 예측 화상의 모든 파티션은 상기 제2 인코딩 경로에서 OBMC가 수행될 때 4×4 파티션으로 분할되는 방법.All partitions of the predictive picture are divided into 4x4 partitions when OBMC is performed in the second encoding path. 제13항에 있어서,The method of claim 13, 상기 제1 인코딩 경로에서 상기 비디오 신호 데이터에 대응하는 예측 화상을 형성하는 단계(315)와,Forming a predictive picture corresponding to the video signal data in the first encoding path (315); 상기 제1 인코딩 경로에서 상기 예측 화상을 저장하는 단계(320)와,Storing (320) the prediction picture in the first encoding path; 상기 제2 인코딩 경로에서 상기 예측 화상의 모든 파티션에 대해 적응적 중첩 블록 움직임 보상(OBMC)을 수행하는 단계(330)Performing adaptive overlap block motion compensation (OBMC) on all partitions of the prediction picture in the second encoding path (330) 를 더 포함하는 방법.How to include more. 제13항에 있어서,The method of claim 13, 상기 제1 인코딩 경로에서 상기 비디오 신호 데이터에 대응하는 예측 화상을 형성하는 단계(315)와,Forming a predictive picture corresponding to the video signal data in the first encoding path (315); 상기 제1 인코딩 경로에서 상기 예측 화상을 저장하는 단계(320)와,Storing (320) the prediction picture in the first encoding path; 상기 제2 인코딩 경로에서 상기 예측 화상에 대해 디블로킹 동작을 수행하는 단계(330)Performing a deblocking operation on the prediction picture in the second encoding path (330) 를 더 포함하는 방법.How to include more. 제13항에 있어서,The method of claim 13, 상기 분해 단계(340)는 듀얼 트리 웨이블렛 변환을 수행하여 상기 움직임 잔여를 분해하는 방법.The decomposing step (340) decomposes the residual motion by performing a dual tree wavelet transform. 제20항에 있어서,The method of claim 20, 상기 분해 단계(340)는 노이즈 정형을 이용해서 상기 듀얼 트리 웨이블렛 변환의 계수를 선택하는 방법.The decomposing step (340) selects coefficients of the dual tree wavelet transform using noise shaping. 제13항에 있어서,The method of claim 13, 상기 분해 단계(340)는 파라메트릭 오버컴플릿 2-D 사전을 적용하여 상기 제2 인코딩 경로에서 상기 움직임 잔여를 분해하는 방법.The decomposing step (340) applies a parametric overcomplete 2-D dictionary to decompose the motion residual in the second encoding path. 비디오 비트스트림을 디코딩하기 위한 비디오 디코더로서,A video decoder for decoding a video bitstream, 상기 비디오 비트스트림을 디코딩하여 분해된 비디오 비트스트림을 얻는 엔트로피 디코더(210)와,An entropy decoder 210 for decoding the video bitstream to obtain a decomposed video bitstream; 상기 엔트로피 디코더와 신호 통신하고, 상기 분해된 비트스트림에 대응하는 분해된 원자(atom)를 디코딩하여 디코딩된 원자를 얻는 원자 디코더(220)와,An atomic decoder (220) in signal communication with the entropy decoder and obtaining a decoded atom by decoding a decomposed atom corresponding to the decomposed bitstream; 상기 원자 디코더와 신호 통신하고, 상기 디코딩된 원자에 역변환을 적용하여 재생된 잔여 화상을 형성하는 역변환기(230)와,An inverse transformer 230 in signal communication with the atomic decoder and applying an inverse transform to the decoded atoms to form a reproduced residual image; 상기 엔트로피 디코더와 신호 통신하고, 상기 분해된 비트스트림에 대응하는 움직임 벡터를 이용해서 움직임 보상을 수행하여 재생된 예측 화상을 형성하는 움직임 보상기(250)와,A motion compensator 250 in signal communication with the entropy decoder and performing motion compensation using a motion vector corresponding to the decomposed bitstream to form a reproduced prediction image; 상기 움직임 보상기와 신호 통신하고, 상기 재생된 예측 화상에 디블로킹 필터링을 수행하여 상기 재생된 예측 화상을 스무스하게 하는 디블로킹 필터(260)와,A deblocking filter 260 in signal communication with the motion compensator and performing deblocking filtering on the reproduced predictive picture to smooth the reproduced predictive picture; 상기 역변환기 및 상기 중첩 블록 움직임 보상기와 신호 통신하고, 상기 재생된 예측 화상과 상기 잔여 화상을 합성하여 재생된 화상을 얻는 합성기(270)A synthesizer 270 that is in signal communication with the inverse transformer and the overlapping block motion compensator, and synthesizes the reproduced prediction picture and the residual picture to obtain a reproduced picture. 를 포함하는 비디오 디코더.Video decoder comprising a. 비디오 비트스트림을 디코딩하기 위한 방법으로서,A method for decoding a video bitstream, 상기 비디오 비트스트림을 디코딩하여 분해된 비디오 비트스트림을 얻는 단계(405)와,Decoding the video bitstream to obtain a decomposed video bitstream (405); 상기 분해된 비트스트림에 대응하는 분해된 원자를 디코딩하여 디코딩된 원자를 얻는 단계(415)와,Decoding a decomposed atom corresponding to the decomposed bitstream to obtain a decoded atom (415); 상기 디코딩된 원자에 역변환을 적용하여 재생된 잔여 화상을 형성하는 단계(420)와,Applying an inverse transform to the decoded atoms to form a reproduced residual image (420); 상기 분해된 비트스트림에 대응하는 움직임 벡터를 이용해서 움직임 보상을 수행하여 재생된 예측 화상을 형성하는 단계(425)와,Performing motion compensation using a motion vector corresponding to the decomposed bitstream to form a reproduced prediction image (425); 상기 재생된 예측 화상에 디블로킹 필터링을 수행하여 상기 재생된 예측 화상을 스무스하게 하는 단계(425)와,Performing deblocking filtering on the reproduced prediction picture to smooth the reproduced prediction picture (425); 상기 재생된 예측 화상과 상기 잔여 화상을 합성하여 재생된 화상을 얻는 단계(430)Synthesizing the reproduced prediction picture and the residual picture to obtain a reproduced picture (430) 를 포함하는 방법.How to include.
KR1020097005789A 2006-09-22 2007-02-15 Method and apparatus for multiple pass video coding and decoding KR20090073112A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
WOPCT/US2006/037139 2006-09-22
US2006037139 2006-09-22

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020147008589A Division KR20140059270A (en) 2006-09-22 2007-02-15 Method and apparatus for multiple pass video coding and decoding

Publications (1)

Publication Number Publication Date
KR20090073112A true KR20090073112A (en) 2009-07-02

Family

ID=38521211

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020157009755A KR20150047639A (en) 2006-09-22 2007-02-15 Method and apparatus for multiple pass video coding and decoding
KR1020097005789A KR20090073112A (en) 2006-09-22 2007-02-15 Method and apparatus for multiple pass video coding and decoding

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020157009755A KR20150047639A (en) 2006-09-22 2007-02-15 Method and apparatus for multiple pass video coding and decoding

Country Status (6)

Country Link
EP (1) EP2070334A1 (en)
JP (2) JP5529537B2 (en)
KR (2) KR20150047639A (en)
CN (2) CN102833544A (en)
BR (1) BRPI0716540A2 (en)
WO (1) WO2008036112A1 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10194175B2 (en) * 2007-02-23 2019-01-29 Xylon Llc Video coding with embedded motion
EP2534840A1 (en) * 2010-02-11 2012-12-19 Thomson Licensing Method for coding and for reconstruction of a block of an image sequence
WO2013077650A1 (en) * 2011-11-23 2013-05-30 한국전자통신연구원 Method and apparatus for decoding multi-view video
JP6055555B2 (en) 2012-11-13 2016-12-27 インテル コーポレイション Video codec architecture for next generation video
US10582213B2 (en) 2013-10-14 2020-03-03 Microsoft Technology Licensing, Llc Features of intra block copy prediction mode for video and image coding and decoding
WO2015054813A1 (en) 2013-10-14 2015-04-23 Microsoft Technology Licensing, Llc Encoder-side options for intra block copy prediction mode for video and image coding
US10506254B2 (en) 2013-10-14 2019-12-10 Microsoft Technology Licensing, Llc Features of base color index map mode for video and image coding and decoding
US10390034B2 (en) 2014-01-03 2019-08-20 Microsoft Technology Licensing, Llc Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area
EP4096221A1 (en) 2014-01-03 2022-11-30 Microsoft Technology Licensing, LLC Block vector prediction in video and image coding/decoding
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
US10542274B2 (en) 2014-02-21 2020-01-21 Microsoft Technology Licensing, Llc Dictionary encoding and decoding of screen content
KR102413529B1 (en) 2014-06-19 2022-06-24 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Unified intra block copy and inter prediction modes
WO2016049839A1 (en) 2014-09-30 2016-04-07 Microsoft Technology Licensing, Llc Rules for intra-picture prediction modes when wavefront parallel processing is enabled
CN106664405B (en) 2015-06-09 2020-06-09 微软技术许可有限责任公司 Robust encoding/decoding of escape-coded pixels with palette mode
US10986349B2 (en) 2017-12-29 2021-04-20 Microsoft Technology Licensing, Llc Constraints on locations of reference blocks for intra block copy prediction

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5699121A (en) * 1995-09-21 1997-12-16 Regents Of The University Of California Method and apparatus for compression of low bit rate video signals
JP2002315004A (en) * 2001-04-09 2002-10-25 Ntt Docomo Inc Image-encoding method and device, image-decoding method and device, and image processing system
BRPI0408835A (en) * 2003-03-28 2006-04-04 Digital Accelerator Corp supercomplete transform transform-based motion residual frame coding method and apparatus for video compression
US7653133B2 (en) * 2003-06-10 2010-01-26 Rensselaer Polytechnic Institute (Rpi) Overlapped block motion compression for variable size blocks in the context of MCTF scalable video coders
WO2005002234A1 (en) * 2003-06-30 2005-01-06 Koninklijke Philips Electronics, N.V. Video coding in an overcomplete wavelet domain
CN100469142C (en) * 2003-08-05 2009-03-11 Nxp股份有限公司 Video encoding and decoding methods and corresponding devices
KR20060071394A (en) * 2003-08-12 2006-06-26 코닌클리케 필립스 일렉트로닉스 엔.브이. Video encoding and decoding method and corresponding devices
JP4191729B2 (en) * 2005-01-04 2008-12-03 三星電子株式会社 Deblock filtering method considering intra BL mode and multi-layer video encoder / decoder using the method
KR100703744B1 (en) * 2005-01-19 2007-04-05 삼성전자주식회사 Method and apparatus for fine-granularity scalability video encoding and decoding which enable deblock controlling

Also Published As

Publication number Publication date
KR20150047639A (en) 2015-05-04
EP2070334A1 (en) 2009-06-17
CN102833544A (en) 2012-12-19
JP5529537B2 (en) 2014-06-25
JP2010504689A (en) 2010-02-12
JP5639619B2 (en) 2014-12-10
CN101518085A (en) 2009-08-26
BRPI0716540A2 (en) 2012-12-25
WO2008036112A1 (en) 2008-03-27
JP2012235520A (en) 2012-11-29

Similar Documents

Publication Publication Date Title
KR20090073112A (en) Method and apparatus for multiple pass video coding and decoding
US9749653B2 (en) Motion vector encoding/decoding method and device and image encoding/decoding method and device using same
CN108028931B (en) Method and apparatus for adaptive inter-frame prediction for video coding and decoding
US7120197B2 (en) Motion compensation loop with filtering
AU2020294315B2 (en) Method and apparatus for motion compensation prediction
US9571851B2 (en) Inter prediction method and apparatus using adjacent pixels, and image encoding/decoding method and apparatus using same
JP5908848B2 (en) Method and apparatus for performing constrained transforms for video encoding and decoding with transform selection
KR20110017302A (en) Method and apparatus for encoding/decoding image by using motion vector accuracy control
US11375191B2 (en) Method and apparatus for adaptive transform in video encoding and decoding
JP2007501555A (en) Video encoding and decoding method and corresponding apparatus
US20100040146A1 (en) Method and apparatus for multiple pass video coding and decoding
CN109565592B (en) Video coding device and method using partition-based video coding block partitioning
KR100859073B1 (en) Motion estimation method
KR20140059270A (en) Method and apparatus for multiple pass video coding and decoding
KR20140129421A (en) Method for intra-prediction, and apparatus thereof
Shen et al. Benefits of adaptive motion accuracy in H. 26L video coding
KR20220136163A (en) Video Coding Method and Apparatus Using Deep Learning Based In-loop Filter for Inter Prediction
KR20110042602A (en) Video coding method and apparatus by using filtering motion compensation frame
Hong et al. An adaptive LS-Based motion prediction algorithm for video coding
KR20140129424A (en) Method for intra-prediction, and apparatus thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
A107 Divisional application of patent
E601 Decision to refuse application