KR20090073112A - Method and apparatus for multiple pass video coding and decoding - Google Patents
Method and apparatus for multiple pass video coding and decoding Download PDFInfo
- Publication number
- KR20090073112A KR20090073112A KR1020097005789A KR20097005789A KR20090073112A KR 20090073112 A KR20090073112 A KR 20090073112A KR 1020097005789 A KR1020097005789 A KR 1020097005789A KR 20097005789 A KR20097005789 A KR 20097005789A KR 20090073112 A KR20090073112 A KR 20090073112A
- Authority
- KR
- South Korea
- Prior art keywords
- encoding path
- encoding
- video
- picture
- motion
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/583—Motion compensation with overlapping blocks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/30—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/42—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
- H04N19/43—Hardware specially adapted for motion estimation or compensation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/61—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/60—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
- H04N19/63—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
- H04N19/635—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by filter definition or implementation details
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/90—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
- H04N19/97—Matching pursuit coding
Abstract
Description
본 출원은, 본 명세서에 전체가 참고용으로 병합된, 2006년 9월 22일에 출원된 "다중 경로 비디오 코딩 및 디코딩을 위한 방법 및 장치"라는 명칭의 PCT 국제 출원 번호 PCT/US2006/037139호의 우선권을 주장한다.This application is directed to PCT International Application No. PCT / US2006 / 037139, entitled “Methods and Apparatus for Multi-Path Video Coding and Decoding,” filed September 22, 2006, which is hereby incorporated by reference in its entirety. Insist on priority.
본 발명은 일반적으로 비디오 인코딩 및 디코딩에 관한 것이고, 특히 다중 경로 비디오 인코딩 및 디코딩을 위한 방법 및 장치에 관한 것이다.The present invention relates generally to video encoding and decoding, and in particular, to a method and apparatus for multipath video encoding and decoding.
국제 표준화 기구/국제 전기 표준 회의(ISO/IEC: International Organization for Standardization/International Electrotechnical Commission) MPEG-4(Moving Picture Experts Group-4) 파트 10 어드밴스드 비디오 코딩(AVC: Advanced Video Coding) 표준/국제 전기통신 연합, 전기통신 섹터(ITU-T: International Telecommunication Union, Telecommunication Sector) H.264 표준(이후, "MPEG4/H.264 표준" 또는 간단히 "H.264 표준")은 현재 가장 강력한 최신식 비디오 코딩 표준이다. 모든 다른 비디오 코딩 표준과 같이, H.264 표준은 블록 기반의 움직임 보상 및 이산 코사인 변환(DCT: Discrete Cosine Transform)형 변환 코딩을 이용한다. DCT가 비디오 코딩에 있어서 효율적이고, 방송 고선명 텔레비 전(HDTV: high definition television)과 같은 고성능의 애플리케이션에 적합하다는 것이 잘 공지되어 있다. 하지만, DCT 알고리즘은, 전용 비디오 셀 폰과 같은 매우 낮은 비트 레이트를 요구하는 애플리케이션에 대해서도 적합한 것은 아니다. 매우 낮은 비트 레이트에서, DCT 변환은, 디블로킹(deblocking) 필터를 이용하더라도, 블로킹 아티팩트(blocking artifact)들을 가져올 것이고, 이는 매우 낮은 비트 레이트에서 코딩될 수 있는 계수들이 거의 없으며, 각 계수가 매우 간격이 넓은 양자화 단계를 갖는 경향이 있기 때문이다.International Organization for Standardization / International Electrotechnical Commission (ISO / IEC) Moving Picture Experts Group-4 (MPEG-4) Part 10 Advanced Video Coding (AVC) Standard / International Telecommunications Union, Telecommunication Sector (ITU-T) H.264 standard (hereafter “MPEG4 / H.264 standard” or simply “H.264 standard”) is the most powerful and up-to-date video coding standard. . Like all other video coding standards, the H.264 standard uses block-based motion compensation and Discrete Cosine Transform (DCT) type transform coding. It is well known that DCT is efficient in video coding and suitable for high performance applications such as broadcast high definition television (HDTV). However, the DCT algorithm is not suitable for applications that require very low bit rates, such as dedicated video cell phones. At very low bit rates, the DCT transform will result in blocking artifacts, even when using a deblocking filter, with very few coefficients that can be coded at very low bit rates, with each coefficient being very spacing. This is because there is a tendency to have this wide quantization step.
매칭 추적(MP: Matching Pursuit)은, 임의의 신호를 함수들의 리던던트 사전(redundant dictionary)으로부터 선택된 파형들의 선형 확장으로 분해하는 그리디(greedy) 알고리즘이다. 이러한 파형들은 신호 구조를 최적으로 매치시키도록 선택된다.Matching Pursuit (MP) is a greedy algorithm that decomposes an arbitrary signal into a linear extension of selected waveforms from a redundant dictionary of functions. These waveforms are chosen to optimally match the signal structure.
1-D 신호 f(t)를 가지며, 오버컴플릿(over-complete) 사전 세트 G로부터 기저 벡터를 이용해서 이 신호를 분해하기를 원한다고 가정한다.Suppose we have a 1-D signal f (t) and want to decompose this signal using a basis vector from an over-complete preset G.
여기에서, γ는 특정 사전 요소와 관련된 인덱싱(indexing) 파라미터이다. 분해는 γ를 선택하여 내적의 절대값을 다음과 같이 최대화하는 것으로 시작된다:Here, γ is an indexing parameter associated with a particular dictionary element. Decomposition begins by choosing γ to maximize the absolute value of the dot product as follows:
그러면 잔여(residual) 신호가 다음과 같이 계산된다:The residual signal is then calculated as follows:
그리고나서, 이 잔여 신호는 원 신호와 동일한 방식으로 확장된다. 그 절차는, 확장 계수의 설정 넘버가 생성되거나, 그 잔여에 대한 소정 에너지 임계치가 도달될 때까지 반복적으로 계속된다. 각 단계 n은 사전 함수 γn를 생성한다. 전체 M 단계 후, 신호는 사전 요소들의 선형 함수에 의해 다음과 같이 근사화될 수 있다:This residual signal is then extended in the same way as the original signal. The procedure is repeated repeatedly until a set number of expansion factors is generated or a predetermined energy threshold for the remainder is reached. Each step n produces a dictionary function γ n . After the entire M step, the signal can be approximated by the linear function of the dictionary elements as follows:
n 샘플들의 신호의 MP 분해의 복잡도는 차수 kㆍNㆍdㆍnlog2n가 되는 것으로 입증된다. 여기에서 d는 변환을 고려하지 않으면서 사전의 사이즈에 따르고, N은 선택된 확장 계수의 수이고, 상수 k는 사전 함수를 선택하기 위한 전략에 따른다. 높은 오버컴플릿 사전이 주어지면, MP는, 그 복잡도가 o(nlog2n)으로서 정의되는, H.264 표준에서 사용되는 8×8 및 4×4 DCT 정수 변환보다 더 많이 계산을 요구한다.The complexity of MP decomposition of the signal of n samples is proved to be of order k.N.d.nlog 2 n. Where d depends on the size of the dictionary without considering the transformation, N is the number of expansion coefficients selected, and constant k follows the strategy for selecting the dictionary function. Given the high-over Complete Dictionary, MP is, its complexity requires more computation than the 8 × 8 and 4 × 4 DCT integer transform used in, H.264 standard, which is defined as o (nlog 2 n).
일반적으로, MP 알고리즘은 임의의 세트의 잔여 기저 형태들에 적합하다. 가버(Gabor) 함수의 오버컴플릿 기저를 이용해서 신호를 확장하는 것이 제안되었다. 2-D 가버 사전은 매우 리던던트하고, 각 형태는 코딩된 잔여 화상의 임의의 정수-화소 위치에 존재할 수 있다. MP가 훨씬 더 큰 사전 세트를 갖고, 각각의 코딩된 기저 함수가 잔여 신호의 구조에 잘 매칭되기 때문에, 프레임 기반의 가버 사전은 의사(artificial) 블록 구조를 갖지 않는다.In general, the MP algorithm is suitable for any set of residual basis forms. It is proposed to extend the signal using the overcomplete basis of the Gabor function. The 2-D Gabor dictionary is very redundant, and each form may be at any integer-pixel location of the coded residual picture. Since the MP has a much larger dictionary set, and each coded basis function is well matched to the structure of the residual signal, the frame-based Gabor dictionary does not have an artificial block structure.
가버 리던던트 사전 세트는, MP 알고리즘(이후, "종래 기술의 가버 기반의 MP 비디오 코딩 접근법"으로서 지칭됨)을 이용해서 제안된 비디오 코딩 시스템에 대해, MP에 기초한 매우 낮은 비트 레이트의 비디오 코딩에 대해 적응되어 왔다. 제안된 시스템은, 매우 낮은 비트 레이트의 화상 코딩에 대한 시뮬레이션 모델, 또는 간단히 "SIM3"로서 지칭되는 낮은 비트 레이트의 하이브리드 DCT 시스템의 프레임워크에 기초하고, 여기에서, DCT 잔여 코더는 MP 코더로 대체된다. 이 코더는 MP를 이용해서, 사전 분리가능 2-D 가버 함수들로 움직임 잔여 화상을 분해한다. 이 제안된 시스템은 낮은 비트 레이트의 로우(low) 움직임 시퀀스들에서 잘 동작하는 것으로 보여진다.The Gabor Redundant Dictionary Set uses a MP algorithm (hereinafter referred to as "a Gabor-based MP video coding approach of the prior art") for a very low bit rate video coding based on MP for a proposed video coding system. Has been adapted. The proposed system is based on a simulation model for very low bit rate picture coding, or a framework of a low bit rate hybrid DCT system, referred to simply as "SIM3", where the DCT residual coder is replaced with an MP coder. do. This coder uses MP to decompose the residual motion picture into pre-separable 2-D Gabor functions. This proposed system is shown to work well in low bit rate low motion sequences.
스무스(smooth) 16×16 사인 제곱(sine-square) 윈도는 종래 기술의 가버 기반의 MP 비디오 코딩 접근법의 8×8 파티션(partition)들에 대한 예측 화상에 적용되었다. 종래 기술의 가버 기반의 MP 비디오 코딩 접근법의 MP 비디오 코덱은 ITU-T H.263 코덱에 기초한다. 하지만, H.264 표준은, 루마(luma) 움직임 보상에 대해 4×4만큼 작을 수 있는 작은 블록 사이즈의 가변 블록-사이즈 움직임 보상을 가능하게 한다. 또한, H.264 표준은 기선(baseline) 및 메인 프로파일에 대해, 대 부분의 다른 현저한 종래의 비디오 코딩 표준들에서와 같은 8×8이 아닌, 4×4 DCT형 변환에 주로 기초한다. 인트라 코딩에 대한 방향성 공간 예측은 예측 신호의 품질을 향상시킨다. 이와 같은 모든 중요한 설계 특성들은 H.264 표준이 더욱 효과적이게 하지만, 이는 H.264 표준에 MP를 적용할 시에 보다 복잡한 상황들을 처리해야 하는 것을 요구한다. 스무스 16×16 사인 제곱 윈도는 다음과 같이 표현된다:A smooth 16x16 sine-squared window was applied to the predictive picture for 8x8 partitions of the Gabor-based MP video coding approach of the prior art. The MP video codec of the Gabor-based MP video coding approach of the prior art is based on the ITU-T H.263 codec. However, the H.264 standard enables small block size variable block-size motion compensation, which can be as small as 4 × 4 for luma motion compensation. In addition, the H.264 standard is based primarily on 4 × 4 DCT type transforms, rather than 8 × 8 as in most other significant conventional video coding standards, for baseline and main profiles. Directional spatial prediction for intra coding improves the quality of the prediction signal. All of these important design features make the H.264 standard more effective, but require more complex situations when applying MP to the H.264 standard. A smooth 16 × 16 sine squared window would look like this:
움직임 보상에 대해 H.264 표준에 의해 도입된 일부 특성들로부터 이익을 얻고 공간 도메인에서의 변환을 대체하는 하이브리드 코딩 기법(이후, "종래 기술의 하이브리드 코딩 기법")이 제안되었다. 예측 오류는 MP 알고리즘을 이용해서 코딩되고, 이 알고리즘은 적절하게 설계된 2차원의 이방성 리던던트 사전으로 신호를 분해한다. 또한, 고속 원자 검색 기술이 소개되었다. 하지만, 제안된 종래 기술의 하이브리드 코딩 기법은, 1-패스 또는 2-패스 기법을 이용하는지 여부를 기술하지 않는다. 또한, 제안된 종래 기술의 하이브리드 코딩 기법은, 움직임 보상부가 H.264 표준에 따른다고 개시하였지만, 임의의 디블로킹 필터가 코딩 기법에서 이용되었는지 여부, 또는 매우 낮은 비트 레이트에서 예측 화상에 의해 야기되는 블로 킹 아티팩트를 스무스하게 하도록 임의의 다른 방법들이 이용되었는지 여부를 기술하지 않는다.A hybrid coding technique (hereafter “hybrid coding technique of the prior art”) has been proposed that benefits from some features introduced by the H.264 standard for motion compensation and replaces the transform in the spatial domain. The prediction error is coded using the MP algorithm, which decomposes the signal into a properly designed two-dimensional anisotropic redundant dictionary. In addition, fast atom search techniques have been introduced. However, the proposed prior art hybrid coding technique does not describe whether to use the 1-pass or 2-pass technique. In addition, the proposed prior art hybrid coding scheme described that the motion compensation unit is in accordance with the H.264 standard, but any deblocking filter was used in the coding scheme, or caused by the predictive picture at a very low bit rate. It does not describe whether any other methods have been used to smooth the blocking artifacts.
종래 기술의 상기 및 기타 단점 및 결점은, 다중 경로 비디오 인코딩 및 디코딩을 위한 방법 및 장치에 관한 본 발명에 의해 해결된다.The above and other drawbacks and drawbacks of the prior art are solved by the present invention with respect to methods and apparatus for multipath video encoding and decoding.
본 발명의 일 양상에 따라서, 다중 경로 비디오 인코딩 기법을 이용해서 비디오 신호 데이터를 인코딩하는 비디오 인코더가 제공된다. 비디오 인코더는 움직임 추정기 및 분해 모듈을 포함한다. 움직임 추정기는 비디오 신호 데이터에 대해 움직임 추정을 수행하여, 제1 인코딩 경로에서 비디오 신호 데이터에 대응하는 움직임 잔여(residual)를 얻는다. 움직임 추정기와 신호 통신하는 분해 모듈은 후속하는 인코딩 경로에서 움직임 잔여를 분해한다.According to one aspect of the present invention, a video encoder is provided that encodes video signal data using a multipath video encoding technique. The video encoder includes a motion estimator and a decomposition module. The motion estimator performs motion estimation on the video signal data to obtain a motion residual corresponding to the video signal data in the first encoding path. A decomposition module in signal communication with the motion estimator decomposes the motion residuals in subsequent encoding paths.
본 발명의 다른 양상에 따라서, 다중 경로 비디오 인코딩 기법을 이용해서 비디오 신호 데이터를 인코딩하는 방법이 제공된다. 이 방법은, 비디오 신호 데이터에 대해 움직임 추정을 수행하여, 제1 인코딩 경로에서 비디오 신호 데이터에 대응하는 움직임 잔여를 얻는 단계, 및 후속하는 인코딩 경로에서 움직임 잔여를 분해하는 단계를 포함한다.According to another aspect of the present invention, a method of encoding video signal data using a multipath video encoding technique is provided. The method includes performing motion estimation on the video signal data to obtain a motion residual corresponding to the video signal data in the first encoding path, and decomposing the motion residual in the subsequent encoding path.
본 발명의 또 다른 양상에 따라서, 비디오 비트스트림을 디코딩하는 비디오 디코더가 제공된다. 비디오 디코더는, 엔트로피 디코더, 원자 디코더, 역변환기, 움직임 보상기, 디블로킹 필터, 및 합성기를 포함한다. 엔트로피 디코더는 비디오 비트스트림을 디코딩하여 분해된 비디오 비트스트림을 얻는다. 엔트로피 디코더와 신호 통신하는 원자 디코더는 분해된 비트스트림에 대응하는 분해된 원자를 디코딩하여 디코딩된 원자를 얻는다. 원자 디코더와 신호 통신하는 역변환기는 디코딩된 원자에 역변환을 적용하여 재생된 잔여 화상을 형성한다. 엔트로피 디코더와 신호 통신하는 움직임 보상기는 분해된 비트스트림에 대응하는 움직임 벡터를 이용해서 움직임 보상을 수행하여 재생된 예측 화상을 형성한다. 움직임 보상기와 신호 통신하는 디블로킹 필터는 재생된 예측 화상에 디블로킹 필터링을 수행하여 재생된 예측 화상을 스무스하게 한다. 역변환기 및 중첩 블록 움직임 보상기와 신호 통신하는 합성기는 재생된 예측 화상과 잔여 화상을 합성하여 재생된 화상을 얻는다.According to another aspect of the invention, a video decoder is provided for decoding a video bitstream. Video decoders include entropy decoders, atomic decoders, inverse transformers, motion compensators, deblocking filters, and synthesizers. The entropy decoder decodes the video bitstream to obtain a decomposed video bitstream. An atomic decoder in signal communication with the entropy decoder decodes the resolved atoms corresponding to the resolved bitstream to obtain decoded atoms. The inverse transformer in signal communication with the atomic decoder applies an inverse transform to the decoded atoms to form a reproduced residual image. A motion compensator in signal communication with the entropy decoder performs motion compensation using a motion vector corresponding to the decomposed bitstream to form a reproduced predicted picture. The deblocking filter in signal communication with the motion compensator performs deblocking filtering on the reproduced predictive image to smooth the reproduced predictive image. A synthesizer in signal communication with the inverse transformer and the overlapping block motion compensator synthesizes the reproduced prediction picture and the residual picture to obtain a reproduced picture.
본 발명의 또 다른 양상에 따라서, 비디오 비트스트림을 디코딩하는 방법이 제공된다. 이 방법은, 비디오 비트스트림을 디코딩하여 분해된 비디오 비트스트림을 얻는 단계, 분해된 비트스트림에 대응하는 분해된 원자를 디코딩하여 디코딩된 원자를 얻는 단계, 디코딩된 원자에 역변환을 적용하여 재생된 잔여 화상을 형성하는 단계, 분해된 비트스트림에 대응하는 움직임 벡터를 이용해서 움직임 보상을 수행하여 재생된 예측 화상을 형성하는 단계, 재생된 예측 화상에 디블로킹 필터링을 수행하여 재생된 예측 화상을 스무스하게 하는 단계, 및 재생된 예측 화상과 잔여 화상을 합성하여 재생된 화상을 얻는 단계를 포함한다.According to another aspect of the present invention, a method of decoding a video bitstream is provided. The method includes decoding a video bitstream to obtain a decomposed video bitstream, decoding a decomposed atom corresponding to the decomposed bitstream to obtain a decoded atom, and applying an inverse transform to the decoded atom to reproduce the residual. Forming an image, performing motion compensation using a motion vector corresponding to the decomposed bitstream, forming a reproduced prediction image, and performing deblocking filtering on the reproduced prediction image to smoothly reproduce the reproduced prediction image And synthesizing the reproduced predictive picture and the residual picture to obtain a reproduced picture.
본 발명의 상기 및 기타 양상, 특징 및 장점은, 첨부 도면과 관련하여 기술될 예시적 실시예들의 후술하는 상세한 설명으로부터 명백해질 것이다.These and other aspects, features, and advantages of the present invention will become apparent from the following detailed description of exemplary embodiments to be described in conjunction with the accompanying drawings.
본 발명은 후술하는 예시적 도면에 따라 더욱 잘 이해될 것이다.The invention will be better understood according to the exemplary drawings described below.
도 1a 및 1b는, 본 발명의 원리가 본 발명의 일 실시예에 따라 적용될 수 있는 2중 경로 H.264 표준 기반의 MP 인코더/디코더(CODEC)의 인코더의 예시적인 제1 및 제2 경로부에 대한 도면이다.1A and 1B illustrate exemplary first and second path portions of an encoder of an MP encoder / decoder (CODEC) based on a two-path H.264 standard, in which the principles of the present invention may be applied in accordance with one embodiment of the present invention. It is a drawing about.
도 2는, 본 발명의 원리가 본 발명의 일 실시예에 따라 적용될 수 있는 2중 경로 H.264 표준 기반의 MP 인코더/디코더(CODEC)의 예시적인 디코더에 대한 도면이다.FIG. 2 is a diagram of an exemplary decoder of a dual path H.264 standard based MP encoder / decoder (CODEC) in which the principles of the present invention may be applied in accordance with an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 입력 비디오 시퀀스를 인코딩하기 위한 예시적인 방법에 대한 도면이다.3 is a diagram of an exemplary method for encoding an input video sequence in accordance with an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 입력 비디오 시퀀스를 디코딩하기 위한 예시적인 방법에 대한 도면이다.4 is a diagram of an exemplary method for decoding an input video sequence in accordance with an embodiment of the present invention.
본 발명은, 다중 경로 비디오 인코딩 및 디코딩을 위한 방법 및 장치에 관한 것이다. 유익하게, 본 발명은, 매우 낮은 비트 레이트의 애플리케이션에서 예를 들어, H.264 표준에서 이용되는 DCT 변환에 의해 도입되는 블로킹 아티팩트를 정정한다. 또한, 본 발명이 낮은 비트 레이트의 애플리케이션만으로 제한되는 것은 아니며, 본 발명의 범위를 유지하면서 다른 (더 높은) 비트 레이트에도 이용될 수 있다는 것이 이해될 것이다.The present invention relates to a method and apparatus for multipath video encoding and decoding. Advantageously, the present invention corrects the blocking artifacts introduced by the DCT transform used in, for example, the H.264 standard in very low bit rate applications. It will also be appreciated that the present invention is not limited to low bit rate applications, but may be used for other (higher) bit rates while maintaining the scope of the present invention.
본 설명은 본 발명의 원리를 기술한다. 따라서, 당업자는, 본 명세서에서 명확하게 기술 또는 도시되지 않더라도, 본 발명의 원리를 구체화하고 그 사상 및 범위 내에 포함되는 다양한 구성을 고안해낼 수 있을 것이다.This description describes the principles of the invention. Therefore, those skilled in the art will be able to devise various configurations that embody the principles of the present invention and fall within the spirit and scope, even if not explicitly described or illustrated herein.
본 명세서에서 언급된 모든 예 및 조건부 언어는, 발명자에 의해 제공되는 본 발명의 원리 및 개념에 대한 독자들의 이해를 도와 그 기술을 증진시키는 교육학적 목적을 위한 것으로서, 그러한 특정하게 언급된 예들 및 조건들로 제한되지는 않는 것으로 해석되어야 한다.All examples and conditional languages mentioned herein are for pedagogical purposes that aid the reader in understanding the principles and concepts of the present invention as provided by the inventors and to enhance their skills, and such specifically mentioned examples and conditions. It should not be construed as limited to these.
또한, 본 발명의 특정 예뿐만 아니라, 본 발명의 원리, 양상 및 실시예들을 인용하는 본 명세서의 모든 설명은 그 구조적 및 기능적 등가물들을 모두 포함하는 것으로 의도된다. 또한, 이러한 등가물들은 현재 공지된 등가물뿐만 아니라 미래에 개발될 등가물, 즉, 구조에 관계없이 동일한 기능을 행하도록 개발된 임의의 구성 요소들을 모두 포함하는 것으로 의도된다.Moreover, not only the specific examples of the present invention, but all descriptions citing the principles, aspects, and embodiments of the present invention are intended to include both structural and functional equivalents thereof. In addition, these equivalents are intended to include not only equivalents now known, but also equivalents to be developed in the future, that is, any components developed to perform the same function regardless of structure.
따라서, 예를 들어, 당업자는, 본 명세서에서 제시된 블록도들이 본 발명을 구현하는 예시적인 회로의 개념도를 나타내는 것임을 이해할 것이다. 마찬가지로, 임의의 플로차트, 순서도, 상태 전이도, 의사코드 등이, 컴퓨터 또는 프로세서가 명확하게 도시되는지 여부에 관계없이, 실질적으로 컴퓨터 판독가능 매체로 표현되어 컴퓨터 또는 프로세서에 의해 실행될 수 있는 다양한 프로세스를 나타낸다는 것을 이해할 것이다.Thus, for example, those skilled in the art will understand that the block diagrams presented herein represent conceptual diagrams of exemplary circuits implementing the present invention. Likewise, any flowchart, flowchart, state transition diagram, pseudocode, or the like may represent various processes that can be represented by a computer-readable medium and executed by a computer or processor, regardless of whether the computer or processor is clearly shown. Will be understood.
도면에 도시된 다양한 구성 요소들의 기능은, 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 결합되어 소프트웨어를 실행시킬 수 있는 하드웨어의 사용을 통해 제공될 수 있다. 프로세서에 의해 제공될 때, 기능들은 단일의 전용 프로세서, 단일의 공유 프로세서, 또는 일부가 공유될 수도 있는 복수의 개별 프로세서에 의해 제공될 수 있다. 또한, "프로세서" 또는 "컨트롤러"라는 용어의 명시적인 이용 은 소프트웨어를 실행할 수 있는 하드웨어를 배타적으로 지칭하는 것으로 해석되어서는 안 되며, 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 ROM(read only memory), RAM(random access memory), 및 비휘발성 저장 장치를 제한 없이 함축적으로 포함할 수 있다.The functionality of the various components shown in the figures may be provided through the use of dedicated hardware as well as hardware capable of executing software in combination with appropriate software. When provided by a processor, the functions may be provided by a single dedicated processor, by a single shared processor, or by a plurality of individual processors, some of which may be shared. In addition, the explicit use of the term "processor" or "controller" should not be interpreted exclusively to refer to hardware capable of executing software, and is not limited to digital signal processor (DSP) hardware, ROM (read to store software). only memory (RAM), random access memory (RAM), and non-volatile storage devices may be implicitly included.
다른 하드웨어, 관용 및/또는 주문도 포함될 수 있다. 마찬가지로, 도면에 도시된 임의의 스위치들은 단지 개념적인 것이다. 이들의 기능은, 프로그램 로직의 동작을 통해서, 전용 로직을 통해서, 프로그램 제어 및 전용 로직의 상호작용을 통해서, 또는 수동으로도 수행될 수 있으며, 특정 기술은 컨텍스트로부터 보다 명확하게 이해되는 바와 같이 구현자에 의해 선택가능하다.Other hardware, tolerances and / or orders may also be included. Likewise, any switches shown in the figures are merely conceptual. Their functions may be performed through the operation of program logic, through dedicated logic, through program control and interaction of dedicated logic, or manually, and certain techniques are implemented as will be more clearly understood from the context. It is selectable by ruler.
본 명세서의 청구항에서, 특정 기능을 수행하기 위한 수단으로서 표시되는 임의의 구성 요소는, 예를 들어, a) 그 기능을 수행하는 회로 소자의 조합 또는 b) 소프트웨어가 그 기능을 수행하도록 하는 적절한 회로와 결합된, 펌웨어, 마이크로코드 등을 포함하는 임의의 형태의 소프트웨어를 포함하는, 그 기능을 수행하는 임의의 수단을 포괄하는 것으로 의도된다. 이러한 청구항에 의해 정의되는 바와 같은 본 발명은, 다양한 인용된 수단에 의해 제공되는 기능성들이 청구항이 청구하는 식으로 함께 결합되어 얻어진다는 사실에 근거한다. 따라서, 이러한 기능성들을 제공할 수 있는 임의의 수단은 본 명세서에 도시된 것과 동일한 것으로 간주된다.In the claims of this specification, any component indicated as a means for performing a particular function is, for example, a) a combination of circuit elements that perform the function or b) a suitable circuit for causing the software to perform that function. It is intended to cover any means for carrying out its functions, including any form of software, including firmware, microcode, etc., in conjunction with. The invention as defined by these claims is based on the fact that the functionality provided by the various recited means is obtained by combining together in a manner claimed by the claims. Thus, any means capable of providing these functionalities is considered to be the same as shown herein.
본 발명의 원리에 따라서, 다중 경로 비디오 인코딩 및 디코딩 기법이 제공된다. 다중 경로 비디오 인코딩 및 디코딩 기법에는 매칭 추적(MP)이 사용될 수 있다. 예시적 실시예에서, 2중 경로 H.264 기반의 코딩 기법이 MP 비디오 코딩에 대해 개시된다.In accordance with the principles of the present invention, a multipath video encoding and decoding technique is provided. Matching tracking (MP) may be used for the multipath video encoding and decoding techniques. In an exemplary embodiment, a two path H.264 based coding technique is disclosed for MP video coding.
H.264 표준은, 다른 비디오 압축 표준과 유사하게 블록 기반의 움직임 보상 및 DCT형 변환을 적용한다. 매우 낮은 비트 레이트에서, DCT 변환은, 디블로킹 필터를 이용하더라도, 블로킹 아티팩트들을 가져올 것이고, 이는 매우 낮은 비트 레이트에서 코딩될 수 있는 계수들이 거의 없으며, 각 계수가 매우 간격이 넓은 양자화 단계를 갖는 경향이 있기 때문이다. 본 발명의 원리에 따라서, 오버컴플릿 기저를 사용하는 MP가 잔여 화상을 코딩하도록 적용된다. 움직임 보상 및 모드 결정부는 H.264 표준에 따른다. 중첩 블록 움직임 보상(OBMC: Overlapped block motion compensation)은 예측 화상을 스무스하게 하는 데 적용된다. 또한, 새로운 접근법이 MP 외의 기저를 선택하기 위해 제공된다.The H.264 standard applies block-based motion compensation and DCT type transformation similarly to other video compression standards. At very low bit rates, the DCT transform will result in blocking artifacts, even with a deblocking filter, which has few coefficients that can be coded at very low bit rates, and each coefficient tends to have a very spaced quantization step. Because of this. In accordance with the principles of the present invention, an MP using an overcomplete basis is applied to code the residual picture. The motion compensation and mode determiner follows the H.264 standard. Overlapped block motion compensation (OBMC) is applied to smooth the predicted picture. In addition, a new approach is provided to select a base other than MP.
본 발명의 원리에 따라서, 비디오 인코더 및/또는 디코더는 예측 화상에 OBMC를 적용하여, 예측 모델에 의해 야기되는 블로킹 아티팩트를 감소시킨다. MP 알고리즘은 잔여 화상을 코딩하는 데 이용된다. MP의 장점은, 블록 기반이 아니고 프레임 기반이어서, 코딩 잔여 차에 의해 야기되는 블로킹 아티팩트가 없다는 점이다.In accordance with the principles of the present invention, the video encoder and / or decoder applies OBMC to the predictive picture, thereby reducing the blocking artifacts caused by the predictive model. The MP algorithm is used to code the residual picture. The advantage of MP is that it is not block based but frame based, so there are no blocking artifacts caused by the coding residual difference.
도 1a 및 1b를 참조하면, 2중 경로 H.264 표준 기반의 MP 인코더/디코더(CODEC)의 인코더의 예시적인 제1 및 제2 경로부가 일반적으로 참조 번호 110 및 160으로 표시된다. 인코더는 일반적으로 참조 번호 190으로 표시되고, 디코더부는 일반적으로 참조 번호 191로 표시된다.1A and 1B, exemplary first and second path portions of an encoder of a dual path H.264 standard based MP encoder / decoder (CODEC) are indicated generally by
도 1a를 참조하면, 제1 경로부(110)의 입력은 합성기(112)의 비반전 입력, 인코더 제어 모듈(114)의 입력, 및 움직임 추정기(116)의 제1 입력과 신호 통신으로 접속된다. 합성기(112)의 제1 출력은 버퍼(118)의 제1 입력과 신호 통신으로 접속된다. 합성기(112)의 제2 출력은 정수 변환/크기 조정(scaling)/양자화 모듈(120)의 입력과 신호 통신으로 접속된다. 정수 변환/크기 조정/양자화 모듈(120)의 출력은 크기 조정/역변환 모듈(122)의 제1 입력과 신호 통신으로 접속된다.1A, the input of the
인코더 제어 모듈(114)의 제1 출력은 인트라 프레임 예측기(126)의 제1 입력과 신호 통신으로 접속된다. 인코더 제어 모듈(114)의 제2 출력은 움직임 보상기(124)의 제1 입력과 신호 통신으로 접속된다. 인코더 제어 모듈(114)의 제3 출력은 움직임 추정기(116)의 제2 입력과 신호 통신으로 접속된다. 인코더 제어 모듈(114)의 제4 출력은 크기 조정/역변환 모듈(122)의 제2 입력과 신호 통신으로 접속된다. 인코더 제어 모듈(114)의 제5 출력은 버퍼(118)의 제1 입력과 신호 통신으로 접속된다.A first output of the
움직임 추정기(116)의 출력은 움직임 보상기(124)의 제2 입력 및 버퍼(128)의 제2 입력과 신호 통신으로 접속된다. 합성기(112)의 반전 입력은 움직임 보상기(124)의 출력 또는 인트라 프레임 예측기(126)의 출력과 신호 통신으로 선택적으로 접속된다. 움직임 보상기(124) 또는 인트라 프레임 예측기(126) 중 선택된 하나의 출력은 합성기(128)의 제1 입력과 신호 통신으로 접속된다. 크기 조정/역변환 모듈(122)의 출력은 합성기(128)의 제2 입력과 신호 통신으로 접속된다. 합성기(128)의 출력은 인트라 프레임 예측기(126)의 제2 입력, 움직임 추정기(116)의 제3 입력, 및 움직임 보상기(124)의 입/출력과 신호 통신으로 접속된다. 버퍼(118)의 출력은 제1 경로부(110)의 출력으로서 이용가능하다.An output of the
제1 경로부(110)에 있어서, 인코더 제어 모듈(114), 정수 변환/크기 조정/양자화 모듈(120), 버퍼(118), 및 움직임 추정기(116)는 인코더(190)에 포함된다. 또한, 제1 경로부에 있어서, 크기 조정/역변환 모듈(122), 인트라 프레임 예측기(126), 및 움직임 보상기(124)는 디코더부(191)에 포함된다.In the
제1 경로부(110)의 입력은 입력 비디오(111)를 수신하고, 제2 경로부(160)에서 이용하기 위한 제어 데이터(예를 들어, 움직임 벡터, 모드 선택, 예측 화상, 등)를 버퍼(118)에 저장한다.An input of the
도 1b를 참조하면, 제2 경로부(160)의 제1 입력은 엔트로피 코더(166)의 입력과 신호 통신으로 접속된다. 이 제1 입력은, 제1 경로부(110)로부터 제어 데이터(162)(예를 들어, 모드 선택, 등) 및 움직임 벡터(164)를 수신한다. 제2 경로부(160)의 제2 입력은 합성기(168)의 비반전 입력과 신호 통신으로 접속된다. 제2 경로부(160)의 제3 입력은 중첩 블록 움직임 보상(OBMC)/디블로킹 모듈(170)의 입력과 신호 통신으로 접속된다. 제2 경로부(160)의 제2 입력은 입력 비디오(111)를 수신하고, 제2 경로부의 제3 입력은 제1 경로부(110)로부터 예측 화상(187)을 수신한다.Referring to FIG. 1B, the first input of the
잔여(172)를 제공하는 합성기(168)의 출력은 원자 파인더(atom finder)(174)의 입력과 신호 통신으로 접속된다. 코딩된 잔여(178)를 제공하는 원자 파인더(174)의 출력은 원자 코더(176)의 입력 및 합성기(180)의 제1 비반전 입력과 신 호 통신으로 접속된다. OBMC/디블로킹 모듈(170)의 출력은 합성기(168)의 반전 입력 및 합성기(180)의 제2 비반전 입력과 신호 통신으로 접속된다. 출력 비디오를 제공하는 합성기(180)의 출력은 기준 버퍼(182)의 입력과 신호 통신으로 접속된다. 원자 코더(176)의 출력은 엔트로피 코더(166)의 입력과 신호 통신으로 접속된다. 엔트로피 코더(166)의 출력은 제2 경로부(160)의 출력으로서 이용가능하고, 출력 비트스트림을 제공한다.An output of
제2 경로부(160)에 있어서, 엔트로피 코더는 인코더(190)에 포함되고, 합성기(168), OBMC 모듈(170), 원자 파인더(174), 원자 코더(176), 및 기준 버퍼(182)는 디코더부(191)에 포함된다.In the
도 2를 참조하면, 2중 경로 H.264 표준 기반의 MP 인코더/디코더(CODEC)의 예시적인 디코더가 일반적으로 참조 번호 200으로 표시된다.With reference to FIG. 2, an exemplary decoder of a dual path H.264 standard based MP encoder / decoder (CODEC) is indicated generally by the
디코더(200)의 입력은 엔트로피 디코더(210)의 입력과 신호 통신으로 접속된다. 엔트로피 디코더의 출력은 원자 디코더(220)의 입력 및 움직임 보상기(250)의 입력과 신호 통신으로 접속된다. 잔여를 제공하는 역변환 모듈(230)의 출력은 합성기(270)의 제1 비반전 입력과 신호 통신으로 접속된다. 움직임 보상기(250)의 출력은 OBMC/디블로킹 모듈(260)의 입력과 신호 통신으로 접속된다. OBMC/디블로킹 모듈(260)의 출력은 합성기(270)의 제2 비반전 입력과 신호 통신으로 접속된다. 합성기의 출력은 디코더(200)의 출력으로서 이용가능하다.An input of the
H.263 코덱에 기초한 종래 기술의 가버 기반의 MP 비디오 코딩 접근법의 MP 비디오 코덱과 다르게, 본 발명은 ITU-T H.264/AVC 코딩 시스템에 적용가능하다. 프레임 기반의 잔여 코딩으로 인해, OBMC를 예측 화상에 적용하고, 이는 H.264/AVC 코덱에서는 구현되지 않는다.Unlike the MP video codec of the Gabor based MP video coding approach of the prior art based on the H.263 codec, the present invention is applicable to the ITU-T H.264 / AVC coding system. Due to the frame-based residual coding, OBMC is applied to the predictive picture, which is not implemented in the H.264 / AVC codec.
본 발명에 따른 일 실시예에서, 비디오 인코딩 기법의 제1 경로는 H.264 표준에 따른다. 제1 경로에서 실제 코딩은 없다. 예를 들어, 모드 선택, 예측 화상 및 움직임 벡터와 같은 모든 제어 데이터가 제2 경로를 위해 버퍼에 저장된다. DCT 변환은 레이트 왜곡 최적화(RDO: Rate Distortion Optimization)를 이용하는 모드 선택 및 움직임 보상에 대해 제1 경로에서 여전히 적용된다. DCT 계수를 이용하여 잔여 화상을 코딩하는 대신, 모든 잔여 화상이 제2 경로를 위해 저장된다. 본 발명의 일 실시예에서, 16×16 제한 인트라 코딩 또는 H.264 표준 호환 제한 인트라 코딩을 적용하고, 특히 인트라 코딩된 매크로블록과 인터 코딩된 매크로블록 간의 경계부를 처리하는 것이 제안되었다.In one embodiment according to the invention, the first path of the video encoding technique is in accordance with the H.264 standard. There is no actual coding in the first path. For example, all control data such as mode selection, predictive pictures and motion vectors are stored in the buffer for the second path. DCT conversion is still applied in the first path for mode selection and motion compensation using Rate Distortion Optimization (RDO). Instead of coding the residual picture using the DCT coefficients, all residual pictures are stored for the second path. In one embodiment of the present invention, it has been proposed to apply 16x16 restricted intra coding or H.264 standard compliant limited intra coding, and in particular to process the boundary between intra coded macroblock and inter coded macroblock.
제2 경로에서, 움직임 벡터 및 제어 데이터는 엔트로피 코딩에 의해 코딩될 수 있다. 잔여 화상은 MP에 의해 코딩될 수 있다. 원자 검색 및 파라미터 코딩은, 예를 들어, 종래 기술의 가버 기반의 MP 비디오 코딩 접근법에 따라서 수행될 수 있다. 재생된 화상은 기준 프레임을 위해 저장된다.In the second path, the motion vector and control data can be coded by entropy coding. The residual picture may be coded by the MP. Atomic retrieval and parametric coding can be performed, for example, according to the Gabor based MP video coding approach of the prior art. The reproduced picture is stored for the reference frame.
MP 비디오 코딩의 이점들 중 하나는, MP가 블록 기반이 아니어서 블로킹 아티팩트가 없다는 것이다. 하지만, 움직임 예측이 블록 기반으로 수행되어 부정확한 경우, MP 비디오 코딩은, 매우 낮은 비트 레이트에서 소정의 블로킹 아티팩트들을 여전히 발생시킨다. 시뮬레이션은, 원자들이 움직이는 윤곽, 및 움직임 벡터(MV)가 매우 정확하지는 않은 영역에서 나타나는 것을 보여준다. 움직임 추정의 개선은 원자들이 잔여를 더욱 잘 나타내도록 한다.One of the advantages of MP video coding is that MP is not block based and therefore has no blocking artifacts. However, if motion prediction is performed block-based and inaccurate, MP video coding still generates certain blocking artifacts at very low bit rates. The simulation shows that the contour in which the atoms move and the motion vector (MV) appear in areas that are not very accurate. Improvements in motion estimation allow atoms to better represent residuals.
움직임 예측으로부터 아티팩트를 제거하기 위해서, 일 방법은 H.264형 또는 개선된 디블로킹 필터를 이용하여 예측 화상의 뭉툭한 경계를 스무스하게 하는 것과 관련된다. 다른 접근법에서, 중첩 블록(OBMC)을 이용하는 스무더(smoother) 움직임 모델이 채용된다. 종래 기술의 가버 기반의 MP 비디오 코딩 접근법에서는, 16×16 사인 제곱 윈도가 적응되었다. N×N 사인 제곱 윈도는, 예를 들어, 종래 기술의 하이브리드 코딩 기법에 따라서 정의될 수 있다. 16×16 사인 제곱 윈도는 8×8 블록에 대해 설계되고, 16×16 블록은 4개의 8×8 블록으로서 처리된다.To remove artifacts from motion prediction, one method involves smoothing the blunt boundaries of the predictive picture using an H.264 type or an improved deblocking filter. In another approach, a smoother motion model using overlapping blocks (OBMC) is employed. In the Gabor-based MP video coding approach of the prior art, a 16x16 sine squared window has been adapted. The N × N sine squared window can be defined according to, for example, a hybrid coding technique of the prior art. A 16x16 sine squared window is designed for 8x8 blocks, and the 16x16 blocks are treated as four 8x8 blocks.
하지만, H.264 표준에서는, 루마 블록 사이즈 16×16, 16×8, 8×16, 및 8×8 샘플들을 갖는 파티션들이 지원된다. 8×8 샘플들을 갖는 파티션들이 선택되는 경우, 8×8 파티션은 8×4, 4×8 또는 4×4 루마 샘플들 및 대응하는 색채(chroma) 샘플들로 더 분할된다. 여기에서, 추가의 분할 형태들을 처리하기 위한 4개의 접근법들이 제안된다. 첫 번째 접근법은 4×4 파티션에 대해 8×8 사인 제곱 윈도를 이용하는 것이다. 4×4 위의 모든 다른 파티션들에 대해서, 이 파티션들을 다수의 4×4 파티션들로 나눈다. 두 번째 접근법은 8×8 및 그 위의 파티션들에 대해 16×16 사인 제곱 윈도를 이용하지만, 8×8보다 작은 파티션들에 대해서는 건드리지 않는 것이다. 세 번째 접근법은 모든 파티션들에 대해 적응적 OBMC를 사용하는 것이다. 이러한 세 개의 접근법은 모두 OBMC만을 구현하고 디블로킹 필터는 구현하지 않으며, 네 번째 접근법은 OBMC와 디블로킹 필터(들)를 결합하는 것이다.However, in the H.264 standard, partitions with luma block size 16x16, 16x8, 8x16, and 8x8 samples are supported. If partitions with 8x8 samples are selected, the 8x8 partition is further divided into 8x4, 4x8 or 4x4 luma samples and corresponding chroma samples. Here, four approaches are proposed for dealing with further partition forms. The first approach is to use 8x8 sine squared windows for 4x4 partitions. For all other partitions above 4x4, divide these partitions into multiple 4x4 partitions. The second approach uses a 16x16 sine squared window for 8x8 and partitions above it, but does not touch partitions smaller than 8x8. The third approach is to use adaptive OBMC for all partitions. All three approaches implement only OBMC, not deblocking filter, and the fourth approach is to combine OBMC and deblocking filter (s).
잔여 코딩에 대해 구현된, 종래 기술의 가버 기반의 MP 비디오 코딩 접근법 의 리던던트 가버 사전 세트 외에도, 더욱 오버컴플릿한 베이스(base)의 활용을 제안한다. 낮은 비트 레이트에서, 변환 움직임 모델은 무빙 에지와 같은 관련 시각적 특성들의 자연스런 움직임을 정확하게 나타내지 못한다. 따라서, 대부분의 잔여 오류 에너지는 이 영역들에 위치한다. 따라서, 에지 검출 리던던트 사전을 이용하여 오류 화상을 나타내는 것이 중요하다. 2-D 가버 사전이 활용될 수 있는, 낮은 리던던시를 갖는 이산 웨이블렛 변환(예를 들어, 2-D DDWT(Dual-Tree Discrete Wavelet Transform)), 또는 소정의 다른 에지 검출 사전이 이용될 수 있다. 2-D DDWT는 2-D DWT보다 더 많은 서브밴드/방향들을 갖는다. 각각의 서브밴드는 하나의 방향을 나타내고, 이는 에지 검출적이다. 노이즈 정형(noise shaping) 후, 2-D DDWT는 동일하게 유지되는 계수로 표준 2-D DWT에 비해 더 높은 PSNR을 달성한다. 따라서, 2-D DDWT는 에지 정보를 코딩하는 데 더 적합하다. 예측 화상에 OBMC를 적용한 후, 오류 화상은 더 스무스한 에지를 가질 것이다. 파라메트릭(parametric) 오버컴플릿 2-D 사전은 더 스무스한 에지를 제공하기 위해 이용될 수 있다.In addition to redundant Gabor dictionary sets of prior art Gabor based MP video coding approaches, implemented for residual coding, we propose the use of a more overcomplete base. At low bit rates, the transform motion model does not accurately represent the natural movement of related visual characteristics such as moving edges. Thus, most of the residual error energy is located in these areas. Therefore, it is important to represent an error image using the edge detection redundant dictionary. Low redundancy discrete wavelet transform (eg, 2-D Dual-Tree Discrete Wavelet Transform (DDWT)), or any other edge detection dictionary, in which a 2-D Gaver dictionary may be utilized may be used. 2-D DDWT has more subbands / directions than 2-D DWT. Each subband represents one direction, which is edge detective. After noise shaping, the 2-D DDWT achieves higher PSNR compared to standard 2-D DWT with coefficients that remain the same. Thus, 2-D DDWT is more suitable for coding edge information. After applying the OBMC to the predictive picture, the error picture will have smoother edges. Parametric overcomplete 2-D dictionaries can be used to provide smoother edges.
도 3을 참조하면, 입력 비디오 시퀀스를 인코딩하기 위한 예시적인 방법이 일반적으로 참조 번호 300으로 표시된다. 방법(300)은 제어를 판정 블록 310으로 보내는 개시 블록 305를 포함한다. 판정 블록 310은 현재 프레임이 I 프레임인지 여부를 판정한다. 현재 프레임이 I 프레임이면, 제어는 기능 블록 355로 보내진다. 그렇지 않으면, 제어는 기능 블록 315로 보내진다.Referring to FIG. 3, an exemplary method for encoding an input video sequence is indicated generally at 300. The
기능 블록 355는 H.264 표준 호환 프레임 코딩을 수행하여 출력 비트스트림 을 제공하고, 제어를 종료 블록 370으로 보낸다.
기능 블록 315는 H.264 표준 호환 움직임 보상을 수행하고, 제어를 기능 블록 320으로 보낸다. 기능 블록 320은 움직임 벡터(MV), 제어 데이터, 및 예측 블록을 저장하고, 제어를 판정 블록 325로 보낸다. 판정 블록 325는 프레임의 엔드(end)에 도달했는지 여부를 판정한다. 프레임의 엔드에 도달했다면, 제어는 기능 블록 330으로 보내진다. 그렇지 않으면, 제어는 기능 블록 315로 되돌아간다.The
기능 블록 330은 예측 화상에 대해 OBMC 및/또는 디블로킹 필터링을 수행하고, 제어를 기능 블록 335로 보낸다. 기능 블록 335는 원 화상 및 예측 화상으로부터 잔여 화상을 얻고, 제어를 기능 블록 340으로 보낸다. 기능 블록 340은 MP를 이용해서 잔여를 코딩하고, 제어를 기능 블록 345로 보낸다. 기능 블록 345는 엔트로피 코딩을 수행하여 출력 비트스트림을 제공하고, 제어를 종료 블록 370으로 보낸다.The
도 4를 참조하면, 입력 비디오 시퀀스를 디코딩하기 위한 예시적인 방법이 일반적으로 참조 번호 400으로 표시된다. 방법(400)은 제어를 판정 블록 410으로 보내는 개시 블록 405를 포함한다. 판정 블록 410은 현재 프레임이 I 프레임인지 여부를 판정한다. 현재 프레임이 I 프레임이면, 제어는 기능 블록 435로 보내진다. 그렇지 않으면, 제어는 기능 블록 415로 보내진다.Referring to FIG. 4, an exemplary method for decoding an input video sequence is indicated generally at 400. The
기능 블록 435는 H.264 표준 호환 디코딩을 수행하여 재생된 화상을 제공하고, 제어를 종료 블록 470으로 보낸다.The
기능 블록 415는 움직임 벡터, 제어 데이터, 및 MP 원자를 디코딩하고, 제어 를 기능 블록 420 및 기능 블록 425로 보낸다. 기능 블록 420은 디코딩된 원자를 이용해서 잔여 화상을 재생하고, 제어를 기능 블록 430으로 보낸다. 기능 블록 425는, 움직임 벡터 및 다른 제어 데이터를 디코딩하고 OBMC 및/또는 디블로킹 필터링을 적용함으로써 예측 화상을 재생하고, 제어를 기능 블록 430으로 보낸다. 기능 블록 430은 재생된 잔여 화상과 재생된 예측 화상을 합성하여 재생된 화상을 제공하고, 제어를 종료 블록 470으로 보낸다.
이제, 본 발명의 다수의 부수적 장점/특징의 일부에 대해서 설명될 것이며, 이들의 일부는 상술하였다. 예를 들어, 한 장점/특징은, 다중 경로 비디오 인코딩 기법을 이용해서 비디오 신호 데이터를 인코딩하는 비디오 인코더로서, 비디오 인코더는 움직임 추정기 및 분해 모듈을 포함한다. 움직임 추정기는 비디오 신호 데이터에 대해 움직임 추정을 수행하여, 제1 인코딩 경로에서 비디오 신호 데이터에 대응하는 움직임 잔여를 얻는다. 움직임 추정기와 신호 통신하는 분해 모듈은 후속하는 인코딩 경로에서 움직임 잔여를 분해한다.Now, some of the many minor advantages / features of the present invention will be described, some of which have been described above. For example, one advantage / feature is a video encoder that encodes video signal data using a multipath video encoding technique, which includes a motion estimator and a decomposition module. The motion estimator performs motion estimation on the video signal data to obtain a motion residual corresponding to the video signal data in the first encoding path. A decomposition module in signal communication with the motion estimator decomposes the motion residuals in subsequent encoding paths.
다른 장점/특징은 상술한 바와 같은 비디오 인코더로서, 여기에서 다중 경로 비디오 코딩 기법은 2중 경로 비디오 인코딩 기법이다. 비디오 인코더는, 움직임 추정기 및 분해 모듈과 신호 통신하는, 제2 인코딩 경로에서의 후속 이용을 위해 제1 인코딩 경로에서 얻어진 움직임 잔여를 저장하는 버퍼를 더 포함한다. 분해 모듈은 제2 인코딩 경로에서 리던던트 가버 사전 세트를 이용해서 움직임 잔여를 분해한다.Another advantage / feature is the video encoder as described above, wherein the multipath video coding technique is a double path video encoding technique. The video encoder further includes a buffer in signal communication with the motion estimator and decomposition module to store the motion residue obtained in the first encoding path for subsequent use in the second encoding path. The decomposition module decomposes the motion residual using a redundant Gabor dictionary set in the second encoding path.
또 다른 장점/특징은 상술한 바와 같은 2중 경로 비디오 인코딩 기법을 이용 하는 비디오 인코더로서, 여기에서 움직임 추정기는, 제1 인코딩 경로에서 국제 전기통신 연합, 전기통신부(ITU-T) H.264 표준에 따라 움직임 추정 및 코딩 모드 선택을 수행한다.Another advantage / feature is a video encoder employing the two-path video encoding technique as described above, wherein the motion estimator is in the first encoding path the International Telecommunication Union, Department of Telecommunications (ITU-T) H.264 standard. According to the motion estimation and coding mode selection.
또 다른 장점/특징은 상술한 바와 같은 2중 경로 비디오 인코딩 기법을 이용하는 비디오 인코더로서, 여기에서 비디오 인코더는 예측 모듈 및 중첩 블록 움직임 보상기를 더 포함한다. 버퍼와 신호 통신하는 예측 모듈은 제1 인코딩 경로에서 비디오 신호 데이터에 대응하는 예측 화상을 형성한다. 버퍼와 신호 통신하는 중첩 블록 움직임 보상기는 16×16 사인 제곱 윈도를 이용해서 예측 화상에 대해 중첩 블록 움직임 보상(OBMC)을 수행하여, 제2 인코딩 경로에서 예측 화상을 스무스하게 한다. 버퍼는, 제2 인코딩 경로에서의 후속 이용을 위해 제1 인코딩 경로에서 예측 화상을 그 내부에 저장한다.Yet another advantage / feature is a video encoder using a dual path video encoding technique as described above, wherein the video encoder further comprises a prediction module and a nested block motion compensator. The prediction module in signal communication with the buffer forms a predictive picture corresponding to the video signal data in the first encoding path. An overlapping block motion compensator in signal communication with the buffer performs overlapping block motion compensation (OBMC) on the predictive picture using a 16 × 16 sine squared window to smooth the predictive picture in the second encoding path. The buffer stores therein the predictive picture in the first encoding path for subsequent use in the second encoding path.
또한, 다른 장점/특징은 상술한 바와 같은 2중 경로 비디오 인코딩 기법을 이용하는 비디오 인코더로서, 여기에서 비디오 인코더는 예측 모듈 및 중첩 블록 움직임 보상기를 더 포함한다. 버퍼와 신호 통신하는 예측 모듈은 제1 인코딩 경로에서 비디오 신호 데이터에 대응하는 예측 화상을 형성한다. 버퍼와 신호 통신하는 중첩 블록 움직임 보상기는 제2 인코딩 경로에서 예측 화상의 8×8 및 그보다 큰 파티션에 대해서만 중첩 블록 움직임 보상(OBMC)을 수행한다. 버퍼는, 제2 인코딩 경로에서의 후속 이용을 위해 제1 인코딩 경로에서 예측 화상을 그 내부에 저장한다.Further, another advantage / feature is a video encoder using a dual path video encoding technique as described above, wherein the video encoder further comprises a prediction module and an overlapping block motion compensator. The prediction module in signal communication with the buffer forms a predictive picture corresponding to the video signal data in the first encoding path. The overlapping block motion compensator in signal communication with the buffer performs overlapping block motion compensation (OBMC) only for partitions of 8x8 and larger of the predicted picture in the second encoding path. The buffer stores therein the predictive picture in the first encoding path for subsequent use in the second encoding path.
또한, 다른 장점/특징은 상술한 바와 같은 2중 경로 비디오 인코딩 기법을 이용하는 비디오 인코더로서, 여기에서 비디오 인코더는 예측 모듈 및 중첩 블록 움직임 보상기를 더 포함한다. 버퍼와 신호 통신하는 예측 모듈은 제1 인코딩 경로에서 비디오 신호 데이터에 대응하는 예측 화상을 형성한다. 버퍼와 신호 통신하는 중첩 블록 움직임 보상기는 제2 인코딩 경로에서 예측 화상의 4×4 파티션에 대해 8×8 사인 제곱 윈도를 이용해서 중첩 블록 움직임 보상(OBMC)을 수행한다. 예측 화상의 모든 파티션은 제2 인코딩 경로에서 OBMC가 수행될 때 4×4 파티션으로 분할된다. 버퍼는, 제2 인코딩 경로에서의 후속 이용을 위해 제1 인코딩 경로에서 예측 화상을 그 내부에 저장한다.Further, another advantage / feature is a video encoder using a dual path video encoding technique as described above, wherein the video encoder further comprises a prediction module and an overlapping block motion compensator. The prediction module in signal communication with the buffer forms a predictive picture corresponding to the video signal data in the first encoding path. An overlapping block motion compensator in signal communication with the buffer performs overlapping block motion compensation (OBMC) using an 8x8 sine square window for the 4x4 partition of the predictive picture in the second encoding path. All partitions of the predictive picture are divided into 4x4 partitions when OBMC is performed in the second encoding path. The buffer stores therein the predictive picture in the first encoding path for subsequent use in the second encoding path.
또한, 다른 장점/특징은 상술한 바와 같은 2중 경로 비디오 인코딩 기법을 이용하는 비디오 인코더로서, 여기에서 비디오 인코더는 예측 모듈 및 중첩 블록 움직임 보상기를 더 포함한다. 버퍼와 신호 통신하는 예측 모듈은 제1 인코딩 경로에서 비디오 신호 데이터에 대응하는 예측 화상을 형성한다. 버퍼와 신호 통신하는 중첩 블록 움직임 보상기는 제2 인코딩 경로에서 예측 화상의 모든 파티션에 대해 적응적 중첩 블록 움직임 보상(OBMC)을 수행한다. 버퍼는, 제2 인코딩 경로에서의 후속 이용을 위해 제1 인코딩 경로에서 예측 화상을 그 내부에 저장한다.Further, another advantage / feature is a video encoder using a dual path video encoding technique as described above, wherein the video encoder further comprises a prediction module and an overlapping block motion compensator. The prediction module in signal communication with the buffer forms a predictive picture corresponding to the video signal data in the first encoding path. An overlapping block motion compensator in signal communication with the buffer performs adaptive overlapping block motion compensation (OBMC) on all partitions of the predictive picture in the second encoding path. The buffer stores therein the predictive picture in the first encoding path for subsequent use in the second encoding path.
또한, 다른 장점/특징은 상술한 바와 같은 2중 경로 비디오 인코딩 기법을 이용하는 비디오 인코더로서, 여기에서 비디오 인코더는 예측 모듈 및 디블로킹 필터를 더 포함한다. 버퍼와 신호 통신하는 예측 모듈은 제1 인코딩 경로에서 비디오 신호 데이터에 대응하는 예측 화상을 형성한다. 버퍼와 신호 통신하는 디블로킹 필터는 제2 인코딩 경로에서 예측 화상에 대해 디블로킹 동작을 수행한다. 버 퍼는, 제2 인코딩 경로에서의 후속 이용을 위해 제1 인코딩 경로에서 예측 화상을 그 내부에 저장한다.Further, another advantage / feature is a video encoder using a dual path video encoding technique as described above, wherein the video encoder further comprises a prediction module and a deblocking filter. The prediction module in signal communication with the buffer forms a predictive picture corresponding to the video signal data in the first encoding path. The deblocking filter in signal communication with the buffer performs a deblocking operation on the predictive picture in the second encoding path. The buffer stores the prediction picture therein in the first encoding path for subsequent use in the second encoding path.
또한, 다른 장점/특징은 상술한 바와 같은 2중 경로 비디오 인코딩 기법을 이용하는 비디오 인코더로서, 여기에서 분해 모듈은 듀얼 트리(dual-tree) 웨이블렛 변환을 수행하여 움직임 잔여를 분해한다.Also, another advantage / feature is a video encoder using the dual path video encoding technique as described above, wherein the decomposition module performs a dual-tree wavelet transform to decompose the motion residuals.
또 다른 장점/특징은 상술한 바와 같은 2중 경로 비디오 인코딩 기법 및 듀얼 트리 웨이블렛 변환을 이용하는 비디오 인코더로서, 여기에서 분해 모듈은 노이즈 정형을 이용해서 듀얼 트리 웨이블렛 변환의 계수를 선택한다.Another advantage / feature is a video encoder using a dual path video encoding technique and dual tree wavelet transform as described above, wherein the decomposition module selects the coefficients of the dual tree wavelet transform using noise shaping.
또한, 다른 장점/특징은 상술한 바와 같은 2중 경로 비디오 인코딩 기법을 이용하는 비디오 인코더로서, 여기에서 분해 모듈은 파라메트릭 오버컴플릿 2-D 사전을 적용하여 제2 인코딩 경로에서 움직임 잔여를 분해한다.Another advantage / feature is a video encoder using a dual path video encoding technique as described above, wherein the decomposition module applies a parametric overcomplete 2-D dictionary to decompose the motion residuals in the second encoding path.
또한, 다른 장점/특징은 비디오 비트스트림을 디코딩하는 비디오 디코더로서, 여기에서 비디오 디코더는, 엔트로피 디코더, 원자 디코더, 역변환기, 움직임 보상기, 디블로킹 필터, 및 합성기를 포함한다. 엔트로피 디코더는 비디오 비트스트림을 디코딩하여 분해된 비디오 비트스트림을 얻는다. 엔트로피 디코더와 신호 통신하는 원자 디코더는 분해된 비트스트림에 대응하는 분해된 원자를 디코딩하여 디코딩된 원자를 얻는다. 원자 디코더와 신호 통신하는 역변환기는 디코딩된 원자에 역변환을 적용하여 재생된 잔여 화상을 형성한다. 엔트로피 디코더와 신호 통신하는 움직임 보상기는 분해된 비트스트림에 대응하는 움직임 벡터를 이용해서 움직임 보상을 수행하여 재생된 예측 화상을 형성한다. 움직임 보상기와 신호 통신 하는 디블로킹 필터는, 재생된 예측 화상에 디블로킹 필터링을 수행하여 재생된 예측 화상을 스무스하게 한다. 역변환기 및 중첩 블록 움직임 보상기와 신호 통신하는 합성기는 재생된 예측 화상과 잔여 화상을 합성하여 재생된 화상을 얻는다.Another advantage / feature is a video decoder that decodes a video bitstream, wherein the video decoder includes an entropy decoder, an atomic decoder, an inverse transformer, a motion compensator, a deblocking filter, and a synthesizer. The entropy decoder decodes the video bitstream to obtain a decomposed video bitstream. An atomic decoder in signal communication with the entropy decoder decodes the resolved atoms corresponding to the resolved bitstream to obtain decoded atoms. The inverse transformer in signal communication with the atomic decoder applies an inverse transform to the decoded atoms to form a reproduced residual image. A motion compensator in signal communication with the entropy decoder performs motion compensation using a motion vector corresponding to the decomposed bitstream to form a reproduced predicted picture. The deblocking filter in signal communication with the motion compensator performs deblocking filtering on the reproduced predictive image to smooth the reproduced predictive image. A synthesizer in signal communication with the inverse transformer and the overlapping block motion compensator synthesizes the reproduced prediction picture and the residual picture to obtain a reproduced picture.
본 발명의 상기 및 기타 특징 및 장점은 본 명세서의 교시에 기초해서 당업자에 의해 용이하게 확인될 수 있을 것이다. 본 발명의 교시가 다양한 형태의 하드웨어, 소프트웨어, 펌웨어, 전용 프로세서, 또는 이들의 조합으로 구현될 수 있다는 것을 이해할 것이다.These and other features and advantages of the present invention will be readily apparent to those skilled in the art based on the teachings herein. It will be appreciated that the teachings of the present invention may be implemented in various forms of hardware, software, firmware, dedicated processors, or a combination thereof.
가장 바람직하게, 본 발명의 교시는 하드웨어 및 소프트웨어의 조합으로서 구현된다. 또한, 소프트웨어는 프로그램 저장부에 실재적으로 구현되는 애플리케이션 프로그램으로서 구현될 수 있다. 애플리케이션 프로그램은 임의의 적합한 구조를 갖는 머신으로 업로드되어 이 머신에 의해 실행될 수 있다. 바람직하게, 머신은, 하나 이상의 중앙 처리 장치(CPU), RAM, 및 입/출력(I/O) 인터페이스와 같은 하드웨어를 갖는 컴퓨터 플랫폼으로 구현된다. 컴퓨터 플랫폼은 또한 운영 체계 및 마이크로명령어 코드를 포함할 수 있다. 본 명세서에서 기술된 다양한 프로세스 및 기능은, CPU에 의해 실행될 수 있는, 마이크로명령어 코드의 일부 또는 애플리케이션 프로그램의 일부, 또는 이들의 임의의 조합일 수 있다. 또한, 추가의 데이터 저장부 및 인쇄부와 같은 다양한 다른 주변부가 컴퓨터 플랫폼에 연결될 수 있다.Most preferably, the teachings of the present invention are implemented as a combination of hardware and software. In addition, the software may be implemented as an application program that is actually implemented in the program storage unit. The application program can be uploaded to and executed by a machine having any suitable structure. Preferably, the machine is implemented with a computer platform having hardware such as one or more central processing units (CPUs), RAM, and input / output (I / O) interfaces. The computer platform may also include an operating system and microinstruction code. The various processes and functions described herein may be part of microinstruction code or part of an application program, or any combination thereof, that may be executed by a CPU. In addition, various other peripherals, such as additional data storage and printing, may be connected to the computer platform.
또한, 첨부 도면에 도시된 구성 시스템 요소 및 방법들의 일부가 양호하게 소프트웨어로 구현되기 때문에, 시스템 구성 요소들 또는 프로세스 기능 블록들 간 의 실제 접속은, 본 발명이 프로그램되는 방식에 따라서 달라질 수 있다. 본 명세서의 교시를 통해서, 당업자는 본 발명의 상기 및 유사 구현들 또는 구성들을 고안할 수 있을 것이다.In addition, since some of the component system elements and methods shown in the accompanying drawings are preferably implemented in software, the actual connection between system components or process functional blocks may vary depending on how the invention is programmed. Through the teachings herein, those skilled in the art will be able to devise the above and similar implementations or configurations of the present invention.
예시적인 실시예들이 첨부 도면을 참조해서 본 명세서에서 기술되었지만, 본 발명은 이러한 명확한 실시예들로 제한되는 것은 아니며, 본 발명의 범위 또는 사상에서 벗어나지 않으면서 다양한 변경 및 수정들이 당업자에 의해 이루어질 수 있다는 것을 이해해야 한다. 이러한 모든 변경 및 수정들은 첨부된 청구항에서 정의되는 바와 같이 본 발명의 범위 내에 포함되는 것으로 의도된다.Although exemplary embodiments have been described herein with reference to the accompanying drawings, the invention is not limited to these specific embodiments, and various changes and modifications may be made by those skilled in the art without departing from the scope or spirit of the invention. It must be understood. All such changes and modifications are intended to be included within the scope of the present invention as defined in the appended claims.
Claims (24)
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
WOPCT/US2006/037139 | 2006-09-22 | ||
US2006037139 | 2006-09-22 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020147008589A Division KR20140059270A (en) | 2006-09-22 | 2007-02-15 | Method and apparatus for multiple pass video coding and decoding |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20090073112A true KR20090073112A (en) | 2009-07-02 |
Family
ID=38521211
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020157009755A KR20150047639A (en) | 2006-09-22 | 2007-02-15 | Method and apparatus for multiple pass video coding and decoding |
KR1020097005789A KR20090073112A (en) | 2006-09-22 | 2007-02-15 | Method and apparatus for multiple pass video coding and decoding |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020157009755A KR20150047639A (en) | 2006-09-22 | 2007-02-15 | Method and apparatus for multiple pass video coding and decoding |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP2070334A1 (en) |
JP (2) | JP5529537B2 (en) |
KR (2) | KR20150047639A (en) |
CN (2) | CN102833544A (en) |
BR (1) | BRPI0716540A2 (en) |
WO (1) | WO2008036112A1 (en) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10194175B2 (en) * | 2007-02-23 | 2019-01-29 | Xylon Llc | Video coding with embedded motion |
EP2534840A1 (en) * | 2010-02-11 | 2012-12-19 | Thomson Licensing | Method for coding and for reconstruction of a block of an image sequence |
WO2013077650A1 (en) * | 2011-11-23 | 2013-05-30 | 한국전자통신연구원 | Method and apparatus for decoding multi-view video |
JP6055555B2 (en) | 2012-11-13 | 2016-12-27 | インテル コーポレイション | Video codec architecture for next generation video |
US10582213B2 (en) | 2013-10-14 | 2020-03-03 | Microsoft Technology Licensing, Llc | Features of intra block copy prediction mode for video and image coding and decoding |
WO2015054813A1 (en) | 2013-10-14 | 2015-04-23 | Microsoft Technology Licensing, Llc | Encoder-side options for intra block copy prediction mode for video and image coding |
US10506254B2 (en) | 2013-10-14 | 2019-12-10 | Microsoft Technology Licensing, Llc | Features of base color index map mode for video and image coding and decoding |
US10390034B2 (en) | 2014-01-03 | 2019-08-20 | Microsoft Technology Licensing, Llc | Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area |
EP4096221A1 (en) | 2014-01-03 | 2022-11-30 | Microsoft Technology Licensing, LLC | Block vector prediction in video and image coding/decoding |
US11284103B2 (en) | 2014-01-17 | 2022-03-22 | Microsoft Technology Licensing, Llc | Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning |
US10542274B2 (en) | 2014-02-21 | 2020-01-21 | Microsoft Technology Licensing, Llc | Dictionary encoding and decoding of screen content |
KR102413529B1 (en) | 2014-06-19 | 2022-06-24 | 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 | Unified intra block copy and inter prediction modes |
WO2016049839A1 (en) | 2014-09-30 | 2016-04-07 | Microsoft Technology Licensing, Llc | Rules for intra-picture prediction modes when wavefront parallel processing is enabled |
CN106664405B (en) | 2015-06-09 | 2020-06-09 | 微软技术许可有限责任公司 | Robust encoding/decoding of escape-coded pixels with palette mode |
US10986349B2 (en) | 2017-12-29 | 2021-04-20 | Microsoft Technology Licensing, Llc | Constraints on locations of reference blocks for intra block copy prediction |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5699121A (en) * | 1995-09-21 | 1997-12-16 | Regents Of The University Of California | Method and apparatus for compression of low bit rate video signals |
JP2002315004A (en) * | 2001-04-09 | 2002-10-25 | Ntt Docomo Inc | Image-encoding method and device, image-decoding method and device, and image processing system |
BRPI0408835A (en) * | 2003-03-28 | 2006-04-04 | Digital Accelerator Corp | supercomplete transform transform-based motion residual frame coding method and apparatus for video compression |
US7653133B2 (en) * | 2003-06-10 | 2010-01-26 | Rensselaer Polytechnic Institute (Rpi) | Overlapped block motion compression for variable size blocks in the context of MCTF scalable video coders |
WO2005002234A1 (en) * | 2003-06-30 | 2005-01-06 | Koninklijke Philips Electronics, N.V. | Video coding in an overcomplete wavelet domain |
CN100469142C (en) * | 2003-08-05 | 2009-03-11 | Nxp股份有限公司 | Video encoding and decoding methods and corresponding devices |
KR20060071394A (en) * | 2003-08-12 | 2006-06-26 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | Video encoding and decoding method and corresponding devices |
JP4191729B2 (en) * | 2005-01-04 | 2008-12-03 | 三星電子株式会社 | Deblock filtering method considering intra BL mode and multi-layer video encoder / decoder using the method |
KR100703744B1 (en) * | 2005-01-19 | 2007-04-05 | 삼성전자주식회사 | Method and apparatus for fine-granularity scalability video encoding and decoding which enable deblock controlling |
-
2007
- 2007-02-15 CN CN2012102958552A patent/CN102833544A/en active Pending
- 2007-02-15 EP EP07750912A patent/EP2070334A1/en not_active Withdrawn
- 2007-02-15 BR BRPI0716540-4A patent/BRPI0716540A2/en not_active IP Right Cessation
- 2007-02-15 CN CNA2007800349523A patent/CN101518085A/en active Pending
- 2007-02-15 KR KR1020157009755A patent/KR20150047639A/en not_active Application Discontinuation
- 2007-02-15 KR KR1020097005789A patent/KR20090073112A/en not_active Application Discontinuation
- 2007-02-15 JP JP2009529167A patent/JP5529537B2/en not_active Expired - Fee Related
- 2007-02-15 WO PCT/US2007/004110 patent/WO2008036112A1/en active Application Filing
-
2012
- 2012-07-31 JP JP2012169948A patent/JP5639619B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
KR20150047639A (en) | 2015-05-04 |
EP2070334A1 (en) | 2009-06-17 |
CN102833544A (en) | 2012-12-19 |
JP5529537B2 (en) | 2014-06-25 |
JP2010504689A (en) | 2010-02-12 |
JP5639619B2 (en) | 2014-12-10 |
CN101518085A (en) | 2009-08-26 |
BRPI0716540A2 (en) | 2012-12-25 |
WO2008036112A1 (en) | 2008-03-27 |
JP2012235520A (en) | 2012-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20090073112A (en) | Method and apparatus for multiple pass video coding and decoding | |
US9749653B2 (en) | Motion vector encoding/decoding method and device and image encoding/decoding method and device using same | |
CN108028931B (en) | Method and apparatus for adaptive inter-frame prediction for video coding and decoding | |
US7120197B2 (en) | Motion compensation loop with filtering | |
AU2020294315B2 (en) | Method and apparatus for motion compensation prediction | |
US9571851B2 (en) | Inter prediction method and apparatus using adjacent pixels, and image encoding/decoding method and apparatus using same | |
JP5908848B2 (en) | Method and apparatus for performing constrained transforms for video encoding and decoding with transform selection | |
KR20110017302A (en) | Method and apparatus for encoding/decoding image by using motion vector accuracy control | |
US11375191B2 (en) | Method and apparatus for adaptive transform in video encoding and decoding | |
JP2007501555A (en) | Video encoding and decoding method and corresponding apparatus | |
US20100040146A1 (en) | Method and apparatus for multiple pass video coding and decoding | |
CN109565592B (en) | Video coding device and method using partition-based video coding block partitioning | |
KR100859073B1 (en) | Motion estimation method | |
KR20140059270A (en) | Method and apparatus for multiple pass video coding and decoding | |
KR20140129421A (en) | Method for intra-prediction, and apparatus thereof | |
Shen et al. | Benefits of adaptive motion accuracy in H. 26L video coding | |
KR20220136163A (en) | Video Coding Method and Apparatus Using Deep Learning Based In-loop Filter for Inter Prediction | |
KR20110042602A (en) | Video coding method and apparatus by using filtering motion compensation frame | |
Hong et al. | An adaptive LS-Based motion prediction algorithm for video coding | |
KR20140129424A (en) | Method for intra-prediction, and apparatus thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
A107 | Divisional application of patent | ||
E601 | Decision to refuse application |