KR20100027096A - 인트라 예측을 위한 적응 기준 영상 데이터 생성 - Google Patents

인트라 예측을 위한 적응 기준 영상 데이터 생성 Download PDF

Info

Publication number
KR20100027096A
KR20100027096A KR1020097021649A KR20097021649A KR20100027096A KR 20100027096 A KR20100027096 A KR 20100027096A KR 1020097021649 A KR1020097021649 A KR 1020097021649A KR 20097021649 A KR20097021649 A KR 20097021649A KR 20100027096 A KR20100027096 A KR 20100027096A
Authority
KR
South Korea
Prior art keywords
image data
current
adaptive reference
reference image
filter
Prior art date
Application number
KR1020097021649A
Other languages
English (en)
Inventor
펭 인
오스카 디볼라 에스코다
콘그시아 다이
Original Assignee
톰슨 라이센싱
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 톰슨 라이센싱 filed Critical 톰슨 라이센싱
Publication of KR20100027096A publication Critical patent/KR20100027096A/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Abstract

디바이스는 압축되거나, 또는 인코딩된 비디오 데이터를 제공하기 위해 H.264 호환가능 비디오 인코더를 포함한다. H.264 인코더는 인코딩되는 현재의 영상의 사전 코딩된 매크로블록들(macroblocks)을 저장하기 위한 버퍼; 및 현재의 영상의 사전 코딩된 매크로블록들로부터 적응 기준 영상 데이터를 생성하기 위한 프로세서를 포함하고, 여기서 적응 기준 영상 데이터는 현재의 영상의 코딩되지 않은 매크로블록들을 예측할 때 사용한다.
Figure P1020097021649
비디오 인코딩, 인트라 프레임 예측, 적응 기준 영상 데이터, 매크로블록(MB), 이장 인트라 예측(DIP), 템플릿 매칭(TM), 디블록킹 필터, 미디언 필터, H.264 비디오 인코딩

Description

인트라 예측을 위한 적응 기준 영상 데이터 생성{ADAPTIVE REFERENCE PICTURE DATA GENERATION FOR INTRA PREDICTION}
본 출원은 2007년 4월 19일 출원된 미합중국 임시출원 제 60/925,351 호의 우선권을 주장한다.
본 발명은 일반적으로 통신 시스템들(communications systems)에 관한 것으로, 특히, 비디오 코딩 및 디코딩(video coding and decoding)에 관한 것이다.
MPEG-2 및 JVT/H.264/MPEG AVC(예를 들어, ITU-T Rec. H.264, "Advanced video coding for generic audiovisual services", 2005를 참조)와 같은 전형적인 비디오 압축 시스템들 및 표준들에 있어서, 인코더 및 디코더는 일반적으로 압축을 달성하기 위해 인트라 프레임 예측(intra frame prediction)과 인터 프레임 예측(inter frame prediction)에 의존한다. 인트라 프레임 예측에 관하여, 다양한 방법들이 인트라 프레임 예측을 개선하기 위해 제안되었다. 예를 들어, 이장 인트라 예측(displaced intra prediction : DIP)과 템플릿 매칭(template matching : TM)이 텍스쳐 예측(texture prediction)을 위한 양호한 코딩 효율을 달성하였다. 이들 두 접근법들 간의 유사성은 이들 모두가 코딩되는 현재의 영상의 사전 인코딩된 인트라 영역들을 탐색하고(즉, 이들은 기준으로서 현재의 영상을 이용한다) 예를 들 어 영역 매칭(region matching) 및/또는 자동-회귀 템플릿 매칭(auto-regressive template matching)을 수행함으로써 몇몇 코딩 비용에 따른 최상의 예측을 발견한다는 것이다.
이장 인트라 예측(DIP)과 템플릿 매칭(TM) 모두가 코딩 성능 및/또는 시각적 품질을 저하시키는 유사한 문제에 직면한다는 것이 관측되었다. 특히, 현재의 영상의 사전 코딩된 인트라 영역들로부터의 기준 영상 데이터는 코딩 성능 및/또는 시각적 품질을 저하시키는 몇몇 블록키(blocky) 또는 기타 코딩 결함을 포함할 수 있다. 그러나, 인트라 코딩에 관하여 전술한 코딩 성능 문제들을 해결하는 것이 가능하다는 것이 또한 인식되었다. 특히, 본 발명의 원리들에 따라서, 인코딩을 위한 방법은 현재의 영상의 사전 코딩된 매크로블록들(macroblocks)로부터 적응 기준 영상 데이터(adaptive reference picture data)를 생성하고; 및 상기 적응 기준 영상 데이터로부터 현재의 영상의 코딩되지 않은 매크로블록을 예측하는 단계를 포함한다.
본 발명의 한 실시예에서, 디바이스는 압축, 또는 인코딩된 비디오 데이터를 제공하기 위한 H.264 호환 비디오 인코더를 포함한다. H.264 인코더는 인코딩되는 현재의 영상의 사전 코딩된 매크로블록들을 저장하기 위한 버퍼; 및 현재의 영상의 사전 코딩된 매크로블록들로부터 적응 기준 영상 데이터를 생성하기 위한 프로세서를 포함하고, 여기서 적응 기준 영상 데이터는 현재의 영상의 코딩되지 않은 매크로블록을 예측하는데 사용하기 위한 것이다.
본 발명의 다른 실시예에서, 디바이스는 비디오 데이터를 제공하기 위한 H.264 호환 비디오 디코더를 포함한다. H.264 디코더는 디코딩되는 현재의 영상의 사전 코딩된 매크로블록들을 저장하기 위한 버퍼; 및 현재 영상의 사전 코딩된 매크로블록들로부터 적응 기준 영상 데이터를 생성하기 위한 프로세서를 포함하고, 여기서 적응 기준 영상 데이터는 현재 영상의 매크로블록들을 디코딩하는데 사용하기 위한 것이다.
전술한 관점에서, 그리고 상세한 설명을 읽음으로써 분명해질 바와 같이, 다른 실시예들 및 특징들이 또한 가능할 것이며 본 발명의 원리들 내에 포함된다.
도 1 내지 도 8은 DIP 또는 TM을 이용한 인트라 프레임 예측을 위한 종래기술의 비디오 인코딩 및 디코딩을 예시하는 도면들;
도 9는 본 발명의 원리들에 따라서 한 예시적인 디바이스를 도시하는 도면;
도 10은 본 발명의 원리들에 따라서 H.264 인코더의 한 예시적인 블록도를 도시하는 도면;
도 11은 본 발명의 원리들에 따라서 비디오 인코더의 또 다른 예시적인 블록도를 도시하는 도면;
도 12는 본 발명의 원리들에 따라서 다른 유형들의 프로세싱을 예시하는 표 1을 도시하는 도면;
도 13은 도 9의 디바이스 또는 도 10의 H.264 인코더에서 사용하기 위한 고 수준(high-level) 문법(syntax)을 예시하는 표 2;
도 14 및 도 15는 본 발명의 원리들에 따라서 비디오 인코더의 또 다른 예시적인 블록도를 도시하는 도면들;
도 16은 본 발명의 원리들에 따라서 비디오 인코더에서 사용하기 위한 한 예시적인 흐름도를 도시하는 도면;
도 17은 본 발명의 원리들에 따라서 또 다른 예시적인 디바이스를 도시하는 도면;
도 18 및 도 19는 본 발명의 원리들에 따라서 비디오 디코더의 예시적인 블록도들을 도시하는 도면들;
도 20은 본 발명의 원리들에 따라서 비디오 디코더에서 사용하기 위한 예시적인 흐름도를 도시하는 도면; 및
도 21 내지 도 26은 본 발명의 원리들에 따라서 또 다른 예시적인 실시예를 도시하는 도면들.
본 발명적 개념을 제외하고는, 도면들에 도시된 소자들은 잘 알려져 있으며 상세히 기술되지 않을 것이다. 또한, 비디오 방송, 수신기 및 비디오 인코딩에 대한 친숙성이 가정되며 본 명세서에 상세히 기술되지 않는다. 예를 들어, 본 발명적 개념을 제외하고는, NTSC(National Television Systems Committee), PAL(Phase Alternation Lines), SECAM(SEquential Couleur Avec Memoire) 및 ATSC(Advanced Television Systems Committee)와 같은 TV 표준들에 대한 현재 그리고 제안된 권고안들에 대한 친숙성이 가정된다. 유사하게, 본 발명적 개념을 제외하고는, 8- VSB(eight-level vestigial sideband), QAM(Quadrature Amplitude Modulation)과 같은 전송 개념들, 그리고 무선-주파수(radio-frequency:RF) 전단(front-end)과 같은 수신기 구성요소, 또는 로우 노이즈 블록(low noise block), 튜너(tuner), 복조기, 상관기(correlator), 누출 통합기(leak integrators) 및 스퀘어러(squarer)와 같은 수신기 섹션이 가정된다. 유사하게, 본 발명적 개념을 제외하고는, (MPEG-2(Moving Picture Expert Group-2) 시스템 표준(ISO/IEC 13818-1)과 같은) 포맷팅 및 인코딩 방법들, 그리고, 특히, 비트 스트림들을 생성하기 위한 H.264: International Telecommunication Union, "Recommendation ITU-T H.264: Advanced Video Coding for Generic Audiovisual Services," ITU-T, 2005가 잘 알려져 있고 본 명세서에 기술되지 않았다. 이와 관련하여, 주목해야 할 것은 알려진 비디오 인코딩과 다른 본 발명적 개념의 부분만이 이하 기술되며 도면들에 도시된다. 그래서, 영상, 프레임, 필드, 매크로블록, 루마(luma), 크로마(chroma), 인트라 프레임 예측, 인터 프레임 예측 등과 같은 H.264 비디오 인코딩 개념들이 가정되며 본 명세서에 기술되지 않는다. 예를 들어, 본 발명적 개념을 제외하고, 공간적 방향 예측과 같은 인트라 프레임 예측(intra frame prediction) 기법들, 그리고 이장 인트라 예측(DIP)과 템플릿 매칭(TM) 기법들과 같은 H.264의 확장들에 포함하기 위해 현재 제안된 것들이 잘 알려져 있으며 본 명세서에 상세히 기술되지 않는다. 또한 주목해야 할 것은 본 발명적 개념이 종래의 프로그래밍 기법들을 이용하여 구현될 수 있으며, 그래서 또한 본 명세서에 기술되지 않을 것이다. 최종적으로, 도면상의 유사한 번호들은 유사한 소자들을 나타낸다.
도 1 내지 도 8을 간단히 참조하면, 몇몇 일반적인 배경 정보가 제공된다. 일반적으로, 잘 알려진 바와 같이, 비디오의 영상, 또는 프레임이 다수의 매크로블록들(MBs)로 분할된다. 또한, 매크로블록들은 다수의 슬라이스들(slices)로 조직화된다. 영상(10)에 대해 도 1에 이것이 예시되며, 이 영상(10)은 3개의 슬라이스들(16, 17, 18)을 포함하며; 여기서 각각의 슬라이스는 매크로블록(MB)(11)으로 표현된 바와 같이 다수의 매크로블록들을 포함한다. 전술한 바와 같이, 인트라 프레임 예측에 대해, 공간적 방향 예측, 이장 인트라 예측(DIP) 및 템플릿 매칭(TM)의 기법들이 영상(10)의 매크로블록들을 처리하기 위해 사용될 수 있다.
H.264에 대해 DIP 또는 TM 제안된 확장들을 이용한 인트라 프레임 예측에서 사용하기 위해 종래 기술의 H.264-기반 인코더(50)(이후 단순히 인코더(50)로서 지칭됨)의 고 수준 표현이 도 2에 도시된다. 그래서, H.264 인코더에 의해 지원된 다른 모드들이 본 명세서에 기술되지 않는다. 입력 비디오 신호(54)가 인코더(50)에 인가되며, 인코더(50)는 인코딩되거나, 압축된 출력 비디오 신호(56)를 제공한다. 인코더(50)가 비디오 인코더(55), 비디오 디코더(60), 그리고 기준 영상 버퍼(70)를 포함한다는 것이 관측되어야 한다. 특히, 인코더(50)는 디코더 프로세싱을 복제하여 인코더(50)와 (도 2에 도시되지 않은)대응하는 H.264-기반 디코더가 후속 데이터를 위한 동일한 예측들을 발생할 것이다. 따라서, 인코더(50)는 또한 인코딩된 출력 비디오 신호(56)를 디코드(압축해제)하여 디코딩된 비디오 신호(61)를 제공한다. 도 2에 도시된 바와 같이, 디코딩된 비디오 신호(61)는 DIP 또는 TM 인트라 프레임 예측 기법들에서 후속적인 인코딩된 MB들의 예측에서 사용하기 위해 기준 영 상 버퍼(70)에 저장된다. 주목해야 할 것은 DIP 또는 TM이 MB-기초에서 동작하고, 즉, 기준 영상 버퍼(70)가 MB를 저장하며, 이것은 후속적인 인코딩된 MB들의 예측을 위해 사용된다. 완전함을 위해, 종래 기술의 인코더(50)의 보다 상세한 블록도가 도 3에 도시되며, 이것의 소자들과 동작이 종래 기술에 잘 알려져 있으며 본 명세서에 더 이상 기술되지 않는다. 주목해야 할 것은 인코더 제어(75)가 단순화된 방식으로 도 3의 모든 소자들의 제어를 표시하기 위해 점선으로 도시된다는 것이다(이에 비해 인코더 제어(75)와 도 3의 다른 소자들 간의 개별적인 제어/신호 경로들을 도시). 이와 관련하여, 주목해야 할 것은 DIP 또는 TM 인트라 프레임 예측 동안, 각각의 디코딩된 MB는 스위치(80)를 경유하여 기준 영상 버퍼(70)로 신호 경로(62)를 경유하여 제공된다는 것이다(이것은 인코더 제어(75)의 제어하에 있다). 환언하면, 각각의 사전 코딩된 MB는 필터(65)를 디블로킹(deblocking)함으로써 처리되지 않는다. DIP 또는 TM 인트라 프레임 예측을 수행할 때 인코더(50) 내의 데이터 흐름의 보다 단순화된 도면이 도 4에 도시된다. 유사하게, 대응하는 종래 기술의 H.264-기반 디코더(90)가 H.264에 대해 DIP 또는 TM 제안된 확장들을 이용한 인트라 프레임 예측에서 사용하기 위해 도 5에 도시된다. 다시 말하면, H.264-기반 디코더(90)가 DIP 또는 TM 인트라 프레임 예측을 수행할 때 도 6에 단순화된 형태가 도시된다.
전술한 바와 같이, H.264 인코더의 확장은 DIP 또는 TM 인프라 프레임 예측을 수행할 수 있다. DIP 인트라 프레임 예측이 인트라 프레임 인코딩 프로세스에서 시간(T) 내의 한 시점에서 영상(20)을 위해 도 7에 예시된다(예를 들어, S.-L. Yu and C. Chrysafis, "New Intra Prediction using Intra-Macroblock Motion Compensation", JVT meeting Fairfax, doc JVT-C151, May 2002; and J. Balle, and M. Wien, "Extended Texture Prediction for H.264 Intra Coding", VCEG-AE11.doc, Jan 2007을 참조). 전술한 바와 같이, DIP는 MB기초에서 구현된다. 시간(T)에서, 영상(20)의 영역(26)이 인코딩되었으며, 즉, 영역(26)은 인트라 코딩된 영역이며; 영상(20)의 영역(27)은 아직 인코딩되지 않았으며, 즉, 인코딩되지 않는다. DIP에서, 사전에 인코딩된 MB는 현재의 MB를 예측하기 위해 이장 벡터(displacement vector)에 의해 참조된다. 이것은 도 7에 예시되며, 여기서 사전 인코딩된 MB(21)는 현재의 MB(22)를 예측하기 위해 이장 벡터(화살표)(25)에 의해 참조된다. 이장 벡터는 H.264의 인터 모션 벡터들(inter motion vectors)에 대한 유사성에서 이웃하는 블록들의 미디언(median) 값에 의해 예측을 차별적으로 이용함으로써 인코딩된다.
유사한 방식으로, TM은 인트라 프레임 인코딩 프로세스에서 시간(T) 내의 한 시점에서 영상(30)을 위해 도 8에 예시된다(예를 들어, T.K. Tan, C.S. Boon, and Y. Suzuki, "Intra Prediction by Template Matching", ICIP 2006; and J. Balle, and M. Wien, "Extended Texture Prediction for H.264 Intra Coding", VCEG-AE11.doc, Jan 2007을 참조). DIP와 유사하게, TM은 MB 기초에서 구현된다. 시간 T에서, 영상(30)의 영역(36)이 인코딩되었으며, 즉, 영역(36)은 인트라 코딩된 영역이며; 영상(30)의 영역(37)은 아직 인코딩되지 않고, 즉, 인코딩되지 않는다. TM에서, 이미지 영역들의 자기-유사성들(self-similarities)은 예측을 위해 활용된다. 특히, TM 알고리즘은 픽셀들의 유사한 이웃을 위한 인트라 코딩된 영역을 탐색함으로써 현재의 픽셀(또는 타겟)의 값을 재귀적으로(recursively) 결정한다. 이것은 도 8에 예시되며, 여기서, 현재의 MB(43) 타겟이 서라운딩 코딩된 MB들의 연관된 이웃(또는 템플릿)(31)을 가진다. 이후 인트라 코딩된 영역(36)이 탐색되어 유사한 후보 이웃을 식별하며, 여기서 이웃(32)으로 표시된다. 일단 유사한 이웃의 위치가 파악되었다면, 도 8에 예시된 바와 같이, 후보 이웃의 MB(33)가 타겟(MB(43))을 예측하기 위한 후보 MB로서 사용된다.
보다 앞서 전술한 바와 같이, DIP와 TM 모두가 텍스쳐 예측을 위해 양호한 코딩 효율을 달성하였다. 이들 두 접근법들 간의 유사성은 이들 모두가 코딩되는 현재 영상의 사전 인코딩된 인트라 영역들을 탐색하고(즉, 이들은 기준으로서 현재의 영상을 이용한다), 예를 들어, 영역 매칭 및/또는 자동-회귀 템플릿 매칭을 수행함으로써 몇몇 코딩 비용에 따라 최상의 예측을 발견한다는 것이다. 불행히도, DIP와 TM 모두 코딩 성능 및/또는 시각적 품질을 저하시키는 유사한 문제들에 직면한다. 특히, 현재 영상의 사전 코딩된 인트라 영역들(예를 들어, 도 7의 인트라 영역(26) 또는 도 8의 인트라 영역(36))으로부터 기준 영상 버퍼(70)에 저장된 기준 영상이 몇몇 블록키를 포함하거나 다른 코딩 결함을 포함할 수 있으며, 이것은 코딩 성능 및/또는 시각적 품질을 저하시킨다. 그러나, 인트라 코딩에 관하여 전술한 코딩 성능 문제들을 해결하는 것이 가능하다. 특히, 그리고 본 발명의 원리들에 따라서, 인코딩을 위한 방법은 현재 영상의 사전 코딩된 매크로블록들로부터 적응 기준 영상 데이터를 생성하는 단계; 및 적응 기준 영상 데이터로부터 현재의 영상의 코딩되지 않은 매크로블록들을 예측하는 단계를 포함한다.
본 발명의 원리들에 따라서 디바이스(105)의 한 예시적인 실시예가 도 9에 도시된다. 디바이스(105)는 임의 프로세서-기반 플랫폼, 예를 들어, PC, 서버, PDA(personal digital assistant), 셀룰러 전화 등을 나타낸다. 이와 관련하여, 디바이스(105)는 (도시되지 않은) 연관된 메모리를 갖는 하나 이상의 프로세서들을 포함한다. 디바이스(105)는 본 발명적 개념에 따라서 변형된 확장형 H.264 인코더(150)를 포함한다(이후 인코더(150)로서 지칭됨). 본 발명적 개념을 제외하고는, 인코더(150)는 (전술한) ITU-T H.264에 일치하며 또한 이장 인트라 예측(DIP)의 전술한 인트라 프레임 예측 기법들 및 템플릿 매칭(TM) 제안 확장들을 지원하는 것으로 가정된다. 인코더(150)는 비디오 신호(149)(예를 들어, 이것은 입력 신호(104)로부터 유도된다)를 수신하고 인코딩된 비디오 신호(151)를 제공한다. 후자는 출력 신호(106)의 일부로서 포함될 수 있으며, 이것은 디바이스(105)로부터, 예를 들어, 다른 디바이스, 또는 네트워크(유선, 무선 등)로의 출력 신호를 나타낸다. 주목해야 할 것은 비록 도 9가 인코더(150)가 디바이스(105)의 일부인 것으로서 도시되지만, 본 발명은 그에 제한되지 않으며, 인코더(150)는 디바이스(105)의 외부에 있을 수 있으며, 예를 들어, 디바이스(105)가 인코딩된 비디오 신호를 제공하기 위해 인코더(150)를 이용할 수 있도록 물리적으로 인접하거나, 또는 네트워크(케이블, 인터넷, 셀룰러 등)에서 다른 곳에 배치된다. 이러한 예만을 위한 목적을 위해, 비디오 신호(149)는 CIF(Common Intermediate Format) 비디오 포맷을 따르는 실시간 비디오 신호인 것으로 가정된다.
인코더(150)의 한 예시적인 블록도가 도 10에 도시된다. 예시적으로, 인코더(150)는 도 10에 점선 박스의 형태로 도시된 프로세서(190) 및 메모리(195)로서 표시된 바와 같이 소프트웨어-기반 비디오 인코더이다. 이러한 문맥에서, 컴퓨터 프로그램, 또는 소프트웨어는 프로세서(190)에 의한 실행을 위해 메모리(195) 내에 저장된다. 후자는 하나 이상의 저장된-프로그램 제어 프로세서들을 나타내며 비디오 인코더 기능에 전용될 필요는 없다, 예를 들어, 프로세서(190)는 또한 디바이스(105)의 다른 기능들을 또한 제어할 수 있다. 메모리(195)는 임의 저장 디바이스, 예를 들어, 랜덤 액세스 메모리(RAM), 판독전용 메모리(ROM) 등을 나타내며, 인코더(150) 내부 및/또는 외부에 존재할 수 있으며, 필요에 따라서 휘발성 및/또는 비휘발성일 수 있다. 본 발명적 개념을 제외하고, 인코더(150)는 종래 기술에 알려진 바와 같이 비디오 코딩 층(160)과 네트워크 개요 층(165)으로서 표현된 바와 같이 2개의 층들을 갖는다. 이와 관련하여, 인코더(150)의 비디오 코딩 층(160)은 (이하 추가 기술되는) 본 발명적 개념을 포함한다. 비디오 코딩 층(160)은 인코딩된 신호(161)를 제공하며, 이 신호는 종래 기술에 잘 알려진 바와 같이 비디오 코딩된 데이터, 예를 들어, 비디오 시퀀스, 영상, 슬라이스 및 MB를 포함한다. 비디오 코딩 층(160)은 입력 버퍼(180), 인코더(170) 및 출력 버퍼(185)를 포함한다. 입력 버퍼(180)는 인코더(170)에 의한 처리를 위해 비디오 신호(149)로부터 비디오 데이터를 저장한다. 본 발명적 개념을 제외하고, 이하 기술된, 인코더(170)는 전술한 바와 같이 H.264에 따라서 비디오 데이터를 압축하고, 압축된 비디오 데이터를 출력 버퍼(185)로 제공한다. 후자는 인코딩된 신호(161)로서 압축된 데이터 신호를 네트워크 개요 층(165)으로 제공하며, 이것은 H.264 비디오 인코딩 신호(151)를 제공하기 위해 다양한 통신 채널들 또는 저장 채널들을 통한 전송에 적합한 방식으로 인코딩된 신호(161)를 포맷한다. 예를 들어, 네트워크 개요 층(165)은 RTP(실시간 프로토콜)/IP(인터넷 프로토콜), 파일 포맷(예를 들어, 저장 및 멀티미디어 메시징(MMS)을 위한 ISP MP4(MPEG-4 표준(ISO 14496-14)), 유선 및 무선 통신 서비스를 위한 H.32X), 서비스 방송을 위한 MPEG-2 시스템 등과 같은 전송 층으로 인코딩된 신호(161)를 맵핑(mapping)하기 위한 능력을 갖는다.
본 발명의 원리들에 따라서 인트라 프레임 예측에서 사용하기 위한 비디오 인코더(160)의 예시적인 블록도가 도 11에 도시된다. 이러한 예의 목적들을 위해, 비디오 인코더(160)가 현재의 영상을 위한 DIP 또는 TM 인트라 프레임 예측을 수행한다고 가정된다. 그래서, H.264 표준에 따라서 비디오 코딩 층(160)에 의해 지원된 다른 모드들은 본 명세서에 기술되지 않는다. 비디오 코딩 층(160)은 비디오 인코더(55), 비디오 디코더(60), 기준 영상 버퍼(70) 및 기준 프로세싱 유닛(205)을 포함한다. 현재의 영상을 나타내는 입력 비디오 신호(149)는 비디오 인코더(55)에 인가되며, 이 비디오 인코더(55)는 인코딩되거나, 압축된 출력 신호(161)를 제공한다. 인코딩된 출력 신호(161)는 또한 비디오 디코더(60)에 인가되며, 이것은 디코딩된 비디오 신호(61)를 제공한다. 후자는 현재의 영상의 사전 코딩된 MB를 나타내며 기준 영상 버퍼(70) 내에 저장된다. 본 발명의 원리들에 따라서, 기준 프로세싱 유닛(205)은 현재 코딩되는 영상(즉, 현재의 영상)을 위해 기준 영상 버퍼(70) 내에 저장된 사전 코딩된 MB 영상 데이터로부터 적응 기준 영상 데이터(신호(206))를 생성한다. 이러한 적응 기준 영상 데이터는 현재의 영상을 위한 DIP 또는 TM 인트라 프레임 예측 기법들로 후속적인 인코딩된 MB들의 예측에서 사용된다. 따라서, 기준 프로세싱 유닛(205)은 임의 블록키 또는 기타 코딩 결함들을 제거하거나 완화하기 위해 사전에 코딩된 MB 영상 데이터를 여과할 수 있다.
실제로, 기준 프로세싱 유닛(205)은 상이한 적응 기준 영상 데이터를 생성하기 위해 다수의 필터들 중 어느 하나를 인가할 수 있다. 이것은 도 12의 표 1에 예시된다. 표 1은 기준 프로세싱 유닛(205)이 적응 기준 영상 데이터를 생성하기 위해 사용될 수 있는 상이한 필터링 또는 프로세싱 기법의 목록을 예시한다. 표 1은 본 명세서에서 일반적으로 "필터 유형들"로서 지칭되는 6개의 상이한 프로세싱 기법을 예시한다. 본 예에서, 각각의 필터 유형은 필터_번호 파라미터와 연관된다. 예를 들어, 필터_번호 파라미터의 값이 0 이면, 기준 프로세싱 유닛(205)은 기준 영상 버퍼(70)내에 저장된 사전 코딩된 MB 영상 데이터를 처리하기 위해 미디언-유형 필터를 이용한다. 유사하게, 필터_번호 파라미터의 값이 1 이면, 기준 프로세싱 유닛(205)은 기준 영상 버퍼(70)내에 저장된 사전 코딩된 MB 영상 데이터를 처리하기 위해 디블로킹 필터를 이용한다. 이러한 디블로킹 필터는 H.264에 특정된 바와같이 도 3의 디블로킹(65)과 유사하다. 표 1에 표시된 바와 같이, 주문형 필터 유형이 또한 정의될 수 있다.
주목해야 할 것은 표 1은 단지 예이며, 기준 프로세싱 유닛(205)이 본 발명의 원리들에 따라서 기준 영상 버퍼(70)에 저장된 데이터에 필터, 변환(transformation), 워핑(warping), 또는 프로젝션(projection)중 어느 하나를 인 가할 수 있다. 실제로, 적응 기준 영상 데이터를 생성하기 위해 사용된 필터는 어떠한 공간적 필터, 미디언 필터, 비너 필터링(Wiener filtering), 상승 평균(Geometric Mean), 최소 제곱법(Least Square) 등일 수 있다. 실제로, 현재의(기준) 영상의 코딩 결함을 제거하기 위해 사용될 수 있는 어떠한 선형 및 비선형 필터를 이용할 수 있다. 사전 코딩된 영상의 임시적인 필터링과 같은 임시적인 방법을 고려하는 것이 가능하다. 유사하게, 워핑은 아핀 변환(affine transform) 또는 현재 코딩될 인트라 블록의 보다 나은 매치를 허용하는 기타 선형 및 비선형 변환일 수 있다.
기준 프로세싱 유닛(205)이 하나 보다 많은 유형의 필터를 이용하면, 필터 유형과 기준 프로세싱 유닛(205)에 의해 생성된 특별한 적응 기준 영상 데이터를 연관시키기 위해 사용된다. 도 13을 참조하면, 예시적인 기준 목록이 본 발명의 원리들에 따라서 표 2에 도시된다. 표 2는 H.264 디코더로 정보를 전달하기 위한 예시적인 문법을 나타낸다. 이러한 정보는 H.264의 고차 문법, 예를 들어, 시퀀스 파라미터 세트, 영상 파라미터 세트, 슬라이스 헤더 등으로 전달된다. 예를 들어, 전술한 H.264 표준의 섹션 7.2를 참조하라. 표 2에서, 파라미터 필터-수[i]는 ith 기준을 위한 필터 유형을 특정하고; 파라미터 num_of_coeff_minus_1 plus 1은 다수의 계수를 특정하며; 및 파라미터 quant_coeff[j]는 jth 계수의 양자화된 값을 특정한다. 기술어들(Descriptors)(u(1), ue(v) 및 se(v))가 H.264에서 정의된다(예를 들어, 섹션 7.2를 참조). 예를 들어, u(1)은 1 비트의 부호화되지 않은 정수이며; ue(v)는 레프트 비트 퍼스트(left bit first)를 갖는 부호화되지 않은 정수 Exp-Golomb-코딩된 문법 소자이며, 여기서 이러한 기술어를 위한 구문분석(parsing) 프로세스는 H.264 표준의 섹션 9.1에 특정되며; se(v)는 레프트 비트 퍼스트를 갖는 부호화된 정수 Exp-Golomb-코딩된 문법 소자이며, 여기서 이러한 기술어를 위한 구문분석 프로세스는 H.264 표준의 섹션 9.1에 특정된다.
전술한 바와 같이, 인코더 또는 기타 디바이스는 인코딩되는 현재의 영상으로부터 기준 영상 데이터로 다수의 상이한 필터를 인가할 수 있다. 인코더는 현재의 영상의 인트라 프레임 예측을 수행하기 위해 하나 이상의 필터 유형을 이용할 수 있다. 예를 들어, 인코더는 미디언 필터를 이용하는 현재의 영상을 위해 제 1 기준을 생성할 수 있다. 인코더는 또한 기하 평균 필터를 이용하는 제 2 기준을 생성하고, 비너 필터 등을 이용하는 제 3 기준을 생성한다. 이러한 방법에 있어서, 구현은 현재의 영상의 어떠한 주어진 MB, 또는 영역을 위해 사용하기 위해 어느 기준(어느 필터)인지를 적응적으로 결정하는 인코더를 제공할 수 있다. 예를 들어, 인코더는 현재의 영상의 처음 절반을 위해 미디언 필터 기준을 이용하며, 현재의 영상의 제 2 절반을 위해 기하-평균 필터 기준을 이용한다.
완전을 위해, 본 발명의 원리들에 따라서 비디오 코딩 층(160)의 보다 상세한 블록도가 도 14에 도시된다. 본 발명적 개념을 제외하고, 도 14에 도시된 소자는 종래 기술에 알려진 바와 같이 H.264-기반 인코더를 나타내며 본 명세서에 보다 상세히 기술되지 않는다. 주목해야 할 것은 인코더 제어(77)는 단순화된 방식으로 도 14 내의 모든 소자의 제어를 나타내기 위해 점선 형태로 도시된다(인코더 제 어(77)와 도 14의 다른 소자들 간의 개별적인 제어/신호 경로를 도시). 이와 관련하여, 주목해야 할 것은 DIP 또는 TM 인트라 프레임 예측 동안, 각각의 인코딩된 MB가 스위치(80)를 경유하여 기준 영상 버퍼(70)로 신호 경로(62)를 경유하여 제공된다(이것은 인코더 제어(77)의 제어하에 존재한다). 본 발명의 원리들에 따라서, 인코더 제어(77)는 적응 기준 영상 데이터(206)를 제공하기 위해 스위치(85)를 추가적으로 제어하며, 하나 보다 많은 프로세싱 기법을 이용할 수 있으면, 기준 프로세싱 유닛(205)에 의해 사용하기 위한 필터 유형의 선택을 제어한다. 본 발명의 원리들에 따라서 DIP 또는 TM 인트라 프레임 예측을 수행할 때 비디오 코딩 층(160) 내의 데이터 흐름의 보다 단순화된 도면이 도 15에 도시된다.
도 16을 참조하면, 본 발명의 원리들에 따라서 예시적인 흐름도가 도 10의 비디오 신호(149)의 적어도 하나의 영상, 또는 프레임의 인트라 프레임 예측을 수행하기 위해 도 10의 비디오 코딩 층(160)에서 사용하기 위해 도시된다. 일반적으로, 종래 기술에 잘 알려진 바와 같이, (도시되지 않은) 현재의 영상이 다수의 매크로블록들(MBs)로 분할된다. 이러한 예에서, 이장 인트라 예측(DIP)이 인트라 프레임 예측을 위해 사용되는 것으로 가정된다. 유사한 프로세싱이 본 발명의 원리들에 따라서 TM을 위해 수행되며, 그래서, 본 명세서에 기술되지 않는다. 전술한 바와 같이, DIP는 매크로블록 기초에서 구현된다. 특히, 단계(305)에서, 초기화는 현재의 영상의 인트라 프레임 예측을 위해 발생한다. 예를 들어, 현재의 영상을 위한 MB들의 수, N이 결정되고, 루프 파라미터, i, 는 0으로 설정되며(여기서 0≤i≤N) 기준 영상 버퍼가 초기화된다. 단계(310)에서, 루프 파라미터(i)의 값이 체크되어 MB들의 모두가 처리되었는지를 판단하며, 이러한 경우 루틴이 존재하거나, 종료된다. 그렇지 않다면, 각각의 MB를 위해 단계(315 내지 330)가 실행되어 현재의 영상을 위한 인트라 프레임 예측을 수행한다. 단계(315)에서, 기준 영상 버퍼는 ith-1 코딩된 MB로부터의 데이터에 의해 갱신된다. 예를 들어, 기준 영상 버퍼내에 저장된 데이터는 ith-1 DIP 코딩된 MB로부터의 코딩되지 않은 픽셀을 나타낸다. 단계(330)에서, 그리고 본 발명의 원리들에 따라서, 전술한 바와 같이, 적응 기준 영상 데이터,
Figure 112009063494582-PCT00001
이 ith-1 코딩된 MB로부터 생성된다(예를 들어, 도 11의 기준 프로세싱 유닛(205)과 도 12의 표 1을 참조). 단계(325와 330)에서, DIP가 수행되고 적응 기준 영상 데이터,
Figure 112009063494582-PCT00002
를 이용하여 최상의 기준 색인(index)(단계 325)을 탐색하며, 일단 발견되면, 최상의 기준 색인(단계 330)에 의해 ith MB를 인코드한다.
도 17을 참조하면, 본 발명의 원리들에 따른 디바이스(405)의 또 다른 예시적인 실시예가 도시된다. 디바이스(405)는 어떠한 프로세서-기반 플랫폼, 예를 들어, PC, 서버, PDA, 셀룰러 전화 등을 나타낸다. 이와 관련하여, 디바이스(405)는 (도시되지 않은)연관된 메모리를 갖는 하나 이상의 프로세서를 포함한다. 디바이스(405)는 본 발명의 개념에 따라서 수정된 확장형 H.264 디코더(450)를 포함한다(이후 디코더(450)로서 지칭됨). 본 발명적 개념을 제외하고, 디코더(450)는 (전술 한)ITU-T H.264를 따르고 또한 이장 인트라 예측(DIP)과 템플릿 매칭(TM) 제안형 확장의 전술한 인트라 프레임 예측 기법을 지원한다. 디코더(450)는 인코딩된 비디오 신호(449)(예를 들어, 이것은 입력 신호(404)로부터 유도된다)를 수신하고 디코딩된 비디오 신호(451)를 제공한다. 후자는 출력 신호(406)의 일부로서 포함될 수 있으며, 이것은 디바이스(405)로부터 예를 들어 다른 디바이스, 또는 네트워크(유선, 무선 등)로의 출력 신호를 나타낸다. 주목해야 할 것은 비록 도 17이 디코더(450)가 디바이스(405)의 일부인 것으로 도시되지만, 본 발명은 이에 제한되지 않고 디코더(450)는 디바이스(405)의 외부, 예를 들어, 물리적으로 인접하거나, 또는 디바이스(405)가 디코딩된 비디오 신호를 제공하기 위해 디코더(450)를 이용할 수 있도록 네트워크(케이블, 인터넷, 셀룰러 등)에 걸쳐 배치될 수 있다.
완전을 위해, 본 발명의 원리들에 따라서 디코더(450)의 보다 상세한 블록도가 도 18에 도시된다. 본 발명적 개념을 제외하고, 도 18에 도시된 소자는 종래 기술의 H.264-기반 디코더를 나타내며 본 명세서에 더 이상 기술되지 않는다. 디코더(450)는 전술한 비디오 코딩 층(160)의 것에 대해 보조적인 방식으로 수행된다. 디코더(450)는 입력 비트스트림(449)을 수신하고 출력 영상(451)으로부터 복구된다. 주목해야 할 것은 디코더 제어(97)가 단순한 방식으로 도 18 내의 모든 소자의 제어를 나타내기 위해 점선 형태로 도시된다는 것이다(디코더 제어(97)와 도 18의 다른 소자들간의 개별적인 제어/신호 경로를 도시). 이와 관련하여, 주목해야 할 것은 DIP 또는 TM 인트라 프레임 예측 동안, 각각의 인코딩된 MB는 신호 경로(462)를 경유하여 스위치(80)를 경유하여 기준 영상 버퍼(70)에 제공되며(이것은 디코더 제어(97)의 제어하에 존재한다). 본 발명의 원리들에 따라서, 디코더 제어(97)는 추가적으로 적응 기준 영상 데이터(206)를 제공하기 위해, 그리고 하나 보다 많은 프로세싱 기법이 이용가능하고, 기준 프로세싱 유닛(205)에 의한 사용을 위한 필터 유형의 선택이면 스위치(485)를 추가적으로 제어한다. 상기해야 할 것은 하나 보다 많은 필터 유형이 존재하면, 디코더(450)는 필터 유형을 결정하기 위해, 예를 들어, 수신된 슬라이스 헤더로부터 기준 목록을 검색한다. 본 발명의 원리들에 따라서 DIP 또는 TM 인트라 프레임 예측을 수행할 때 디코더(450) 내의 데이터 흐름의 보다 간단한 도면이 도 19에 도시된다.
도 20을 참조하면, 본 발명의 원리들에 따른 예시적인 흐름도가 도 17의 디코더(450)에서 사용하기 위해 도시된다. 도 20의 흐름도는 비디오 신호를 인코딩하기 위해 도 16에 도시된 것에 보완적이다. 다시 말하면, 이장 인트라 예측(DIP)이인트라 프레임 예측을 위해 사용된다고 가정된다. 유사한 프로세싱이 본 발명의 원리들에 따라서 TM을 위해 수행되며, 그래서 본 명세서에 기술되지 않는다. 전술한 바와 같이, DIP는 매크로블록에 기초하여 구현된다. 특히, 단계(505)에서, 초기화는 현재의 영상의 인트라 프레임 예측을 위해 발생한다. 예를 들어, 현재의 영상을 위한 MB들의 수(N)가 결정되며, 루프 파라미터(i)는 0으로 설정되며(여기서 0≤i≤N), 기준 영상 버퍼가 초기화된다. 단계(510)에서, 루프 파라미터(i)의 값은 MB들의 모두가 처리되는지를 판단하기 위해 체크되며, 이 경우에 있어서 루틴은 탈출, 또는 종료한다. 다른 경우에, 각각의 MB에 대해 단계(515 내지 530)는 현재의 영상을 위한 인트라 프레임 예측을 수행하기 위해 실행된다. 단계(515)에서, 기준 영상 버퍼는 ith-1 코딩된 MB로부터의 데이터에 의해 갱신된다. 예를 들어, 기준 영상 버퍼내에 저장된 데이터는 ith-1 DIP 코딩된 MB로부터의 코딩되지 않은 픽셀을 나타낸다. 단계(520)에서, 그리고 본 발명의 원리들에 따라서, 전술한 바와 같이, 적응 기준 영상 데이터,
Figure 112009063494582-PCT00003
이 ith-1 코딩된 MB로부터 생성된다(예를 들어, 도 18의 기준 프로세싱 유닛(205)과 도 12의 표 1과 도 13의 표 2를 참조). 상기해야 할 것은 하나 보다 많은 필터 유형이 존재하면, 디코더(450)는 필터 유형을 결정하기 위해, 예를 들어, 검색된 슬라이스 헤더로부터 기준 목록을 검색한다. 단계(530)에서, MB는 DIP에 따라서 디코딩된다.
본 발명의 원리들에 따른 예시적인 실시예가 도 21 내지 도 26에 도시된다. 도 21 내지 도 23은 다른 인코더 변화를 도시한다. 도 12의 표 1로부터 관측될 수 있는 바와 같이, 기준 프로세싱 유닛(205)은 디블로킹 필터를 포함할 수 있다. 그래서, 개별적인 디블로킹 필터(65)는 인코더로부터 제거될 수 있으며 기준 프로세싱 유닛(205)의 디블로킹 필터가 자신의 장소에서 사용될 수 있다. 이러한 변화는 도 21의 인코더(600)에 도시된다. 인코더(600)에 대한 추가적인 변경이 도 22의 인코더(620)에 도시된다. 본 실시예에서, 기준 영상 버퍼(70)가 제거되며 기준 프로세싱 유닛(205)은 실시간으로 동작한다. 최종적으로, 도 23의 인코더(640)에 의해 예시된 실시예는 모든 MB들을 위한 디블로킹 필터(65)의 사용을 예시한다. 전형적으로, 종래기술에 알려진 바와 같이, 디블로킹 필터(65)는 전반적인 슬라이스 후에 사용되고/또는 영상은 종료된 디코딩(즉, 슬라이스-기반 및/또는 MB에 기초하지 않은 영상-기반) 또는 싱글 MB이다. 대조적으로, 인코더(640)는 모든 MB들에 대해 디블로킹 필터를 사용한다. 그래서, 기준 프로세싱 유닛(205)이 제거된다. 도 24 내지 도 26을 참조하면, 이들 도면은 디코더에 대한 유사한 변경을 예시한다. 예를 들어, 도 24의 디코더(700)는 도 21의 인코더(600)와 유사하며, 즉, 기준 프로세싱 유닛(205)의 디블로킹 필터가 개별적인 디블로킹 필터를 대신하여 사용된다. 도 25의 디코더(720)는 도 22의 인코더(620)와 유사하다, 즉, 기준 영상 버퍼(70)가 제거되며 기준 프로세싱 유닛(205)은 실시간으로 동작한다. 최종적으로, 도 26의 디코더(740)는 도 23의 인코더(640)와 유사하다, 즉, 디블로킹 필터가 모든 MB들을 위해 사용된다.
전술한 바와 같이, 그리고 본 발명의 원리들에 따라서, 적응 기준 영상 데이터가 인트라 예측에서 사용하기 위해 적응적으로 생성된다. 주목해야 할 것은 본 발명의 개념이 H.264의 DIP 및/또는 TM 확장의 맥락에서 예시되었다고 하더라도, 본 발명적 개념은 이에 제한되지 않으며 비디오 인코딩의 다른 유형들에 적용할 수 있다.
상기 도면에서, 전술한 것은 단지 본 발명의 원리들을 예시하는 것이며 따라서 당업자가 비록 본 명세서에 명확하게 기술되지 않았다고 하더라도 본 발명의 원리들을 구현하고 본 발명의 범주내에 있는 수 많은 대안적인 배치를 고안할 수 있다는 것이 이해될 것이다. 예를 들어, 개별적인 기능적 소자의 맥락에서 예시되었다고 하더라도, 이들 기능적 소자는 하나 이상의 집적 회로들(ICs)내에 구현될 수 있다. 유사하게, 비록 개별적인 소자로서 도시되었지만, 소자의 어떠한 또는 모두는 저장된-프로그램-제어형 프로세서, 예를 들어, 디지털 신호 프로세서내에서 구현될 수 있으며, 이것은, 예를 들어, 도 16 및 도 20 등에 도시된 하나 이상의 단계에 대응하는 연관된 소프트웨어를 실행한다. 더욱이, 본 발명의 원리들은 다른 유형의 통신 시스템, 예를 들어, 위성, 위피(Wi-Fi), 셀룰러 등에 적용가능하다. 실제로, 본 발명적 개념은 또한 고정 또는 이동 수신기에 적용할 수 있다. 따라서, 수 많은 변경이 예시적인 실시예에 대해 이루어질 수 있으며 다른 배치가 첨부된 청구항에 의해 정의된 바와 같이 본 발명의 사상 및 범주를 벗어남이 없이 고안될 수 있다는 것이 이해될 것이다.

Claims (63)

  1. 비디오 인코딩에서 사용하기 위한 방법에 있어서,
    현재의 영상의 사전 코딩된 매크로블록들(macroblocks)로부터 적응 기준 영상 데이터(adaptive reference picture data)를 생성하기 위한 단계; 및
    상기 적응 기준 영상 데이터로부터 상기 현재의 영상의 인코딩되지 않은 매크로블록들을 예측하는 단계를 포함하는, 비디오 인코딩에서 사용하기 위한 방법.
  2. 제 1 항에 있어서,
    상기 생성 단계는 상기 적응 기준 영상 데이터를 생성하기 위한 필터를 사용하는 단계를 포함하는, 비디오 인코딩에서 사용하기 위한 방법.
  3. 제 1 항에 있어서,
    상기 현재의 영상의 상기 사전 코딩된 매크로블록들을 저장하는 단계를 더 포함하고,
    상기 현재의 영상의 상기 저장된 사전 코딩된 매크로블록들은 상기 생성 단계에서 사용하기 위한, 비디오 인코딩에서 사용하기 위한 방법.
  4. 제 1 항에 있어서,
    상기 예측 단계는 상기 적응 기준 영상 데이터를 사용한 인트라 프레임 예 측(intra frame prediction) 코딩을 수행하는 단계를 더 포함하고,
    상기 수행 단계는 현재의 매크로블록을 예측하기 위한 상기 현재의 영상의 사전 코딩된 영역들을 탐색하는, 비디오 인코딩에서 사용하기 위한 방법.
  5. 제 4 항에 있어서,
    상기 수행 단계는 상기 현재의 영상의 적어도 몇몇에 이장 인트라 예측(displaced intra prediction : DIP)을 수행하는 단계를 포함하는, 비디오 인코딩에서 사용하기 위한 방법.
  6. 제 4 항에 있어서,
    상기 수행 단계는 상기 현재의 영상의 적어도 몇몇에 템플릿 매칭(template matching : TM)을 수행하는 단계를 포함하는, 비디오 인코딩에서 사용하기 위한 방법.
  7. 제 1 항에 있어서,
    상기 생성 단계는,
    복수의 필터 유형들 중 하나를 선택하는 단계; 및
    상기 선택된 필터 유형에 따라서 상기 적응 기준 영상 데이터를 생성하는 단계를 포함하는, 비디오 인코딩에서 사용하기 위한 방법.
  8. 제 7 항에 있어서,
    상기 선택된 필터 유형은 디블로킹(deblocking) 필터인, 비디오 인코딩에서 사용하기 위한 방법.
  9. 제 7 항에 있어서,
    상기 선택된 필터 유형은 상기 변환 도메인(transform domain)에서 동작하는, 비디오 인코딩에서 사용하기 위한 방법.
  10. 제 7 항에 있어서,
    상기 선택된 필터 유형은 미디언(median) 필터인, 비디오 인코딩에서 사용하기 위한 방법.
  11. 제 7 항에 있어서,
    디코더에 의해 사용하기 위한 기준 목록을 형성하는 단계를 더 포함하고,
    상기 기준 목록들은 인코딩되는 상기 현재의 영상을 디코딩할 때 사용하기 위한 선택된 필터 유형들을 식별하는, 비디오 인코딩에서 사용하기 위한 방법.
  12. 프로세서-기반 시스템이 실행될 때 비디오 인코딩을 위한 방법을 수행하도록 상기 프로세서-기반 시스템을 위한 컴퓨터-실행가능 명령들을 갖는 컴퓨터-판독가능 매체에 있어서, 상기 방법은,
    현재의 영상의 사전 코딩된 매크로블록들로부터 적응 기준 영상 데이터를 생성하는 단계; 및
    상기 적응 기준 영상 데이터로부터 상기 현재의 영상의 코딩되지 않은 매크로블록들을 예측하는 단계를 포함하는, 컴퓨터-판독가능 매체.
  13. 제 12 항에 있어서,
    상기 생성 단계는 상기 적응 기준 영상 데이터를 생성하기 위한 필터를 사용하는 단계를 포함하는, 컴퓨터-판독가능 매체.
  14. 제 12 항에 있어서,
    상기 방법은,
    상기 현재의 영상의 상기 사전 코딩된 매크로블록들을 저장하는 단계를 더 포함하고,
    상기 현재의 영상의 상기 저장된 사전 코딩된 매크로블록들은 상기 생성 단계에서 사용하기 위한, 컴퓨터-판독가능 매체.
  15. 제 12 항에 있어서,
    상기 예측 단계는,
    상기 적응 기준 영상 데이터를 사용한 인트라 프레임 예측 코딩을 수행하는 단계를 더 포함하고,
    상기 수행 단계는 현재의 매크로블록을 예측하기 위해 상기 현재의 영상의 사전 코딩된 영역들을 탐색하는, 컴퓨터-판독가능 매체.
  16. 제 15 항에 있어서,
    상기 수행 단계는 상기 현재의 영상의 적어도 몇몇에 이장 인트라 예측을 수행하는 단계를 포함하는, 컴퓨터-판독가능 매체.
  17. 제 15 항에 있어서,
    상기 수행 단계는 상기 현재의 영상의 적어도 몇몇에 템플릿 매칭을 수행하는 단계를 포함하는, 컴퓨터-판독가능 매체.
  18. 제 12 항에 있어서,
    상기 생성 단계는,
    복수의 필터 유형들 중 하나를 선택하는 단계; 및
    상기 선택된 필터 유형에 따라서 상기 적응 기준 영상 데이터를 생성하는 단계를 포함하는, 컴퓨터-판독가능 매체.
  19. 제 18 항에 있어서,
    상기 선택된 필터 유형은 디블로킹 필터인, 컴퓨터-판독가능 매체.
  20. 제 18 항에 있어서,
    상기 선택된 필터 유형은 상기 변환 도메인에서 동작하는, 컴퓨터-판독가능 매체.
  21. 제 18 항에 있어서,
    상기 선택된 필터 유형은 미디언 필터인, 컴퓨터-판독가능 매체.
  22. 제 18 항에 있어서,
    상기 방법은 디코더에 의해 사용하기 위한 기준 목록을 형성하는 단계를 더 포함하고,
    상기 기준 목록들은 인코딩되는 상기 현재의 영상을 디코딩할 때 사용하기 위해 선택된 필터 유형들을 식별하는, 컴퓨터-판독가능 매체.
  23. 비디오 인코딩에서 사용하기 위한 장치에 있어서,
    인코딩되는 현재의 영상의 사전 코딩된 매크로블록들을 저장하기 위한 버퍼; 및
    상기 현재의 영상의 상기 사전 코딩된 매크로블록들로부터 적응 기준 영상 데이터를 생성하기 위한 프로세서를 포함하고,
    상기 적응 기준 영상 데이터는 상기 현재의 영상의 코딩되지 않은 매크로블록들을 예측할 때 사용하는, 비디오 인코딩에서 사용하기 위한 장치.
  24. 제 23 항에 있어서,
    상기 프로세서는 상기 적응 기준 영상 데이터를 생성하기 위한 디블로킹 필터를 사용하는, 비디오 인코딩에서 사용하기 위한 장치.
  25. 제 23 항에 있어서,
    상기 프로세서는 현재의 매크로블록을 예측하기 위해 상기 현재의 영상의 사전 코딩된 영역들을 탐색함으로써 상기 적응 기준 영상 데이터를 사용하는 인트라 프레임 예측 코딩을 수행하는, 비디오 인코딩에서 사용하기 위한 장치.
  26. 제 25 항에 있어서,
    상기 프로세서는 상기 현재의 영상의 적어도 몇몇에 이장 인트라 예측을 수행하는, 비디오 인코딩에서 사용하기 위한 장치.
  27. 제 25 항에 있어서,
    상기 프로세서는 상기 현재의 영상의 적어도 몇몇에 템플릿 매칭을 수행하는, 비디오 인코딩에서 사용하기 위한 장치.
  28. 제 23 항에 있어서,
    상기 프로세서는 복수의 필터 유형들 중 하나를 선택하고,
    상기 선택된 필터 유형에 따라서 상기 적응 기준 영상 데이터를 생성하는, 비디오 인코딩에서 사용하기 위한 장치.
  29. 제 28 항에 있어서,
    상기 선택된 필터 유형은 디블로킹 필터인, 비디오 인코딩에서 사용하기 위한 장치.
  30. 제 28 항에 있어서,
    상기 선택된 필터 유형은 상기 변환 도메인에서 동작하는, 비디오 인코딩에서 사용하기 위한 장치.
  31. 제 28 항에 있어서,
    상기 선택된 필터 유형은 미디언 필터인, 비디오 인코딩에서 사용하기 위한 장치.
  32. 제 28 항에 있어서,
    상기 프로세서는 디코더에 의해 사용하기 위한 기준 목록을 형성하고,
    상기 기준 목록은 인코딩되는 상기 현재의 영상을 디코딩할 때 사용하기 위한 선택된 필터 유형들을 식별하는, 비디오 인코딩에서 사용하기 위한 장치.
  33. 제 23 항에 있어서,
    상기 장치는 H.264 비디오 인코딩에 따라서 비디오 인코딩을 수행하는, 비디오 인코딩에서 사용하기 위한 장치.
  34. 비디오 디코딩에서 사용하기 위한 방법에 있어서,
    현재의 영상의 사전 코딩된 매크로블록들로부터 적응 기준 영상 데이터를 생성하는 단계; 및
    상기 적응 기준 영상 데이터로부터 상기 현재의 영상의 매크로블록들을 디코딩하는 단계를 포함하는, 비디오 디코딩에서 사용하기 위한 방법.
  35. 제 34 항에 있어서,
    상기 생성 단계는 상기 적응 기준 영상 데이터를 생성하기 위한 필터를 사용하는 단계를 포함하는, 비디오 인코딩에서 사용하기 위한 방법.
  36. 제 34 항에 있어서,
    상기 현재의 영상의 상기 사전 코딩된 매크로블록들을 저장하는 단계를 더 포함하고,
    상기 현재의 영상의 상기 저장된 사전 코딩된 매크로블록들은 상기 생성 단계에서 사용하기 위한, 비디오 인코딩에서 사용하기 위한 방법.
  37. 제 34 항에 있어서,
    상기 디코딩 단계는 상기 적응 기준 영상 데이터를 사용한 인트라 프레임 예측을 수행하는 단계를 더 포함하고,
    상기 수행 단계는 현재의 매크로블록을 디코딩하기 위해 상기 현재의 영상의 사전 코딩된 영역들을 탐색하는, 비디오 인코딩에서 사용하기 위한 방법.
  38. 제 37 항에 있어서,
    상기 수행 단계는 상기 현재의 영상의 적어도 몇몇에 이장 인트라 예측을 수행하는 단계를 포함하는, 비디오 인코딩에서 사용하기 위한 방법.
  39. 제 37 항에 있어서,
    상기 수행 단계는 상기 현재의 영상의 적어도 몇몇에 매칭하는 템플릿 매칭을 수행하는 단계를 포함하는, 비디오 인코딩에서 사용하기 위한 방법.
  40. 제 34 항에 있어서,
    상기 생성 단계는,
    상기 적응 기준 영상 데이터를 생성할 때 사용하기 위해 적어도 하나의 필터 유형을 식별하는 기준 목록을 수신하는 단계; 및
    상기 식별된 필터 유형에 따라서 상기 적응 기준 영상 데이터를 생성하는 단계를 포함하는, 비디오 인코딩에서 사용하기 위한 방법.
  41. 제 40 항에 있어서,
    상기 필터 유형은 디블로킹 필터인, 비디오 인코딩에서 사용하기 위한 방법.
  42. 제 40 항에 있어서,
    상기 필터 유형은 상기 변환 영역에서 동작하는, 비디오 인코딩에서 사용하기 위한 방법.
  43. 제 40 항에 있어서,
    상기 필터 유형은 미디언 필터인, 비디오 인코딩에서 사용하기 위한 방법.
  44. 프로세서-기반 시스템이 실행될 때 비디오 디코딩을 위한 방법을 수행하도록 상기 프로세서-기반 시스템을 위한 컴퓨터-실행가능 명령들을 갖는 컴퓨터-판독가능 매체에 있어서,
    현재의 영상의 사전 코딩된 매크로블록들로부터 적응 기준 영상 데이터를 생성하는 단계; 및
    상기 적응 기준 영상 데이터로부터 상기 현재의 영상의 매크로블록들을 디코딩하는 단계를 포함하는, 컴퓨터-판독가능 매체.
  45. 제 44 항에 있어서,
    상기 생성 단계는 상기 적응 기준 영상 데이터를 생성하기 위해 필터를 사용하는 단계를 포함하는, 컴퓨터-판독가능 매체.
  46. 제 44 항에 있어서,
    상기 방법은 상기 현재의 영상의 상기 사전 코딩된 매크로블록들을 저장하는 단계를 더 포함하고,
    상기 현재의 영상의 상기 저장된 사전 코딩된 매크로블록들은 상기 생성 단계에서 사용하기 위한, 컴퓨터-판독가능 매체.
  47. 제 44 항에 있어서,
    상기 디코딩 단계는 상기 적응 기준 영상 데이터를 사용한 인트라 프레임 예측 디코딩을 수행하는 단계를 더 포함하고,
    상기 수행 단계는 현재의 매크로블록을 디코딩하기 위한 상기 현재의 영상의 사전 코딩된 영역들을 탐색하는, 컴퓨터-판독가능 매체.
  48. 제 47 항에 있어서,
    상기 수행 단계는 상기 현재의 영상의 적어도 몇몇에 이장 인트라 예측을 수행하는 단계를 포함하는, 컴퓨터-판독가능 매체.
  49. 제 47 항에 있어서,
    상기 수행 단계는 상기 현재의 영상의 적어도 몇몇에 템플릿 매칭을 수행하는 단계를 포함하는, 컴퓨터-판독가능 매체.
  50. 제 44 항에 있어서,
    상기 생성 단계는,
    상기 적응 기준 영상 데이터를 생성할 때 사용하기 위해 적어도 하나의 필터 유형을 식별하는 기준 목록을 수신하는 단계; 및
    상기 식별된 필터 유형에 따라서 상기 적응 기준 영상 데이터를 생성하는 단계를 포함하는, 컴퓨터-판독가능 매체.
  51. 제 50 항에 있어서,
    상기 필터 유형은 디블로킹 필터인, 컴퓨터-판독가능 매체.
  52. 제 50 항에 있어서,
    상기 필터 유형은 상기 변환 도메인에서 동작하는, 컴퓨터-판독가능 매체.
  53. 제 50 항에 있어서,
    상기 필터 유형은 미디언 필터인, 컴퓨터-판독가능 매체.
  54. 비디오 디코딩에서 사용하기 위한 장치에 있어서,
    디코딩되는 현재의 영상의 사전 코딩된 매크로블록들을 저장하기 위한 버퍼; 및
    상기 현재의 영상의 상기 사전 코딩된 매크로블록들로부터 적응 기준 영상 데이터를 생성하기 위한 프로세서를 포함하고,
    상기 적응 기준 영상 데이터는 상기 현재의 영상의 매크로블록을 디코딩할 때 사용하기 위한, 비디오 디코딩에서 사용하기 위한 장치.
  55. 제 54 항에 있어서,
    상기 프로세서는 상기 적응 기준 영상 데이터를 생성하기 위한 디블로킹 필터를 사용하는, 비디오 디코딩에서 사용하기 위한 장치.
  56. 제 54 항에 있어서,
    상기 프로세서는 현재의 매크로블록을 디코딩하기 위해 상기 현재의 영상의 사전 코딩된 영역들을 탐색함으로써 상기 적응 기준 영상 데이터를 이용한 인트라 프레임 예측 디코딩을 수행하는, 비디오 디코딩에서 사용하기 위한 장치.
  57. 제 56 항에 있어서,
    상기 프로세서는 상기 현재의 영상의 적어도 몇몇에 이장 인트라 예측을 수행하는, 비디오 디코딩에서 사용하기 위한 장치.
  58. 제 56 항에 있어서,
    상기 프로세서는 상기 현재의 영상의 적어도 몇몇에 템플릿 매칭을 수행하는, 비디오 디코딩에서 사용하기 위한 장치.
  59. 제 54 항에 있어서,
    상기 프로세서는 상기 적응 기준 영상 데이터를 생성할 때 사용하기 위한 적어도 하나의 필터 유형을 식별하는 기준 목록에 응답하고, 상기 프로세서는 상기 식별된 필터 유형에 따라서 상기 적응 기준 영상 데이터를 생성하는, 비디오 디코딩에서 사용하기 위한 장치.
  60. 제 59 항에 있어서,
    상기 필터 유형은 디블로킹 필터인, 비디오 디코딩에서 사용하기 위한 장치.
  61. 제 59 항에 있어서,
    상기 필터 유형은 상기 변환 도메인에서 동작하는, 비디오 디코딩에서 사용하기 위한 장치.
  62. 제 59 항에 있어서,
    상기 필터 유형은 미디언 필터인, 비디오 디코딩에서 사용하기 위한 장치.
  63. 제 54 항에 있어서,
    상기 장치는 H.264 비디오 디코딩에 따라서 비디오 디코딩을 수행하는, 비디오 디코딩에서 사용하기 위한 장치.
KR1020097021649A 2007-04-18 2007-06-25 인트라 예측을 위한 적응 기준 영상 데이터 생성 KR20100027096A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US60/925,351 2007-04-18
US92535107P 2007-04-19 2007-04-19

Publications (1)

Publication Number Publication Date
KR20100027096A true KR20100027096A (ko) 2010-03-10

Family

ID=39430980

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097021649A KR20100027096A (ko) 2007-04-18 2007-06-25 인트라 예측을 위한 적응 기준 영상 데이터 생성

Country Status (7)

Country Link
US (1) US20100118940A1 (ko)
EP (1) EP2145482A1 (ko)
JP (1) JP2010525658A (ko)
KR (1) KR20100027096A (ko)
CN (1) CN101682784A (ko)
TW (1) TW200920143A (ko)
WO (1) WO2008130367A1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012023762A3 (ko) * 2010-08-17 2012-04-12 Oh Soo Mi 인트라 예측 복호화 방법
WO2012018198A3 (ko) * 2010-07-31 2012-04-12 Oh Soo-Mi 예측 블록 생성 장치
WO2012018197A3 (ko) * 2010-07-31 2012-04-12 Oh Soo-Mi 인트라 예측 복호화 장치
US11284072B2 (en) 2010-08-17 2022-03-22 M&K Holdings Inc. Apparatus for decoding an image

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8094711B2 (en) * 2003-09-17 2012-01-10 Thomson Licensing Adaptive reference picture generation
CN101222641B (zh) * 2007-01-11 2011-08-24 华为技术有限公司 帧内预测编解码方法及其装置
KR101655444B1 (ko) * 2008-04-11 2016-09-22 톰슨 라이센싱 변위된 인트라 예측과 템플릿 매칭을 위한 디블록 필터링
EP2266321B1 (en) * 2008-04-23 2017-12-13 Telefonaktiebolaget LM Ericsson (publ) Template-based pixel block processing
JP2012510202A (ja) * 2008-11-25 2012-04-26 トムソン ライセンシング ビデオ符号化および復号のためのスパース性に基づくアーティファクト除去フィルタリングを行う方法および装置
WO2011050998A1 (en) 2009-10-29 2011-05-05 Thomas Sikora Method and device for processing a video sequence
US8897585B2 (en) 2009-11-05 2014-11-25 Telefonaktiebolaget L M Ericsson (Publ) Prediction of pixels in image coding
JP5321439B2 (ja) * 2009-12-15 2013-10-23 株式会社Jvcケンウッド 画像符号化装置、画像復号化装置、画像符号化方法、及び、画像復号化方法
EP2559239A2 (en) 2010-04-13 2013-02-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus for intra predicting a block, apparatus for reconstructing a block of a picture, apparatus for reconstructing a block of a picture by intra prediction
KR20110123651A (ko) 2010-05-07 2011-11-15 한국전자통신연구원 생략 부호화를 이용한 영상 부호화 및 복호화 장치 및 그 방법
KR101396754B1 (ko) * 2010-11-08 2014-05-28 한국전자통신연구원 템플릿 매칭 및 방향 예측을 사용한 비디오 압축 방법 및 장치
MX2014000159A (es) 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
KR20130049524A (ko) 2011-11-04 2013-05-14 오수미 인트라 예측 블록 생성 방법
US10390016B2 (en) 2011-11-04 2019-08-20 Infobridge Pte. Ltd. Apparatus of encoding an image
EP2595382B1 (en) 2011-11-21 2019-01-09 BlackBerry Limited Methods and devices for encoding and decoding transform domain filters
TWI556629B (zh) * 2012-01-03 2016-11-01 杜比實驗室特許公司 規定視覺動態範圍編碼操作及參數
US9729870B2 (en) * 2012-01-31 2017-08-08 Apple Inc. Video coding efficiency with camera metadata
WO2014002469A1 (en) * 2012-06-25 2014-01-03 Sharp Kabushiki Kaisha Method for signaling a gradual temporal layer access picture
GB2504069B (en) * 2012-07-12 2015-09-16 Canon Kk Method and device for predicting an image portion for encoding or decoding of an image
US10015515B2 (en) * 2013-06-21 2018-07-03 Qualcomm Incorporated Intra prediction from a predictive block
EP3058736B1 (en) 2013-10-14 2019-02-27 Microsoft Technology Licensing, LLC Encoder-side options for intra block copy prediction mode for video and image coding
AU2013403224B2 (en) 2013-10-14 2018-10-18 Microsoft Technology Licensing, Llc Features of intra block copy prediction mode for video and image coding and decoding
KR102258427B1 (ko) 2014-01-03 2021-06-01 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 비디오 및 이미지 코딩/디코딩에서의 블록 벡터 예측
US11284103B2 (en) 2014-01-17 2022-03-22 Microsoft Technology Licensing, Llc Intra block copy prediction with asymmetric partitions and encoder-side search patterns, search ranges and approaches to partitioning
US10432928B2 (en) * 2014-03-21 2019-10-01 Qualcomm Incorporated Using a current picture as a reference for video coding
CN105338351B (zh) 2014-05-28 2019-11-12 华为技术有限公司 基于模板匹配的帧内预测编、解码、阵列扫描方法及装置
EP4354856A2 (en) 2014-06-19 2024-04-17 Microsoft Technology Licensing, LLC Unified intra block copy and inter prediction modes
CN105282558B (zh) * 2014-07-18 2018-06-15 清华大学 帧内像素预测方法、编码方法、解码方法及其装置
RU2679201C2 (ru) 2014-09-30 2019-02-06 МАЙКРОСОФТ ТЕКНОЛОДЖИ ЛАЙСЕНСИНГ, ЭлЭлСи Правила для режимов внутрикадрового прогнозирования, когда активируется волновая параллельная обработка данных
CN115499663A (zh) * 2015-06-08 2022-12-20 上海天荷电子信息有限公司 单编码模式参考不同程度重构像素的图像压缩方法和装置
WO2017142449A1 (en) * 2016-02-17 2017-08-24 Telefonaktiebolaget Lm Ericsson (Publ) Methods and devices for encoding and decoding video pictures
KR102581438B1 (ko) * 2017-01-12 2023-09-21 삼성전자주식회사 무선 디스플레이 서브시스템 및 시스템-온-칩
US10757442B2 (en) * 2017-07-05 2020-08-25 Qualcomm Incorporated Partial reconstruction based template matching for motion vector derivation
JP6503101B2 (ja) * 2018-02-23 2019-04-17 マイクロソフト テクノロジー ライセンシング,エルエルシー イントラブロックコピー予測におけるブロック反転及びスキップモード

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5526054A (en) * 1995-03-27 1996-06-11 International Business Machines Corporation Apparatus for header generation
US5832135A (en) * 1996-03-06 1998-11-03 Hewlett-Packard Company Fast method and apparatus for filtering compressed images in the DCT domain
US5790196A (en) * 1997-02-14 1998-08-04 Mitsubishi Electric Information Technology Center America, Inc. Adaptive video coding method
AUPR133700A0 (en) * 2000-11-09 2000-11-30 Mediaware Solutions Pty Ltd Transition templates for compressed digital video and method of generating same
CN1738429A (zh) * 2001-09-12 2006-02-22 松下电器产业株式会社 图像解码方法
DE10158658A1 (de) * 2001-11-30 2003-06-12 Bosch Gmbh Robert Verfahren zur gerichteten Prädiktion eines Bildblockes
US8094711B2 (en) * 2003-09-17 2012-01-10 Thomson Licensing Adaptive reference picture generation
US7602849B2 (en) * 2003-11-17 2009-10-13 Lsi Corporation Adaptive reference picture selection based on inter-picture motion measurement
JP4213646B2 (ja) 2003-12-26 2009-01-21 株式会社エヌ・ティ・ティ・ドコモ 画像符号化装置、画像符号化方法、画像符号化プログラム、画像復号装置、画像復号方法、及び画像復号プログラム。
JP2008507206A (ja) * 2004-07-13 2008-03-06 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション 画像圧縮のための不遍丸め
US8116379B2 (en) * 2004-10-08 2012-02-14 Stmicroelectronics, Inc. Method and apparatus for parallel processing of in-loop deblocking filter for H.264 video compression standard
JP4533081B2 (ja) 2004-10-12 2010-08-25 キヤノン株式会社 画像符号化装置及びその方法
US20060182184A1 (en) * 2005-02-11 2006-08-17 Florent Maheo Device and method for pre-processing before encoding of a video sequence

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012018198A3 (ko) * 2010-07-31 2012-04-12 Oh Soo-Mi 예측 블록 생성 장치
WO2012018197A3 (ko) * 2010-07-31 2012-04-12 Oh Soo-Mi 인트라 예측 복호화 장치
US9307246B2 (en) 2010-07-31 2016-04-05 M & K Holdings Inc. Apparatus for decoding moving picture
WO2012023762A3 (ko) * 2010-08-17 2012-04-12 Oh Soo Mi 인트라 예측 복호화 방법
US9491478B2 (en) 2010-08-17 2016-11-08 M&K Holdings Inc. Method for decoding in intra prediction mode
US11284072B2 (en) 2010-08-17 2022-03-22 M&K Holdings Inc. Apparatus for decoding an image

Also Published As

Publication number Publication date
EP2145482A1 (en) 2010-01-20
TW200920143A (en) 2009-05-01
CN101682784A (zh) 2010-03-24
JP2010525658A (ja) 2010-07-22
US20100118940A1 (en) 2010-05-13
WO2008130367A1 (en) 2008-10-30
WO2008130367A8 (en) 2009-10-29

Similar Documents

Publication Publication Date Title
KR20100027096A (ko) 인트라 예측을 위한 적응 기준 영상 데이터 생성
JP7368414B2 (ja) 画像予測方法および装置
US10178403B2 (en) Reference picture list construction in intra block copy mode
CN107710765B (zh) 用于译码视频数据的方法和装置及计算机可读存储介质
JP2019525659A (ja) 分離ツリー構造を使用したイントラビデオコーディング
JP2019528025A (ja) 分離ツリー構造を使用したイントラビデオコーディング
JP2022525470A (ja) ビデオコーディングにおける適応パラメータセット(aps)を用いるブロックベースの適応ループフィルタ(alf)
US10484721B2 (en) Method for motion estimation of non-natural video data
US9693060B2 (en) Device and method for scalable coding of video information
US20170347126A1 (en) Video debanding using adaptive filter sizes and gradient based banding detection
CN115278256B (zh) 对视频数据进行解码的方法、装置和介质
CN111937389B (zh) 用于视频编解码的设备和方法
US9883183B2 (en) Determining neighborhood video attribute values for video data
CN115336272A (zh) 基于空间邻域的仿射运动导出

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application